PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24

N0Thing
2016-08-15, 11:38:33
e:\ zu spät

fondness
2016-08-15, 12:36:05
Ganz interessanter Artikel: So viel Leistung bringt die 4. Generation GCN
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/

iuno
2016-08-15, 14:59:43
Ganz interessanter Artikel: So viel Leistung bringt die 4. Generation GCN
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/
cool, auf sowas habe ich auch mal gewartet :up: Danke an die Tester

Wobei man was die Ergebnisse angeht natuerlich auch wieder vorsichtig sein muss. Ich halte etwa die Spielerei mit dem Speichertakt fuer etwas "gefaehrlich", mglw. werden andere Bloecke wie etwa ROPs oder auch Caches dadurch beeinflusst :confused:

HOT
2016-08-15, 15:12:09
Bei dem Fazit ist die 8GB-8Gbps-Variante der 470 die beste Wahl.

BlackArchon
2016-08-15, 15:27:27
...
Wobei man was die Ergebnisse angeht natuerlich auch wieder vorsichtig sein muss. Dass P10 mehr TMUs hat wurde afaics nicht beruecksichtigt.
...
Was meinst du? Die drei Kandidaten (280X, 380X, 470) haben doch alle 128 TMUs und 32 ROPs.

Der_Korken
2016-08-15, 15:30:10
Dass P10 mehr TMUs hat wurde afaics nicht beruecksichtigt.

Die 470 müsste eigentlich genauso viele TMUs wie die 280X/380X haben, weil alle 3 GPUs 32CUs haben.

Beim Test hätte mich noch interessiert, wie die Karten mit zusätzlichem Speichertakt "skalieren". Die 480 soll sich laut Test kaum von der 470 absetzen können, was man durch ein Anheben des Speichertakts hätte überprüfen können. Die 480 müsste dann mehr dazugewinnen, wenn die These stimmt. Die 280 hat noch keine DCC und fällt daher durch den eingeschränkten Speichertakt wahrscheinlich stärker zurück als die anderen Karten. Immerhin hat sie ja 384 bit SI und der Speicher wurde hier stark untertaktet.

Ich hätte es aufschlussreicher gefunden, wenn man mit deutlich weniger Takt getestet hätte, z.B. 800 Mhz GPU und 4,5Ghz VRAM (bzw. 3Ghz bei der 280). Ist natürlich nicht praxistauglich, aber man will ja auch keine absoluten Benchmarkwerte, sondern nur die Verhältnisse zwischen den Chips und dann ist es egal bei welchem Takt ich messe. Anschließend hätte man den VRAM-Takt um +33% anheben können, um zu gucken, welche GPU davon wie stark profitiert. Eventuell würde die 280 dann zur 380 aufschließen können. Damit hätte man gezeigt, dass GCN 1.0 genauso viel leistet wie GCN 1.2, aber dafür mehr Speicherbandbreite benötigt.

iuno
2016-08-15, 15:34:46
stimmt natuerlich, das war Unsinn
An der GCN Struktur wurde ja dahingehend gar nichts umgebaut :redface:

Achill
2016-08-15, 16:12:53
Ich hätte mir noch den Hinweis gewünscht, dass man die Tess.Stufe bei AMD limitieren kann (8x oder 16x) und damit (mit leicht eingeschränkter Img.Quality) bei den entsprechenden Spielen doch deutlich Leistung rausholen kann und das natürlich den älteren Gen.1 Karten das Leben ein gutes Stück leichter macht.

@Wolle, das weiß evtl. nicht jeder Leser und AMD Nutzer - evtl. passt ja (mal wieder) ein Artikel zu AMD & NV Control-Panel und Tweaks in diesen... nur eine Idee.

Raff
2016-08-15, 17:49:42
No Man's Sky PC: Technik-Test mit ersten Grafikkarten-Benchmarks (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/)

OpenGL ist nicht Vulkan oder DX12, daher reißen die Radeons hier nur in hohen Auflösungen etwas.

MfG,
Raff

N0Thing
2016-08-15, 18:09:02
No Man's Sky PC: Technik-Test mit ersten Grafikkarten-Benchmarks (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/)


Danke für den Test. :up:

Ist es eigentlich für euch möglich, bei Vergleichsbildern unterschiedlicher Seitenverhältnisse die Bilder auf gleiche Höhe zu fixieren anstatt auf gleiche Breite? Als Beispiel die Darstellung bei widescreengamingforum: http://www.wsgf.org/dr/no-mans-sky/en

Bei eurer Darstellung geht das hinzugewonnene Sichtfeld durch die fixierte Breite verloren.

Armaq
2016-08-15, 21:13:42
No Man's Sky PC: Technik-Test mit ersten Grafikkarten-Benchmarks (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/)

OpenGL ist nicht Vulkan oder DX12, daher reißen die Radeons hier nur in hohen Auflösungen etwas.

MfG,
Raff
is tdas die 1060 oder die 1080 vor der Fury?

Ex3cut3r
2016-08-15, 21:15:52
Ist die 1060, ja...

Achill
2016-08-15, 21:43:10
No Man's Sky PC: Technik-Test mit ersten Grafikkarten-Benchmarks (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/)

OpenGL ist nicht Vulkan oder DX12, daher reißen die Radeons hier nur in hohen Auflösungen etwas.

MfG,
Raff


Bei GameGpu.com kommen andere Ergebnisse raus ... :confused:

http://gamegpu.com/images/stories/Test_GPU/RPG/No_Mans_Sky/test/nms_1920.png

Hübie
2016-08-15, 22:15:00
Das kannst du nicht vergleichen. ;)

Digidi
2016-08-15, 22:22:31
No Man's Sky PC: Technik-Test mit ersten Grafikkarten-Benchmarks (http://www.pcgameshardware.de/No-Mans-Sky-Spiel-16108/Specials/Technik-Test-Benchmarks-1204593/)

OpenGL ist nicht Vulkan oder DX12, daher reißen die Radeons hier nur in hohen Auflösungen etwas.

MfG,
Raff

Danke für den Test und zeigt das etwas nicht stimmt mit dem Spiel. Mal wieder eine Alpha als Finale Version rausgehauen. Gamernexeus berichtet ja schon lags von 1 Sekunde auf allen Karten.
Ich wollte es mir ja kaufen. Die Idee hinter dem Spiel mit dem Billionen an Planeten ist cool. Aber so nicht!

Hübie
2016-08-15, 22:31:11
Die 1/2 fps sind Platzhalter, falls es nicht auffiel. ;)

Digidi
2016-08-15, 23:35:11
Die 1/2 fps sind Platzhalter, falls es nicht auffiel. ;)

Es geht um 1060 vor fury x ;) falls es nicht auffiel

Hübie
2016-08-16, 00:34:34
Jetzt wo du es sagst. X-D

hesTeR-
2016-08-16, 09:56:20
Ich hab ja auch ne rx480 aber es ist schon rel. krass wie weit die 1060 teilweise vorn liegt.

das immer alles auf kapute spiele zu schieben.... naja kann man machen aber bringt mir nix, wichtig ist nur das was aus der Karte auf den Bildschirm kommt.

dildo4u
2016-08-16, 10:10:48
PCGH hat Wolfenstein auf der 480 noch mal nachgetestet mit Skylake CPU macht es immer noch Probleme mit Haswell läufts.

http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/News/RSCE-1682-Bug-Wolfenstein-Skylake-Polaris-1204234/

HOT
2016-08-16, 10:30:38
Sieht trotz fix immer noch ziemlich unterirdisch aus. Irgendwas stimmt da mit dem OpenGL-Treiber aber ganz gewaltig nicht. Wolfenstein ist ja jetzt auch schon ganz schön lange auf dem Markt. Blöderweise ist mit Dishonored2 schon da nächste OpenGL-Spiel in der Pipeline, die Testergebnisse sind vorhersagbar...

dargo
2016-08-16, 10:33:28
Blöderweise ist mit Dishonored2 schon da nächste OpenGL-Spiel in der Pipeline, die Testergebnisse sind vorhersagbar...
Dishonored 2 soll DX12 oder Vulkan inkl. Async Compute verwenden. ;)

dildo4u
2016-08-16, 10:36:12
Muss nich unbedingt was mit Treiber zu tun haben laut dem Artikel laufen die AMD's gut,die ne hohe Speicherbandbreite haben.

Raff
2016-08-16, 10:38:40
Da sich Polaris mithilfe eines Treiber-Updates teilweise reparieren ließ und die Performance mit den alten Treibern wirklich einfach nur kaputt aussieht: Doch, das liegt (auch) am Treiber. :)

MfG,
Raff

Thoro
2016-08-16, 10:41:30
Muss nich unbedingt was mit Treiber zu tun haben laut dem Artikel laufen die AMD's gut,die ne hohe Speicherbandbreite haben.

Ist auch die Conclusio des aktuellen CB-Vergleichs der GCN-Generationen, dass die Speicherbandbreite der am stärksten limitierende Faktor bei AMD ist.

dildo4u
2016-08-16, 10:44:44
Jup deshalb wartet AMD auf HBM2 für Vega.

Thoro
2016-08-16, 10:56:46
Jup deshalb wartet AMD auf HBM2 für Vega.

Ist halt im aktuellen Vergleich mit Nvidia nicht sonderlich rosig für AMD.

dargo
2016-08-16, 11:14:31
So ein Quatsch, wie sehr die Bandbreite limitiert sieht man in Doom @Vulkan. :rolleyes:

Thoro
2016-08-16, 11:23:50
So ein Quatsch, wie sehr die Bandbreite limitiert sieht man in Doom @Vulkan. :rolleyes:

Dass Vulkan für AMD sehr positiv ist, ändert wenig daran, dass - wie gesagt, siehe CB-Vergleich - in anderen Szenarien anscheinend die Speicherbandbreite der wesentliche Faktor ist, warum AMD Rohleistung nicht auf die Straße bringt.

Schnoesel
2016-08-16, 11:26:55
Wenn es nur an der Bandbreite liegt müsste meine Fury ja alles abrocken. Tut sie aber nicht. Das ist imo zu simpel gedacht. Hohe Bandbreit ist nie verkehrt aber auch nicht der Allheilsbringer.

Thoro
2016-08-16, 11:28:55
Wenn es nur an der Bandbreite liegt müsste meine Fury ja alles abrocken. Tut sie aber nicht. Das ist imo zu simpel gedacht. Hohe Bandbreit ist nie verkehrt aber auch nicht der Allheilsbringer.

Das sag ich ja auch nicht; aber sie ist anscheinend der - isoliert betrachtet - aktuell größte Faktor bei Polaris.

N0Thing
2016-08-16, 11:34:25
So ein Quatsch, wie sehr die Bandbreite limitiert sieht man in Doom @Vulkan. :rolleyes:

Man findet sicher immer ein Beispiel, dass von allen anderen Ergebnissen abweicht. Du weißt sicher, dass unterschiedliche Anwendungen unterschiedliche Anforderungen haben (siehe CB-Artikel), dein herausgesuchtes Sahnestück bringt keine neue Erkenntnis.
Bei Wolfenstein - The Old Blood kommt neben dem hohen Bandbreitenbedarf eben auch noch der OpenGL-Treiber von AMD hinzu, der in dem Spiel dem Treiber von Nvidia unterlegen ist.

dildo4u
2016-08-16, 11:36:42
Doom untersützt kein MSAA,das könnte den Unterschied zu Wolfenstein erklären.

HOT
2016-08-16, 11:47:20
Dishonored 2 soll DX12 oder Vulkan inkl. Async Compute verwenden. ;)
DX12 ganz bestimmt nicht, weil deren Technik auf idTech5 basiert. Aber ich fürchte, dass man dort auch auf Vulkan vergeblich hofft. Der wird wieder nur OpenGL sein.

aufkrawall
2016-08-16, 11:49:22
Hast du bestimmt keine Quelle zu.

=Floi=
2016-08-16, 11:59:44
http://www.pcgameshardware.de/Dishonored-2-Spiel-54640/Specials/Vorschau-1198166/

aufkrawall
2016-08-16, 12:02:43
Der Autor hat offenbar auch keine.

dargo
2016-08-16, 12:04:59
DX12 ganz bestimmt nicht, weil deren Technik auf idTech5 basiert. Aber ich fürchte, dass man dort auch auf Vulkan vergeblich hofft. Der wird wieder nur OpenGL sein.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=565059

Doom untersützt kein MSAA,das könnte den Unterschied zu Wolfenstein erklären.
Ist doch das einfachste der Welt es herauszufinden. MSAA in Wolfenstein deaktivieren und schauen wie sich die fps verhalten.

Man findet sicher immer ein Beispiel, dass von allen anderen Ergebnissen abweicht. Du weißt sicher, dass unterschiedliche Anwendungen unterschiedliche Anforderungen haben (siehe CB-Artikel), dein herausgesuchtes Sahnestück bringt keine neue Erkenntnis.

Doch... die Erkenntnis, dass OpenGL noch größere Steinzeit als DX11 ist.

HOT
2016-08-16, 12:34:07
Ok, ich nehms zurück, die gehen ja echt in die vollen :eek:. Da ist wohl nicht mehr allzuviel von idTech5 zu sehen :D. Gott sei dank, ich warte auch sehnsüchtig auf das Game :D.

dargo
2016-08-16, 13:08:05
Da ist wohl nicht mehr allzuviel von idTech5 zu sehen :D.
Ich wüsste jetzt nicht warum idTech5 und Vulkan sich ausschließen sollten. Coda hats sogar bei Quake geschafft. :wink:

N0Thing
2016-08-16, 14:11:12
Doch... die Erkenntnis, dass OpenGL noch größere Steinzeit als DX11 ist.

Das Thema war Bandbreitenlimitierung und Doom scheint davon auch unter OpenGL nicht besonders von betroffen zu sein.

Ok, ich nehms zurück, die gehen ja echt in die vollen :eek:. Da ist wohl nicht mehr allzuviel von idTech5 zu sehen :D. Gott sei dank, ich warte auch sehnsüchtig auf das Game :D.

Wobei man immer unterscheiden muß zwischen den (theoretischen) Möglichkeiten der Engine und dem was letztendlich im Spiel landet. Gerade der Abschnitt mit den next gen APIs (https://www.youtube.com/watch?v=UIAzBN1-Wq4&feature=youtu.be&t=1112) betrifft die Zukunft und generelle Vorgehensweisen bei der Spieleentwicklung und er erweckt in der Präsentation in keinster Weise den Eindruck, dass sie für den PC die next gen APIs nutzen würden.
Wenn sie Vulkan implementieren würde ich mich freuen, die Präsentation stellt für mich aber keinen Beleg in der Hinsicht dar.

Cyphermaster
2016-08-16, 15:21:37
Hat denn schon jemand mal versucht, die RX480 unter GPU@stock, aber RAM@4500Mhz (laut Freund Suchmaschine ein gut erreichbarer Wert) zu fahren und gegen @stock zu benchen, um ein Einbremsen des P10 durch den Speicher zu minimieren? Wenn dort gemäß dem CB-Vergleich RX470/RX480 der Haupt-Flaschenhals der P10-Karten liegt, sollte das doch für praktisch fast Null an zusätzlichem Stromdurst in relativ vielen Situationen bereits ein fühlbares Performance-Plus ergeben, oder nicht?

Iruwen
2016-08-16, 15:49:51
Danke für den Test und zeigt das etwas nicht stimmt mit dem Spiel. Mal wieder eine Alpha als Finale Version rausgehauen. Gamernexeus berichtet ja schon lags von 1 Sekunde auf allen Karten.
Ich wollte es mir ja kaufen. Die Idee hinter dem Spiel mit dem Billionen an Planeten ist cool. Aber so nicht!
OT: du verpasst nicht viel, das fasst das Spiel ganz gut zusammen:
http://vid.pr0gramm.com/2016/08/15/5322c9ed537c76b8.mp4
:biggrin:

StefanV
2016-08-16, 15:56:24
Danke für den Test und zeigt das etwas nicht stimmt mit dem Spiel. Mal wieder eine Alpha als Finale Version rausgehauen. Gamernexeus berichtet ja schon lags von 1 Sekunde auf allen Karten.
Ich wollte es mir ja kaufen. Die Idee hinter dem Spiel mit dem Billionen an Planeten ist cool. Aber so nicht!
Die Userreviews auf Steam scheinen sich auch etwas erholt zu haben...

Zu Anfang waren unglaubliche 33% der Reviews positiv zu dem Spiel.
Jetzt sinds immerhin 58%...

Also jetzt nicht der unglaubliche über Kracher, eher das Gegenteil scheint der Fall zu sein...

Screemer
2016-08-16, 16:13:28
Hat sonst noch eine ne 480 4gb bei Bora/km bestellt? Meine ist noch immer nicht verschickt. Soviel zu auf Lager.

Linmoum
2016-08-16, 16:24:09
Die Userreviews auf Steam scheinen sich auch etwas erholt zu haben...

Zu Anfang waren unglaubliche 33% der Reviews positiv zu dem Spiel.
Jetzt sinds immerhin 58%...
Was schlicht daran liegt, dass das System sämtliche Reviews streicht, sobald das Spiel refundet wird.
Und das haben... etliche getan. Nicht verwunderlich, wenn ich die ganzen Berichte über den technischen Zustand von NMS so sehe.

Hat sonst noch eine ne 480 4gb bei Bora/km bestellt? Meine ist noch immer nicht verschickt. Soviel zu auf Lager.
Wann hast du die Karte bestellt? Schon mal kontaktiert und nachgefragt, warum das so lange dauert?

Screemer
2016-08-16, 16:53:35
Donnerstag. Also nach heute vor 4 Werktagen. Geld ist also seit fast ner Woche weg und ich hab noch nicht mal ne Bestätigung über die Bestellung, nur die Automail nach der Bestellung. Ich denke auch nicht, dass da noch was kommt:

Bitte beachten Sie, das es sich hierbei um eine automatisierte Email handelt, welche Ihnen den Bestelleingang bei uns bestätigt jedoch noch keine Annahme Ihres Kaufangebots darstellt. Eine entsprechende Auftragsbestätigung wird erst nach Prüfung erteilt.

Fliwatut
2016-08-16, 17:14:51
Ruf doch mal an.

HOT
2016-08-16, 17:57:39
Das Thema war Bandbreitenlimitierung und Doom scheint davon auch unter OpenGL nicht besonders von betroffen zu sein.



Wobei man immer unterscheiden muß zwischen den (theoretischen) Möglichkeiten der Engine und dem was letztendlich im Spiel landet. Gerade der Abschnitt mit den next gen APIs (https://www.youtube.com/watch?v=UIAzBN1-Wq4&feature=youtu.be&t=1112) betrifft die Zukunft und generelle Vorgehensweisen bei der Spieleentwicklung und er erweckt in der Präsentation in keinster Weise den Eindruck, dass sie für den PC die next gen APIs nutzen würden.
Wenn sie Vulkan implementieren würde ich mich freuen, die Präsentation stellt für mich aber keinen Beleg in der Hinsicht dar.
Dishonored wird doch sogar erwähnt... und für welches Spiel soll das denn sonst gelten? So viel haben die sicher nicht in der Pipeline :D. Außerdem ist Dishonored 2 DAS Aushängeschild, falls man die Technik weiterverkaufen möchte, es wär schön dumm, die Möglichkeiten nicht auszunutzen, wenn man sie schon hat.

Ich wüsste jetzt nicht warum idTech5 und Vulkan sich ausschließen sollten. Coda hats sogar bei Quake geschafft. :wink:
Kann mich nicht erinnern sowas irgendwo geschrieben zu haben. Ich hielt es nur für unwahrscheinlich, das die sich die Mühe machen. Und das wurd mit der Präsentation eindeutig widerlegt.

dargo
2016-08-16, 18:19:25
Wobei man immer unterscheiden muß zwischen den (theoretischen) Möglichkeiten der Engine und dem was letztendlich im Spiel landet. Gerade der Abschnitt mit den next gen APIs (https://www.youtube.com/watch?v=UIAzBN1-Wq4&feature=youtu.be&t=1112) betrifft die Zukunft und generelle Vorgehensweisen bei der Spieleentwicklung und er erweckt in der Präsentation in keinster Weise den Eindruck, dass sie für den PC die next gen APIs nutzen würden.
Wenn sie Vulkan implementieren würde ich mich freuen, die Präsentation stellt für mich aber keinen Beleg in der Hinsicht dar.
Du hast aber schon mitbekommen, dass der Vortrag fast ein Jahr alt ist? Low level am PC wird schon bei 10:50 besprochen mit DX12/Mantle und Vulkan, genauso wie das ganze Multithreading auf Seite der CPU davor. Next Steps heißt nichts anderes als, dass man sich später zusätzlich mit Async Compute beschäftigt. Und zwar sowohl für Konsole als auch PC mit den neuen APIs.

Screemer
2016-08-16, 18:25:02
Ruf doch mal an.
Bei ner 01805 Servicehotline für 14 bzw. 42 Cent pro Minute? Auf keinen Fall. Finde ich in der heutigen Zeit absolut unterirdisch für ne Servicehotline. Meine Anfrage per Mail wurde auch nicht beantwortet und wenn ich mir so die Bewertungen auf Google für die Zentrale in Düren ansehe, dann schwant mir schon Böses wenn ich an mein Geld denke.

Wirklich schade ist, dass das meine zweite Bestellung einer 480 4gb ist, die wohl nicht bedient wird obwohl sie angeblich auf Lager war.

dargo
2016-08-16, 18:28:03
Dann versuchs mal hier.
https://www.alternate.de/Sapphire/Radeon-RX-480-Grafikkarte/html/product/1283376?campaign=Grafikkarte/Sapphire/1283376

Wobei alles schon reserviert ist. :freak:

Screemer
2016-08-16, 18:30:25
Ne Minute später schon nicht mehr verfügbar. Das Zeug muss weggehen wie geschnitten Brot.

dargo
2016-08-16, 18:37:05
Lol. :freak:

Messias
2016-08-16, 19:05:35
Hat denn schon jemand mal versucht, die RX480 unter GPU@stock, aber RAM@4500Mhz (laut Freund Suchmaschine ein gut erreichbarer Wert) zu fahren und gegen @stock zu benchen, um ein Einbremsen des P10 durch den Speicher zu minimieren? Wenn dort gemäß dem CB-Vergleich RX470/RX480 der Haupt-Flaschenhals der P10-Karten liegt, sollte das doch für praktisch fast Null an zusätzlichem Stromdurst in relativ vielen Situationen bereits ein fühlbares Performance-Plus ergeben, oder nicht?

Ich hab das gerade mal schnell mit 3DMark Time Spy gegengetestet.
Der Unterschied war jetzt nicht so der Überhammer:

Einmal die Karte auf GPU: 1288MHz und Speicher: 2200MHz
Ergebnis: 4135 Grafik-Punkte
Und
Einmal die Karte auf GPU: 1288MHz und Speicher: 2000MHz
Ergebnis: 4066 Grafik-Punkte

Also schon ein Unterschied, aber nicht ganz überzeugend.
Mehr wollte ich jetzt aus Zeitgründen nicht austesten und ich weiß nicht, wie Bandbreiten limitiert der 3DMark ist.

Cyphermaster
2016-08-16, 19:40:41
Erst einmal dickes Danke für's kurze Gegentesten, Messias! :heart:

Allerdings: Wenn CB richtig liegt mit dem so massiven Flaschenhals Speicherbandbreite, müßte der 3DMark schon recht wenig Bandbreite verlangen bzw. die Auslastung des P10 dort nahe am Optimum liegen (nur ~2% Performanceausbeute bei ~10% mehr Speichertakt). Vielleicht gibt's bald auch dazu mal weitere (breitere) Tests.

Messias
2016-08-16, 21:29:06
Erst einmal dickes Danke für's kurze Gegentesten, Messias! :heart:

Allerdings: Wenn CB richtig liegt mit dem so massiven Flaschenhals Speicherbandbreite, müßte der 3DMark schon recht wenig Bandbreite verlangen bzw. die Auslastung des P10 dort nahe am Optimum liegen.

Ja, sehe ich auch so. Deshalb mein etwas enttäuschter Kommentar.
Time Spy nutzt ja DX12/Asynchronous Compute... vielleicht deshalb ein geringerer Zugewinn per Speichertakt? Ganz ins Blaue?

Wie auch immer: Ja, ein Test, der das mal etwas in der Breite betrachtet, wäre toll!

maximus_hertus
2016-08-16, 21:50:01
Afair spielt die Speicherbandbreite beim 3DMark keine große Rolle oder anders gesagt, wenn man ein Benchmark finden will, welcher nur wenig auf den Speichertakt anspricht, ddann nimmt man den 3DMark.

HOT
2016-08-16, 21:57:01
Ja, sehe ich auch so. Deshalb mein etwas enttäuschter Kommentar.
Time Spy nutzt ja DX12/Asynchronous Compute... vielleicht deshalb ein geringerer Zugewinn per Speichertakt? Ganz ins Blaue?

Wie auch immer: Ja, ein Test, der das mal etwas in der Breite betrachtet, wäre toll!
Nein, Timespy nutzt nicht das volle Potenzial (nur Preemtion AFAIK), um die "Neutralität" zu wahren (was ein Quatsch), deshalb ja auch die Kritik an dem Benchmark. Zudem nutzt Timespy nur FL11_0. Das taugt also genau 0 als Architekturübergreifender Vergleich. Ich glaub nicht, dass dieser Benchmark für irgendeine Analyse taugt.

Chronicle
2016-08-16, 22:01:46
Bei ner 01805 Servicehotline für 14 bzw. 42 Cent pro Minute? Auf keinen Fall. Finde ich in der heutigen Zeit absolut unterirdisch für ne Servicehotline. Meine Anfrage per Mail wurde auch nicht beantwortet und wenn ich mir so die Bewertungen auf Google für die Zentrale in Düren ansehe, dann schwant mir schon Böses wenn ich an mein Geld denke.

Wirklich schade ist, dass das meine zweite Bestellung einer 480 4gb ist, die wohl nicht bedient wird obwohl sie angeblich auf Lager war.

Hast du eine Filiale von denen in der Nähe? Ich hab da auch mal Pedalen für mein Lenkrad bestellt und die haben ewig nicht geliefert. Hab dann bei der K&M Filiale hier in Essen angerufen und die haben das komplett für mich geklärt.

dildo4u
2016-08-16, 22:05:54
Nein, Timespy nutzt nicht das volle Potenzial sondern nur Context-Switching, deshalb ja auch die Kritik an dem Benchmark.
Das ist Murks Fury gewinnt am meisten durch AC,die dicken AMD's werden durch Tesselation limitiert.

http://abload.de/img/timespy-3epjoa.png

Wie Futuremark geschrieben hat sie arbeiten mit AMD und NV zusammen um ein vernünftiges Performance Bild abzudecken.AMD wird das ok gegeben haben weil sie wissen das Vega durch das mehr an Tessleistung deutlich besser dastehen wird,was zum Aufrüsten führt.

As with every 3DMark release, Time Spy was developed with input from industry leaders including AMD, Intel, Microsoft, NVIDIA, and the other members of our Benchmark Development Program (BDP).

3DMark Time Spy has been in development for nearly two years, and BDP members have been involved from the start. BDP members receive regular builds throughout development and conduct their own review and testing at each stage. They have access to the source code and can suggest improvements and changes to ensure that the implementation is correct. All development takes place in a single source tree, which means anything suggested by a vendor can be immediately reviewed and commented on by the other vendors. Ultimately, each member approves the final benchmark for release to the press and public.

http://www.futuremark.com/pressreleases/a-closer-look-at-asynchronous-compute-in-3dmark-time-spy

dargo
2016-08-17, 06:20:52
Das ist Murks...
Das ist kein Murks sondern Fakt!

Hübie
2016-08-17, 07:37:52
Seit wann wird beeinflusst wie die Hardware so etwas regelt? Das ist AC und fertig. Wie das gemappt wird steht dann auf einem anderen Blatt und dafür dass es nur 2560 ALUs und nur context-switch ist kommt doch ordentlich was bei raus, also kapier ich nicht was hier wieder rumlamentiert wird. :rolleyes:

Messias
2016-08-17, 07:50:51
Hier hatte sich Futuremark auch mal zu der Kritik an deren AC Implementierung geäußert.

http://www.pcgameshardware.de/DirectX-12-Software-255525/News/3DMark-Time-Spy-Asynchronous-Compute-Kritik-1201886/

HOT
2016-08-17, 08:47:46
Wie auch immer, es taugt nicht als Vergleich, weil nicht alle Möglichkeiten genutzt werden, Punkt. Bei Maxwell hat man ja auch ne Extrawurst eingebaut. Sicherlich werden wir beim Volta-Release dann überraschend ein TimeSpy-Update mit allen Features sehen, ein Schelm wer Böses dabei denkt.
Und nein, das ist Krüppel-AC. Fast alle anderen machen das offenbar anders, also ist das nicht Repräsentativ.

Hübie
2016-08-17, 08:48:21
Ja nur weil es mal ein Studio gibt, welches sich nicht von AMD ausstatten lässt (Hallo io Interactive) oder man durch Unwichtigkeit in der Senke verschwindet (Hallo AotS) heulen alle wieder gleich herum. Ich sag's mal frei heraus: Es ist mir scheiss egal wie etwas gelöst wird, mich interessiert nur das Resultat. Somit kann man sich nach wie vor entspannt zurück lehnen und seine Investition beweihräuchern. Unter Standardverhältnissen sieht es auf Balkendiagrammen ab und zu nicht gut aus, aber Zuhause ist es dann etwas anderes. Und da bietet jede 980 Ti zumindest das Potenzial jede FuryX zu schlagen.
Gefallen tut es mir nicht, aber ich kaufe Leistung - da ist der Preis nicht ausschlaggebend.

Ps: Mir ist klar dass man mich für den Beitrag lynchen wird, nur kann man Tatsachen nicht verdrehen wenn man bei der Wirklichkeit bleibt. ;)

Gimmick
2016-08-17, 08:56:22
Wie Futuremark geschrieben hat sie arbeiten mit AMD und NV zusammen um ein vernünftiges Performance Bild abzudecken.AMD wird das ok gegeben haben weil sie wissen das Vega durch das mehr an Tessleistung deutlich besser dastehen wird,was zum Aufrüsten führt.



Gibt Benchmarks mit verschiedenen Tess-Leveln?

dargo
2016-08-17, 09:31:41
Ich sag's mal frei heraus: Es ist mir scheiss egal wie etwas gelöst wird, mich interessiert nur das Resultat.
Nur wirst du das Resultat in keinem Spiel sehen. Irgenein synthetischer Benchmark ist absolut wayne.

Hübie
2016-08-17, 09:38:47
Im speziellen Fall der Engine nicht, aber AotS oder Hitman sind ja extrem gut lauffähig mit AMDs Architektur. Diese Spiele erschlägt man eben notfalls mit Takt. :biggrin: Das meine ich mit Resultat.

dargo
2016-08-17, 09:47:02
Wieso nur AotS und Hitman? Das kannst du genau so auf alle anderen DX12/Vulkan Spiele übertragen, außer RotTR. Und ich wüsste nicht warum sich das mit den kommenden LL-Spielen ändern sollte. Sowohl in der PS4/XB1 als auch Neo/Scorpio stecken GCNs drin. Es war von vorne rein klar, dass erst mit neuen Engines/Spielen die Entwickler sich vollkommen auf die aktuelle Konsolengen konzentrieren können. Davon profitieren auch automatisch GCNs am PC. Es ist übrigens kein Zufall, dass sich die Entwickler selbst auf Konsole erst dieses Jahr verstärkt auf Async Compute stürzen.

Hübie
2016-08-17, 10:00:16
AMD kann dadurch den Abstand verringern, ja. Nur wollen viele einfach mehr Leistung. Egal wie man das erreicht. Es ist doch schon wieder traurig dass AMD mit 2304/144/32 nicht gegen 1280/80/48 bestehen kann - bis man eben ein Szenario findet in welchem GCN speziell angesprochen wird. Das reicht für Reviews halt (noch) nicht. Denn die zeichnen letztlich das Bild (denk mal an R9 390 worüber wir schrieben).
Und beinah jedem Spieler (mich inbegriffen) ist es scheiß egal wie die Bilder gerendert werden. Hauptsache es ist schnell da.
Schau mal mein Ergebnis vom TimeSpy: http://www.3dmark.com/spy/8508

Finde mal ein ähnliches in öffentlichen Reviews von Magazinen alá cb... ;) Meine Karte hat lediglich mehr Speichertakt bekommen, der Rest ist wie aus dem Karton.

Gut dass die RX 480 nichts desto trotz einen reißenden Absatz findet.

iuno
2016-08-17, 10:02:11
Nein, Timespy nutzt nicht das volle Potenzial (nur Preemtion AFAIK)
Das ist Unsinn

Seit wann wird beeinflusst wie die Hardware so etwas regelt? Das ist AC und fertig. Wie das gemappt wird steht dann auf einem anderen Blatt
Du kannst nicht einfach alle Tasks aufdroeseln, in beliebige Queues packen und alles nebneher laufen lassen, weil Daten voneinander abhaengig sind. Dann lohnt es sich auch nicht, einfach immer zu versuchen, alles zu parallelisieren, weil man sich dann ggf. gegenseitig Ressourcen wegnimmt. Die Entwickler muessen da noch lernen, zu welchem Zeitpunkt sich die Parallelisierung am meisten lohnt und wie man es am besten umsetzt. id hat sich da offenbar bisher am meisten Gedanken gemacht und es dementsprechend auch am besten hinbekommen, nicht zu vergleichen mit dem Ablauf beim 3DMark.

Und ja - natuerlich kann man als Dev auch eine strikt sequenzielle Abarbeitung erzwingen, selbst wenn man "AC" nutzt, indem man ueberall Synchronisiert und immer jeweils auf die Tasks aus der anderen Queue wartet. Ganz so schlimm ist es beim 3DMark nicht, aber fast ;p

Es ist mir scheiss egal wie etwas gelöst wird, mich interessiert nur das Resultat.
Ist auch richtig so, daher wundert es mich kein Stueck, dass NV mit Pascal offenbar noch kein AC kann und es wuerde mich auch nicht wundern, wenn Volta da ebenfalls nichts macht. Wenn context switching schnell oder im besten Fall instant geht, gibt es auch keinen Grund dazu. Wenn man mit sequentieller Abarbeitung die Einheiten ausgelastet bekommt und gleich schnell ist, macht es keinen Sinn alles umzubauen. Lahmer CS wuerde einem dabei halt das Genick brechen. Indem man dann statt der Breite den Takt in unermessliche Hoehen steigen laesst, schiebt man das Problem natuerlich nochmal weiter weg, irgendwann ist da aber auch Schluss.
Je groesser die Chips aber werden und je mehr auf Softwareseite aufgestueckelt und parallelisiert wird, desto problematischer wird das. Die Zukunft sieht halt anders aus, auch was Computing angeht denke ich schon, dass sie da was machen muessen. Aber ob NV das Problem in Games schon mit Volta hat, wenn man bei Pascal noch nichts davon sieht? Wohl eher nicht...

dargo
2016-08-17, 10:03:13
AMD kann dadurch den Abstand verringern, ja. Nur wollen viele einfach mehr Leistung. Egal wie man das erreicht. Es ist doch schon wieder traurig dass AMD mit 2304/144/32 nicht gegen 1280/80/48 bestehen kann - bis man eben ein Szenario findet in welchem GCN speziell angesprochen wird.
Was soll daran traurig sein? Soll ich jetzt schreiben es ist traurig wieviel mehr Takt NV für vergleichbare Leistung braucht?

Dino-Fossil
2016-08-17, 10:08:54
Eben, das sind unterschiedliche Architekturen mit unterschiedlichem Ansatz.
Äpfel und Birnen.
Der Vergleich der theoretischen Rohleistung fällt ja nicht ganz so extrem aus.
Aber es stimmt schon, dass AMD an der Auslastung der GCN-Architektur arbeiten muss.
Hardwareseitig scheint Polaris durchaus einige Verbesserungen mitzubringen (dank dem CB Test haben wir ja jetzt endlich einen direkten Vergleich 470-280X-380X).

Softwareseitig werden DX12/Vulkan da helfen, aber mMn hätte sich trotzdem auch unter DX11 und niedriger schon lange was tun müssen.
Selbst wenn high-level APIs GCN nicht ganz so gut schmecken ist da sicherlich noch was drin, nur fehlen wohl Ressourcen oder der Wille etwas zu ändern.

Raff
2016-08-17, 10:08:56
WoW 7.0 (Legion) im Test mit 25 Grafikkarten (http://www.pcgameshardware.de/World-of-Warcraft-Legion-Spiel-55966/Specials/Legion-Test-Benchmarks-1204205/)

AMD tritt hier auf der Stelle, mittlerweile hat es beinahe Tradition, dass die Geforce-Karten hier fortrennen.

MfG,
Raff

Hübie
2016-08-17, 10:20:55
Was soll daran traurig sein? Soll ich jetzt schreiben es ist traurig wieviel mehr Takt NV für vergleichbare Leistung braucht?

Der benötigte Takt ist doch nicht traurig, wenn man das Resultat betrachtet :| Gerade das mit dem Verbrauch ist doch das krasse daran. Mit so wenig erreicht man doch soviel (Effizienz).
@iuno: Das ist mir schon klar, nur wird ja subtil der Vorwurf laut man habe nicht alles getan um GCN perfekt auszulasten, sondern habe eben Rücksicht auf NVIDIAs "schlechte" Hardware genommen. ;) Vielleicht hat man aber aus den von dir genannten Punkten nicht so massiv parallelisieren können (sync zwischen Threads/Workgroups).
Man muss ja auch eruieren wo es sich lohnt reine compute shader einzusetzen und wo nicht.

Messias
2016-08-17, 10:33:22
WoW 7.0 (Legion) im Test mit 25 Grafikkarten (http://www.pcgameshardware.de/World-of-Warcraft-Legion-Spiel-55966/Specials/Legion-Test-Benchmarks-1204205/)

AMD tritt hier auf der Stelle, mittlerweile hat es beinahe Tradition, dass die Geforce-Karten hier fortrennen.

MfG,
Raff

Alter, da ist nVidia zwar deutlich schneller... aber letztlich ist das genau das, was ich meine:

Alle Karten rennen hier locker im spielbaren Bereich. Unter 4k dann nur noch die Topmodelle von nVidia. Aber gegen die steht ja auch die RX 480 nicht.

Also, alle bringen spielbare Bildraten und da ist es doch völlig schnuppe, ob man 84 (480) oder 91fps (1060) hat, oder?

Solche Argumente ziehen vermutlich nur bei der ganz jungen Generation (geil, mein Balken ist länger als deiner). Wobei... WoW spielen ja auch nur die Kiddies. ;)

dargo
2016-08-17, 10:33:36
Der benötigte Takt ist doch nicht traurig, wenn man das Resultat betrachtet :|
Ansichtssache. ;)

Raff
2016-08-17, 10:37:35
Alter, da ist nVidia zwar deutlich schneller... aber letztlich ist das genau das, was ich meine:

Alle Karten rennen hier locker im spielbaren Bereich. Unter 4k dann nur noch die Topmodelle von nVidia. Aber gegen die steht ja auch die RX 480 nicht.

Also, alle bringen spielbare Bildraten und da ist es doch völlig schnuppe, ob man 84 (480) oder 91fps (1060) hat, oder?

Solche Argumente ziehen vermutlich nur bei der ganz jungen Generation (geil, mein Balken ist länger als deiner). Wobei... WoW spielen ja auch nur die Kiddies. ;)

Dass WoW auch mit Radeons tadellos spielbar ist, bestreitet niemand. Es gibt jedoch genug Leute, die in hohen Auflösungen spielen und/oder Supersampling aufrotzen, damit das elendige Flimmern verschwindet. Dann tritt die AMD-Schwäche in den Vordergrund – klick mal auf die Extrem-Benchmarks. Tetris-Optik in Full HD mit CMAA ist nicht jedermanns Sache. ;)

MfG,
Raff

iuno
2016-08-17, 10:39:55
nur wird ja subtil der Vorwurf laut man habe nicht alles getan um GCN perfekt auszulasten, sondern habe eben Rücksicht auf NVIDIAs "schlechte" Hardware genommen. ;)
MMn ist das weniger eine Sache der Anpassung auf bestimmte Hardware, sondern des Prinzips.
So wie der Benchmark umgesetzt wurde, ist es halt nur eine Momentaufnahme der schrottigen d3d12 Umsetzungen und liefert im Endeffekt dieselben Ergebnisse wie die alten <d3d12 Benchmarks. Das betrifft im uebrigen nicht nur die Zugewinne durch Parallelisierung mit AC, sondern auch andere Features, die nicht alle abdecken wie z.B. CR oder ROVs, also haette man es sich mMn. auch gleich sparen koennen und mir pers. sind die Ergebnisse daher auch voellig egal. Trotzdem fungiert er als Meinungsmacher, auch bei Entscheidungstraegern, obwohl er gar nicht zukunftsweisend ist. Insofern ist die Kritik imho schon berechtigt.


Heise greift uebrigens nochmal das Powergate auf: http://www.heise.de/newsticker/meldung/Pikantes-Politikum-Die-Radeon-RX-480-und-die-PCIe-Spezifikation-3297029.html

tl;dr: Konformitaetstests der PCI-SIG beinhalten keinen Punkt zur max. zulaessigen Stromaufnahme, daher hat AMD von einem konformen Produkt gesprochen. Das PCIe Logo duerfen sie natuerlich trotdzem nicht tragen (:eek: panic!!1!)

Schnoesel
2016-08-17, 10:45:49
Alter, da ist nVidia zwar deutlich schneller... aber letztlich ist das genau das, was ich meine:

Alle Karten rennen hier locker im spielbaren Bereich. Unter 4k dann nur noch die Topmodelle von nVidia. Aber gegen die steht ja auch die RX 480 nicht.

Also, alle bringen spielbare Bildraten und da ist es doch völlig schnuppe, ob man 84 (480) oder 91fps (1060) hat, oder?

Solche Argumente ziehen vermutlich nur bei der ganz jungen Generation (geil, mein Balken ist länger als deiner). Wobei... WoW spielen ja auch nur die Kiddies. ;)

Ist doch immer das gleiche. Da ist eine Karte mal 10-15% schneller wie die Konkurrenz ist diese gleich "vernichtet" worden obwohl man das im Spiel noch nicht mal wahrnimmt. ich finde die Einordnung im 3d Center daher sehr passend von Framebereichen zu sprechen.Das heißt kann ich flüssig spielen ja oder nein die absoluten FPS interessieren doch wirklich nur die Kids die sich daran aufgeilen . Naja Hardwaremags leben ja auch davon, dass sich die Propellerheads die Köpfe einschlagen. Generiert eben Klicks. Untersucht mal lieber die Grafikqualität. Das wäre mal eine sinnvolle Abwechslung gegenüber der reinen Balkenprotzerei!

Dass WoW auch mit Radeons tadellos spielbar ist, bestreitet niemand. Es gibt jedoch genug Leute, die in hohen Auflösungen spielen und/oder Supersampling aufrotzen, damit das elendige Flimmern verschwindet.

Evtl bin ich ja schon zu alt aber die Leute die ich kenne die WOW spielen denken noch nicht mal an 4K Auflösungen, Supersampling und dergleichen mehr. Deren Graka ist auch 3-4 Jahre alt. Ich kenne keinen der wegen WOW aufgerüstet hat. Nicht einen einzigen.

dargo
2016-08-17, 10:46:09
Dass WoW auch mit Radeons tadellos spielbar ist, bestreitet niemand. Es gibt jedoch genug Leute, die in hohen Auflösungen spielen und/oder Supersampling aufrotzen, damit das elendige Flimmern verschwindet. Dann tritt die AMD-Schwäche in den Vordergrund – klick mal auf die Extrem-Benchmarks. Tetris-Optik in Full HD mit CMAA ist nicht jedermanns Sache. ;)

Genau... der typische WoW-Spieler gibt für eine neue Grafikkarte 450-700€ aus. :rolleyes: Alles unter der 1070-OC/980TI-OC ist nämlich unspielbar.

Raff
2016-08-17, 10:47:53
Niemand hindert euch daran, die Dinge schönzureden, ich informiere nur. :)

MfG,
Raff

Schnoesel
2016-08-17, 10:53:37
Kommentar aus dem Elfenbeinturm? Das hat doch nix mit schönreden zu tun, sondern einfach nur wies außerhalb eines Enthusiastenforums aussieht.

Gorkon
2016-08-17, 11:00:20
Was kackt ihr euch denn jetzt schon wieder gegenseitig an :confused:

Seid doch froh, dass sich Raff die (bezahlte) Arbeit macht, ich bin es jedenfalls. Hier aus dem Forum kommt ja aus technischer Sicht bis auf Theoriekram ja mal absolut garnüschts mehr in solchen Sachen...sondern nur geflame, gehate und Cherrypicking, wenns in seiner eigenen kleinen kaputten Fantasie nicht so läuft, wie es laufen sollte :mad:

Exxtreme
2016-08-17, 11:02:15
Kommentar aus dem Elfenbeinturm? Das hat doch nix mit schönreden zu tun, sondern einfach nur wies außerhalb eines Enthusiastenforums aussieht.
Trotzdem sieht es sehr mau aus für AMD. Vor allem wenn man die Auflösung bissl höher stellt dann sind die aktuellen Radeons nicht viel schneller denn 4 Jahre alte Midrange-Karten der Konkurrenz. Ich wette, die GTX 670 mit 4 GB RAM wäre ca. genauso schnell wie die RX 480. Erster geht aber halt der RAM aus wenn man nur das 2 GB-Modell hat.

aufkrawall
2016-08-17, 11:04:08
Zu dieser Erkenntnis wäre nicht mal Troyan gelangt. Autsch.

Grendizer
2016-08-17, 11:18:57
Evtl bin ich ja schon zu alt aber die Leute die ich kenne die WOW spielen denken noch nicht mal an 4K Auflösungen, Supersampling und dergleichen mehr. Deren Graka ist auch 3-4 Jahre alt. Ich kenne keinen der wegen WOW aufgerüstet hat. Nicht einen einzigen.

Doch gerade aktuell einige Leute aus meiner Gilde, da während der aktuellen Events mittlerweile auf Detailstufe 3-4 runtergehen müssen. Ja die PCs die die teilweise nutzen spotten jeder Beschreibung.... und ruckelfrei bedeutet für manchen 18 fps ... aber lassen wir das Thema. Ich habe auf Grund von WoW und der Lautstärke meine 390 gegen ein performantes nVidia Modell getauscht.

Cyphermaster
2016-08-17, 11:19:35
Ich verstehe zwar, warum man was zu WoW macht, hätte trotzdem aber relevantere Informationen (mit Perspektive auf diesen Thread) vorgezogen.

Mal ehrlich, wenn nicht einmal eine uralte Standard-Geforce GTX460 (!) bei FullHD-Auflösung in den unspielbaren Bereich absackt, eher HTPC- als Gaming-Karten wie eine GTX950 (auch nur mit 2GB RAM) schon stabil die üblichen nativen 60Hz von Monitoren liefert, aber gleichzeitig kein auch noch so modernes Setup die nächste Schwelle von 144fps/Hz knackt (bzw. 60Hz unter Downsampling erreicht), dann ist die reale Relevanz dieser Informationen für Karten wie die RX doch ziemlich gering.

dildo4u
2016-08-17, 11:21:00
Der PCGH Bench ist nicht Worst Case die Frage ist wie sehr der AMD Treiber an der CPU zieht wenn richtig was los ist im Raid.

Grendizer
2016-08-17, 11:27:32
Der PCGH Bench ist nicht Worst Case die Frage ist wie sehr der AMD Treiber an der CPU zieht wenn richtig was los ist im Raid.


Nur so zur Info.... während der aktuellen Invasionen mit vielen Spielern kommt auch eine 1070 (mit MSAA und Renderskalierung auf 200%) auf 35 fps. Das sind die maximalen Settings die man unter Full HD einschalten kann und das braucht nicht jeder um glücklich zu werden, aber eine AMD Karte packt es das dann einfach nicht mehr. Deshalb bin ich von der AMD 390 weggewechselt.

(del)
2016-08-17, 11:33:19
Neue Treiber bei AMD und Nvidia, zufällig hatte ich gerade Hitman am Wickel. Schön sieht es aber nicht wirklich aus - bei beiden wohlgemerkt.

Die FPS sind erst einmal unverdächtig, DX12 liegt leicht in Front, AMD mit beiden Karten auch:
http://i.imgur.com/9s5Z1iT.png

Bei den Frametimes sieht man bei DX12 aber deutlich die Spikes, vor allem bei AMD.
http://i.imgur.com/ptq8Bgc.png

Gucken wir nun, welche Renderzeiten prozentual so anliegen. Man beachte auch den Wert bei >= 30ms, vor allem unter DX12:
http://i.imgur.com/UAthFLq.png

Mal wieder die Glätte, um zu sehen, wie es so flutscht. Die DX12-Werte oberhalb 100ms sind Aua und wir treffen die Spikes wieder:
http://i.imgur.com/flRrYz6.png

(DX11 und 12 wechseln nun die Seiten, sorry) Schaun wir nun, wie sich die CPU-Last so verteilt. Bei DX12 ist es etwas weniger:
http://i.imgur.com/GudVNx5.png

Das äußert sich dann auch noch in der CPU-Leistungsaufnahme, auch wenn es Peanuts sind. Die Annahme, AMD könnte hier unter DX12 deutlicher profitieren als NV hast sich leider auch nicht bestätigt:
http://i.imgur.com/GudVNx5.png

Ergo: die DX12-Implementierung ist Müll und die Treiber gleich mit. Wiederum bei beiden. Was zu Hölle soll man eigentlich noch testen?

Screemer
2016-08-17, 11:43:39
4 gegen 2 höhere Spikes bei amd vergleichen mit andauernd höheren frametimes bei der 1060 machen die amd Karten jetzt schlecht? So liest sich der Satz über dem frametimediagramm. Lasst man die außen vor sind die frametimes der nv Karte unter dx12 "schlechter"/gleich. Was mich eher überrascht ist dass die nv Karten unter dx11 im Mittelteil schlechtere ftimes abliefern.

Cyphermaster
2016-08-17, 11:44:58
Mit Downsampling usw. kann man natürlich jede Karte in die Knie zwingen, wenn man will. Die Info, daß eine RX480, die in ihrer Ausstattung von vorn herein gar nicht in der entsprechenden Leistungsriege von GTX1070 und höher spielen kann, das in WoW jetzt -oh Wunder- auch nicht tut, hätte ich jetzt nicht wirklich extra gebraucht...

Konkret für WoW-Spieler mit Upgradeüberlegungen mag es halbwegs interessant sein, wo sich 480/470/460 genau einreihen und wie viel Eyecandy in WoW jetzt geht, aber in Bezug für den Thread hier zur RX480 ist der "Nährwert" ziemlich begrenzt, imho. Nämlich daß in WoW auch mit mehr Grafikoptionen weiterhin bei GTX10 und RX grün im direkten Vergleich besser performt als rot.

Cyphermaster
2016-08-17, 11:53:13
Ergo: die DX12-Implementierung ist Müll und die Treiber gleich mit. Wiederum bei beiden. Was zu Hölle soll man eigentlich noch testen?Wie immer. Nur sollte man vielleicht solchen Müll auch als solchen so klar rausstellen, wie du's hier im Thread tust. Vielleicht nimmt man's sich dann eher zu Herzen - und mehr DAUs kapieren, daß die Ergebnisse mit massivem Fragezeichen zu lesen sind.

(del)
2016-08-17, 11:54:43
4 höhere Spikes bei amd vergleichen mit andauernd höheren frametimes bei der 1060 machen die amd Karten jetzt schlecht? So liest sich der Satz über dem frametimediagramm. Lasst man die außen vor sind die frametimes der nv Karte "schlechter".Jetzt hört doch endlich mal mit dieser kleinkarierten Marken-Empfindlichkeit auf, das kotzt einen glatt an. Die 220 ms sind bedauerlicherweise extrem sichtbar. Interessant übrigens auch , dass sie bei der 470 und der 480 absolut deckungsgleich an der selben Stelle auftreten.

Schön sieht es aber nicht wirklich aus - bei beiden wohlgemerkt.
Sollte zum Verständnis eigentlich ausreichend sein. Wenn es nicht passt, poste ich nichts mehr. Auch gut. :D

Wie immer. Nur sollte man vielleicht solchen Müll auch als solchen so klar rausstellen, wie du's hier im Thread tust. Vielleicht nimmt man's sich dann eher zu Herzen - und mehr DAUs kapieren, daß die Ergebnisse mit massivem Fragezeichen zu lesen sind.
Fanboys sind Cherry-Picker vor dem Herrn, da kannst Du nicht mal mit einem Eimer fauler Eier gegen anstinken, geschweige denn mit Argumenten. Hauptsache die Average-Balken sehen nice aus. :D

drumnbass
2016-08-17, 12:04:28
Doch gerade aktuell einige Leute aus meiner Gilde, da während der aktuellen Events mittlerweile auf Detailstufe 3-4 runtergehen müssen. Ja die PCs die die teilweise nutzen spotten jeder Beschreibung.... und ruckelfrei bedeutet für manchen 18 fps ... aber lassen wir das Thema. Ich habe auf Grund von WoW und der Lautstärke meine 390 gegen ein performantes nVidia Modell getauscht.

wow-gamer müssen genauso ihre hardware anpassen, aber nicht dermaßen, wie spieler, die brand-aktuelle spiele kaufen und spielen (müssen) - da wird halt nur alle 2-5 jahre etwas verändert, und nicht alle 0,5-2 jahre..
neben dem, dass wow-gamer oft nicht aus der computer-ecke kommen, und somit manche auch mit minimalster hardware irgendwie spielen und raiden..
ich hab während wtlk von single-core auf quad-core cpu umgestellt (umstellen müssen, weils fast nicht mehr spielbar war mit den ganzen addons)..
damals hab ich auch meine 9800 gegen eine HD 5xyz getauscht..
und den pc (bis auf die graka) hab ich heute noch ..

drumnbass
2016-08-17, 12:09:36
[..]
Bei den Frametimes sieht man bei DX12 aber deutlich die Spikes, vor allem bei AMD.
[..]

kann mir wer kurz erklären, was diese spikes bedeuten / zu bedeuten haben?

Messias
2016-08-17, 12:23:08
kann mir wer kurz erklären, was diese spikes bedeuten / zu bedeuten haben?

Ja, und auch wichtig: Ob das im Spiel spürbar ist oder ob das eine rein akademische Frage ist.

Screemer
2016-08-17, 12:24:39
Jetzt hört doch endlich mal mit dieser kleinkarierten Marken-Empfindlichkeit auf, das kotzt einen glatt an. Die 220 ms sind bedauerlicherweise extrem sichtbar. Interessant übrigens auch , dass sie bei der 470 und der 480 absolut deckungsgleich an der selben Stelle auftreten.

So war das gar nicht gemeint. Beschissen sind beide auf ihre Art und das sollte herausgestellt werden und der Satz suggeriert eben anders. Wollte ich nur drauf hinweisen. Der Rest war wirklich Verwunderung über nv.

kann mir wer kurz erklären, was diese spikes bedeuten / zu bedeuten haben?

Deutliches abfallen der fps/Stocker. Die jeder mehr oder weniger schlimm empfindet. Den einen reißen sie aus der Immersion und andere stört es kaum. Je höher um so schlimmer. Je regelmäßiger um so zuckeliger.

N0Thing
2016-08-17, 12:32:16
Dishonored wird doch sogar erwähnt... und für welches Spiel soll das denn sonst gelten? So viel haben die sicher nicht in der Pipeline :D. Außerdem ist Dishonored 2 DAS Aushängeschild, falls man die Technik weiterverkaufen möchte, es wär schön dumm, die Möglichkeiten nicht auszunutzen, wenn man sie schon hat.

Natürlich wird Dishonored 2 erwähnt, wenn der Entwickler über seine Erfahrungen und Arbeit mit der Engine für Dishonored 2 berichtet. ;)
Nur betrifft der Abschnitt der Präsentation, wo die next gen APIs erwähnt werden, nicht mehr die Arbeit an der Engine, sondern betrifft generelle Probleme und wie man sie in Zukunft umgehen kann. Ich halte es keinesfalls für ausgeschlossen, dass Dishonored 2 mit Vulkan-Support kommt. Nur anhand der Präsentation kann man das wahrlich nicht als bestätigt bezeichnen.

Die Engine wird übrigens ziemlich sicher nicht verkauft oder lizenziert, handelt es sich doch um eine modifizierte id Tech 5 und da hat man im eigenen Haus mit id Tech 6 schon einen aktuellen, guten Nachfolger.

(del)
2016-08-17, 12:36:05
Ja, und auch wichtig: Ob das im Spiel spürbar ist oder ob das eine rein akademische Frage ist.

Alles ab einer gewissen Dauer ist sichtbar. Die Hänger über 0,1 Sekunden sieht man leider, wenn man nicht total blind ist.
Alles oberhalb 100 ms ist irgendwie Murks. Aber dass die Frametimes bei BEIDEN unter DX12 so viel schlechter werden, das ärgert dann schon.

Komisch, dass keinem aufgefallen ist, dass es sich bei den Grafiken drei und vier um eine Darstellung handelt, die so noch keiner gemacht hat.
Percentile sind nämlich doof, wenn man längere Benchmark-Runs mit sehr unterschiedlichen Szenen hat.
Die vierte Grafik sagt zudem sehr viel über das subjektive Empfinden aus. Unterschiede von mehr als 10 ms zwischen den Renderzeiten aufeinanderfolgender Frames sind da auch nicht gesund.
Ich habe mich da im Bekantenkreis mal mit einem Spezialisten beraten (Neurologe). Lieber z.B. 30-30-30 als 25-40-25 ms. usw.

Und dann schaut Euch mal die GPU-Last an. NV hat unter DX11 einige Spitzen, wo die Last deutlicher hochgeht. Würde man eine lahme CPU nutzen, wären an diesen Stellen sicher noch schlechtere Frametimes zu sehen.

dildo4u
2016-08-17, 12:44:05
Danke für den Test,das Game wurde Gestern geupdatet und danach ging der Bench bei mir nicht mehr.Bin mal gespannt ob sie die Performance jemals fixen bisher hab ich ihnen nur 15€ gegeben.

Exxtreme
2016-08-17, 12:56:40
kann mir wer kurz erklären, was diese spikes bedeuten / zu bedeuten haben?
Das bedeutet, dass das Spiel einfach für Millisekunden einfach mal stoppt und es dann weiter geht und dann wieder stoppt etc. Es sorgt für einen unregelmässigen Spielablauf weil es ständig irgendwo zuckt und ruckelt.

anddill
2016-08-17, 13:09:54
Nachtrag zur Stromaufnahme:

http://www.heise.de/newsticker/meldung/Pikantes-Politikum-Die-Radeon-RX-480-und-die-PCIe-Spezifikation-3297029.html

Genau wie ich vermutet habe:

Innerhalb der festgelegten Konformitätstests gibt es schlicht keinen Subtest, der die Einhaltung der vorgeschriebenen Stromaufnahme überprüft. Dieser Sachverhalt erklärt auch, warum manch andere Grafikkarten mitunter mehr Saft aus ihren zusätzlichen Stromsteckern ziehen als eigentlich zulässig.

TerrorZivi
2016-08-17, 13:13:13
Hat sonst noch eine ne 480 4gb bei Bora/km bestellt? Meine ist noch immer nicht verschickt. Soviel zu auf Lager.

Meine Bestellung über 4 Stück wurde heute storniert. Das Geld ist wieder bei PayPal. Als kleiner Ausgleich wird mir vom Kundendienst immerhin nen Tankgutschein angeboten.

Hab in den letzten Tagen 3 Stück bei Alternate bestellt, meistens stellen die Mittags um gegen 12:45 Uhr 1-2 Stück rein und Abends wieder.

N0Thing
2016-08-17, 13:19:42
Hab in den letzten Tagen 3 Stück bei Alternate bestellt, meistens stellen die Mittags um gegen 12:45 Uhr 1-2 Stück rein und Abends wieder.

Hast du die Karten schon bekommen? Und sind die 4GB Modelle weiterhin mit 8GB Speicher bestückt?

Ex3cut3r
2016-08-17, 13:56:46
Neue Treiber bei AMD und Nvidia, zufällig hatte ich gerade Hitman am Wickel. Schön sieht es aber nicht wirklich aus - bei beiden wohlgemerkt.

Die FPS sind erst einmal unverdächtig, DX12 liegt leicht in Front, AMD mit beiden Karten auch:
http://i.imgur.com/9s5Z1iT.png

Bei den Frametimes sieht man bei DX12 aber deutlich die Spikes, vor allem bei AMD.
http://i.imgur.com/ptq8Bgc.png

Gucken wir nun, welche Renderzeiten prozentual so anliegen. Man beachte auch den Wert bei >= 30ms, vor allem unter DX12:
http://i.imgur.com/UAthFLq.png

Mal wieder die Glätte, um zu sehen, wie es so flutscht. Die DX12-Werte oberhalb 100ms sind Aua und wir treffen die Spikes wieder:
http://i.imgur.com/flRrYz6.png

(DX11 und 12 wechseln nun die Seiten, sorry) Schaun wir nun, wie sich die CPU-Last so verteilt. Bei DX12 ist es etwas weniger:
http://i.imgur.com/GudVNx5.png

Das äußert sich dann auch noch in der CPU-Leistungsaufnahme, auch wenn es Peanuts sind. Die Annahme, AMD könnte hier unter DX12 deutlicher profitieren als NV hast sich leider auch nicht bestätigt:
http://i.imgur.com/GudVNx5.png

Ergo: die DX12-Implementierung ist Müll und die Treiber gleich mit. Wiederum bei beiden. Was zu Hölle soll man eigentlich noch testen?

Danke für den Test, das bestätigt meine Anmahme ja wieder nur das DX12 ebend nicht der heilige Gral ist. ;)

Korfox
2016-08-17, 13:58:40
[...]
Ich habe mich da im Bekantenkreis mal mit einem Spezialisten beraten (Neurologe). Lieber z.B. 30-30-30 als 25-40-25 ms. usw.
[...]
Ich behaupte mal ganz forsch: Es braucht keinen Neurologen, um festzustellen, dass eine gleichmäßige Aufteilung gleichvieler Frames "besser" ist, als eine ungleichmäßige.
Habt ihr zufällig auch darüber gesprochen, wie die Verhältnisgrenze ist, wenn bei ungleicher Aufteilung die Frames steigen (bzw. die Gesamtdauer der Frames eben id. ist)?
Also:
Lieber 30-30-30, als 35-10-35 ms? (wahrscheinlich?)
Lieber 30-30-30, als 25-3-25 ms (hier wird es, finde ich, interessant)

Von wegen

Die Hänger über 0,1 Sekunden sieht man leider, wenn man nicht total blind ist.

Kann man hier grad mal die aktuellen Konsolenspieler mal als Referenz nehmen? Wie sieht das hier aus. Sind hier die Frametimes oft über 100ms oder wird sowas unter jedem Preis vermieden? (Einfach um einen vergleich zu haben - ich spiele beides und merke um ehrlich zu sein die 30fps der PS3 am TV auf 4 Meter Entfernung nicht wirklich negativ)

Exxtreme
2016-08-17, 14:09:44
Aber dass die Frametimes bei BEIDEN unter DX12 so viel schlechter werden, das ärgert dann schon.

Wobei man nicht ausschliessen kann, dass das Spiel einfach scheisse programmiert ist und weder Nvidia noch Amd was dafür können.

(del)
2016-08-17, 14:13:29
Ich behaupte mal ganz forsch: Es braucht keinen Neurologen, um festzustellen, dass eine gleichmäßige Aufteilung gleichvieler Frames "besser" ist, als eine ungleichmäßige.
Habt ihr zufällig auch darüber gesprochen, wie die Verhältnisgrenze ist, wenn bei ungleicher Aufteilung die Frames steigen (bzw. die Gesamtdauer der Frames eben id. ist)?
Also:
Lieber 30-30-30, als 35-10-35 ms? (wahrscheinlich?)
Lieber 30-30-30, als 25-3-25 ms (hier wird es, finde ich, interessant)

Von wegen

Kann man hier grad mal die aktuellen Konsolenspieler mal als Referenz nehmen? Wie sieht das hier aus. Sind hier die Frametimes oft über 100ms oder wird sowas unter jedem Preis vermieden? (Einfach um einen vergleich zu haben - ich spiele beides und merke um ehrlich zu sein die 30fps der PS3 am TV auf 4 Meter Entfernung nicht wirklich negativ)

"Schlechte" 30fps auf der Konsole können durchaus ruhigender wirken als hibbelige 60 fps, wo z.B. 59 Frames schnell und einer total Kacke gerendert werden. Mal so als Extrembeispiel.

Beim Gespräch mit meinem Bekannten haben wir versucht zu klären, wo ich die Grenzen bei meinen Diagrammen setzen sollte. Die 30 ms bei Grafik 3 reflektieren ja Deine Konsolenerfahrung wieder.
Die 10ms in Grafik 4 sind das, was (a) innerhalb eines Verlaufsflusses als Grenze interessant sein könnte und (b) auch der Darstellung entgegen kommt, indem man mal mehrere Spiele mit sehr
unterschiedlicher Hardware analysiert und dann schaut, wo und in welchem Zeitfenster die interessanten Ergebnisse liegen. Ein fast nicht sichtbare Kurve interessiert ja auch keinen.

Wobei man nicht ausschliessen kann, dass das Spiel einfach scheisse programmiert ist und weder Nvidia noch Amd was dafür können.
Dazu schrieb ich:
Ergo: die DX12-Implementierung ist Müll und die Treiber gleich mit...
Da beide Karten an unterschiedlichen Stellen patzen, schließe ich auch auf Ungereimtheiten im Treiber. Allerdings ist das Spiel auch als solches eine Krankheit.
PresentMon schiebt sich außerdem trotz Symbolstatus nach vorn und herkömmliche Systembefehle können mit dem Vollbild unter DX12 nicht wirklich was anfangen.
Im Gegensatz zum AotS-Fenster, das ich sogar kapern kann. Zumindest habe ich mein Tool jetzt einigermaßen bugfrei, das geht sogar für CAD-Anwendungen...

http://i.imgur.com/xcG6Ih2.jpg

Wenn der aktuelle Preis samt Nichtverfügbarkeit nicht wären, ist die MSI RX 470 in sehr vielen Anwendungen übrigens die bessere GTX 1060. Die 480 ist einfach oft nur über den Punkt gedroschen. Silent-Mode hin oder her.

TerrorZivi
2016-08-17, 14:19:34
@N0Thing: Kann ich heute Abend evtl. etwas zu sagen.

dargo
2016-08-17, 14:40:36
Ergo: die DX12-Implementierung ist Müll und die Treiber gleich mit. Wiederum bei beiden. Was zu Hölle soll man eigentlich noch testen?
Wenn ich mir deine Frametimemessungen so anschaue ist das Spiel sowohl unter DX11 als auch DX12 Müll. Das sind ja bei beiden IHVs stellenweise Standbilder. :eek: Ist das Game echt so heftig am Ruckeln? Ich habe selbst kein Hitman weil mich das Game nicht interessiert.

PS: wirds mit kleineren Presets als Ultra besser? Sprich... nehmen die Fluktuationen ab?


Das äußert sich dann auch noch in der CPU-Leistungsaufnahme, auch wenn es Peanuts sind. Die Annahme, AMD könnte hier unter DX12 deutlicher profitieren als NV hast sich leider auch nicht bestätigt:
http://i.imgur.com/GudVNx5.png

Hierbei muss ich mal nachhaken. Wobei sollte AMD @DX12 deutlicher profitieren?

Danke für den Test, das bestätigt meine Anmahme ja wieder nur das DX12 ebend nicht der heilige Gral ist. ;)
Wenn man es kann schon. ;) Ist die Streamingengine (hier vermute ich den Fehler) für den Arsch... hilft natürlich die beste API nichts.


Kann man hier grad mal die aktuellen Konsolenspieler mal als Referenz nehmen? Wie sieht das hier aus. Sind hier die Frametimes oft über 100ms oder wird sowas unter jedem Preis vermieden? (Einfach um einen vergleich zu haben - ich spiele beides und merke um ehrlich zu sein die 30fps der PS3 am TV auf 4 Meter Entfernung nicht wirklich negativ)
Igor spricht von stärkeren Fluktuationen, sprich schnellen Wechseln zwischen einem hohen und einem niedrigens ms Wert. Um dein Beispiel mit den 30fps auf der PS3 aufzugreifen... dauerhafte 33,33ms sind ein ganz anderes Thema. Das sieht insgesamt wesentlich ruhiger (flüssiger) aus. Für manche (mich eingeschlossen) sind aber dauerhafte 33,33ms noch zu wenig um es flüssig fürs Auge zu nennen. Meine persönliche Grenze liegt bei dauerhaften (bzw. möglichst gleichmäßigen) 20,83ms bis 22,22ms um als flüssig durchzugehen. Das empfindet aber jeder etwas anders.

Screemer
2016-08-17, 15:02:21
Meine Bestellung über 4 Stück wurde heute storniert. Das Geld ist wieder bei PayPal. Als kleiner Ausgleich wird mir vom Kundendienst immerhin nen Tankgutschein angeboten.

Hab in den letzten Tagen 3 Stück bei Alternate bestellt, meistens stellen die Mittags um gegen 12:45 Uhr 1-2 Stück rein und Abends wieder.
danke für die info. ich hab noch immer nix gehört. werd mal alternate im auge behalten. wann sollen die am abend kommen, hast du das auf der uhr? bei bora hätte die karte sogar mehr gekostet und war eben als verfügbar gelistet... saftladen

Korfox
2016-08-17, 15:12:48
Igor spricht von stärkeren Fluktuationen, sprich schnellen Wechseln zwischen einem hohen und einem niedrigens ms Wert. Um dein Beispiel mit den 30fps auf der PS3 aufzugreifen... dauerhafte 33,33ms sind ein ganz anderes Thema. Das sieht insgesamt wesentlich ruhiger (flüssiger) aus.
Das ist im Endeffekt Teil meiner Frage gewesen:
Früher (NES/SNES) waren die Frametimes eigentlich fix und wenn die Hardware zu langsam war wurd' das ganze Spiel IIRC langsamer.
Heute ist das meines Erachtens nicht mehr so. Was passiert also, wenn die 33,3ms nicht mehr gehalten werden können und wie massiv wird das sichtbar?
Ich vermute, dass es mehr Konsolenspieler, als PC-Spieler gibt - und damit stelle ich die These auf. Wenn auf der Konsole ähnliche Schwankungen auftreten ist der Druchschnittsspieler blind nach Igors Definition (was nicht die Definition selbst in Unbill ziehen soll, sondern nur klarstellen soll, dass du das oben so definiert hast :D)..
* Ich sehe die 30fps durchaus - wenn ich darauf achte. Wenn ich spiele achte ich halt nicht drauf... und merke es nicht.
** Ich hoffe, das ist nicht zu OT, weil es nicht nur die 480 betrifft, sondern sie nur eine der vielen (aller) Karten ist, die es betrifft.

dargo
2016-08-17, 15:13:43
Von HiS gibt es nun endlich auch eine Custom RX480.

http://www.hisdigital.com/UserFiles/product/RX%20480%208GB%20ICEQ%20X2%20IceQX2%20Roaring%20Turbo_1_1600P.jpg

http://geizhals.de/his-radeon-rx-480-iceq-x-turbo-hs-480r8dtbr-a1493503.html

Und endlich hat HiS begriffen, dass man die Lüfter in Idle abschalten kann.
http://www.hisdigital.com/un/product2-932.shtml

Die VRMs sind direkt mit dem großen Kühler verbunden.

Raff
2016-08-17, 15:15:06
Bis auf die Lüfter scheint das eine XFX GTR Black Edition zu sein.

MfG,
Raff

dargo
2016-08-17, 15:21:02
Sieht so aus, ist das jetzt gut oder schlecht? :D

(del)
2016-08-17, 15:30:51
Nur das Cover samt Lüftermodulen ist im alten HIS-Design, der Rest ist schlicht aus dem Pine-Regal, also identisch zur mit XFX gelabelten Karte. :)

PS: wirds mit kleineren Presets als Ultra besser? Sprich... nehmen die Fluktuationen ab?
Ja und nein. Ja, sie werden (etwas) weniger und nein, denn es sind und bleiben Hoppler.

Hierbei muss ich mal nachhaken. Wobei sollte AMD @DX12 deutlicher profitieren?
Driver-Overhead unter DX11. Hat man bei anderen Spielen schon deutlich sehen können, hier nicht. Also ist die Umsetzung Grütze. Halt ein offensichtlich lästiger Patch und nichts Genaueres.

Was passiert also, wenn die 33,3ms nicht mehr gehalten werden können und wie massiv wird das sichtbar?
Ich vermute, dass es mehr Konsolenspieler, als PC-Spieler gibt - und damit stelle ich die These auf. Wenn auf der Konsole ähnliche Schwankungen auftreten ist der Druchschnittsspieler blind nach Igors Definition (was nicht die Definition selbst in Unbill ziehen soll, sondern nur klarstellen soll, dass du das oben so definiert hast :D)
Die Konsole gibt aber fast immer das konstantere Bild aus. Beim PC hat man immer das Problem, dass die Hardware in sich unausgeglichener ist.
Wäre man jetzt gehässig, würde man auch sagen, bei der Konsole ist alles gleich langsam :D
Wobei Konsolen von der Komponentengewichtung und der Game-Programmierung deutlich ausgeglichener daherkommen, das muss auch mal gesagt werden.
Ein vermeintlicher Nachteil kann auch zum Feature werden. Und dann darf man auch das Ausgabegerät nicht vergessen.
So träge, wie die meisten TVs sind, bekommt man vieles gar nicht mit, weil die Teile eh fast schon wie ein optischer "Low-Pass"-Filter wirken. :D

dargo
2016-08-17, 15:36:20
Driver-Overhead unter DX11. Hat man bei anderen Spielen schon deutlich sehen können, hier nicht. Also ist die Umsetzung Grütze. Halt ein offensichtlich lästiger Patch und nichts Genaueres.
Mit welcher CPU hast du getestet? Ist leider nicht aus den Diagrammen ersichtlich. Bei CB konnte man schon sehen, dass NV @DX11 in diesem Spiel nicht sehr viel schneller ist.
https://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/

Die AMD Karte ist 11% langsamer. Durch DX12 steigen die Frames auf beiden IHVs allerdings deutlich. Ich denke du bist da einfach überwiegend gpu-limitiert mit den schwächeren Karten.

dildo4u
2016-08-17, 15:39:22
Vermutlich wird die 480 unter DX11 besser ausgelastet als die alten AMD GPU's,Tonga gewinnt z.b auch nix bei CB.

(del)
2016-08-17, 15:43:32
Mit welcher CPU hast du getestet? Ist leider nicht aus den Diagrammen ersichtlich. Bei CB konnte man schon sehen, dass NV @DX11 in diesem Spiel nicht sehr viel schneller ist.
https://www.computerbase.de/2016-03/hitman-benchmarks-directx-12/2/
Die AMD Karte ist 11% langsamer. Durch DX12 steigen die Frames auf beiden IHVs allerdings deutlich. Ich denke du bist da einfach überwiegend gpu-limitiert mit den schwächeren Karten.
Der Benchmark ist viel zu alt. Patches, Treiber etc. haben das Bild mittlerweile komplett verschoben.

Ich habe mit Absicht auf dem 6950X @4.3 GHz getestet, weil mich einzig und allein die GPU-Limits interessieren.
Da ich die CPU-Last ja auch mitlogge, ist es doch Wurst, ob ich mich durch schwache Hardware erst ins CPU-Limit bugsieren muss,
um einen Unterschied zu sehen, oder ab ich die Last exakt mit protokollieren. Die Erkenntnis ist doch die gleiche...

Die CPU-Last steigt unter DX12 in dem Maße, wie auch die Performance steigt, was zeigt, dass nicht die CPU limitiert - völlig richtig.

dargo
2016-08-17, 15:47:40
Ich habe mit Absicht auf dem 6950X @4.3 GHz getestet, weil mich einzig und allein die GPU-Limits interessieren.
Da ich die CPU-Last ja auch mitlogge, ist es doch Wurst, ob ich mich durch schwache Hardware erst ins CPU-Limit bugsieren muss,
um einen Unterschied zu sehen, oder ab ich die Last exakt mit protokollieren. Die Erkenntnis ist doch die gleiche...

Wie machst du das? Bzw. auf welche Daten greifst du da zu?

Screemer
2016-08-17, 15:54:55
presentmon macht das in dem ganzen datenwust, welches er ausspuckt :D igor hat halt ne goile gui und andere logs dazu.

(del)
2016-08-17, 16:00:04
Wie machst du das? Bzw. auf welche Daten greifst du da zu?

Das macht nicht PresentMon, sondern meine GUI, die ich um PresentMon drumrum programmiert habe.
Parallel zum Presentmon-Log schreibe ich die Sensordaten direkt vom Mainboard mit, es gibt also zwei synchron geloggte Dateien - die von PresentMon und meine.
Das passt auf den Frame genau :) PresentMon kann nur die Frametimes und ein paar andere Output-Infos loggen.

Das Bild vom Tool ist ja auf der letzten Seite zu sehen ;)

Dazu gibt es noch eine Auswertungssoftware, die alle Daten synchron zu einem Exportpaket vereint, was ich in dem Excel-Templates dann grafisch umsetzen kann.
Bisher stecken knapp 100 Stunden drin und ich bin wirklich schnell ;)

dargo
2016-08-17, 16:00:29
Der spuckt aber keine ms aus wie die hauseigenen Tools bei der idTech 6 und Frostbite 3 oder? Da würde ich nicht viel drauf geben.

TerrorZivi
2016-08-17, 16:01:55
Sapphire 480 4GB - Alternate (https://www.alternate.de/Sapphire/Radeon-RX-480-Grafikkarte/html/product/1283376?)

Muss man mit F5 "snipern". Irgendwann wechselt die Seite von "Nicht verfügbar" nach "Bereits verkauft" nach "Alle Artikel sind reserviert" dann taucht irgendwann der Versandzeitraum auf und beim nächsten aktualisieren kann man genau eine Karte bestellen.

Edit:
Gerade die zweite gekauft, dauert jetzt wohl wieder 2-3 Stunden.

Screemer
2016-08-17, 16:04:36
Edit:
Gerade die zweite gekauft, dauert jetzt wohl wieder 2-3 Stunden.
ach kacke.

(del)
2016-08-17, 16:06:07
Der spuckt aber keine ms aus wie die hauseigenen Tools bei der idTech 6 und Frostbite 3 oder? Da würde ich nicht viel drauf geben.
Die kleinste Intervall-Stufe für saubere Sensor-Abgriffe liegt bei 100 ms, mehr geht eh nicht, auch nicht in den Engines.
Wenn Du wüsstest, was so alles interpoliert und mehrfach ausgegeben wird... ;)
Ich habe zusätzlich als Plausibilitätstest die Ströme vom CPU-Package am Oszi mitprotokolliert, das geht runter bis 1ms wenn es denn sein muss.
Deckt sich auffällig und genau genug, um Aussagen zu treffen :)

Um Systemlasten zu reduzieren, schreibe ich eh erst alles in den Speicher und die Datei auch erst dann auf den Datenträger, wenn der Log abgeschlossen ist.

Und:
Was die Engines als Wert anzeigen (auch die FPS) ist oft nicht das, was Du in der realen Welt auch wirklich ausgegeben bekommst. ;)
Die Frame-Daten von PresentMon sind schon relativ gut, besser jedenfalls als die von Fraps & Co., wo noch nicht mal die Durchschnittswerte stimmig sind.

dargo
2016-08-17, 18:34:11
Wir schweifen vom Thema ab.

Um wieder auf das Thema zurückzukommen... ich mag immer noch nicht so recht daran glauben, dass DX12 in Hitman (trotz Patches und neueren Treibern) im CPU-Limit kaum bis gar nicht profitiert. Ich merke jetzt erst, dass du in deiner Messung eine 1.660€ CPU (:freak:) mit ~220-320€ Grafikkarten vergleichst. Dem ganzen setzt du noch die Krone auf indem du diese CPU auf 4,3Ghz übertaktest. So eine Kombination ist dann doch meilenweit von der Praxis entfernt. Hast du in deiner Kollektion nicht was mainstreamiges? :D Ansonsten die CPU mal auf 1,5-2Ghz und 4C/4T oder gerne auch 4C/8T untertakten und nochmal beide APIs vergleichen.

(del)
2016-08-17, 18:45:02
Wir schweifen vom Thema ab.

Um wieder auf das Thema zurückzukommen... ich mag immer noch nicht so recht daran glauben, dass DX12 in Hitman (trotz Patches und neueren Treibern) im CPU-Limit kaum bis gar nicht profitiert. Ich merke jetzt erst, dass du in deiner Messung eine 1.660€ CPU (:freak:) mit ~220-320€ Grafikkarten vergleichst. Dem ganzen setzt du noch die Krone auf indem du diese CPU auf 4,3Ghz übertaktest. So eine Kombination ist dann doch meilenweit von der Praxis entfernt. Hast du in deiner Kollektion nicht was mainstreamiges? :D Ansonsten die CPU mal auf 1,5-2Ghz und 4C/4T oder gerne auch 4C/8T untertakten und nochmal beide APIs vergleichen.

Wenn Du was "mainstreamiges" ´nutzt, weißt Du am Ende schon gar nicht mehr, welche Komponente zuerst limitiert und dann ist alles andere pure Rätselraterei.
Mit exakt dieser ganz bewusst genutzten CPU sehe ich nämlich den CPU-Load ohne jegliche Limitierung durch die CPU selbst.
Dann kann ich ihn ja auch direkt vergleichen und feststellen, dass er unter DX12 im gleichen Maße wächst, wie auch die Performance hinzugewinnt.
Und zwar ohne jegliche Unbekannte. Allerdings gewinnen hier nunmehr beide Karten, also auch die GTX 1060. Dies war mit den alten Treibern und der
älteren Hitman-Version jedoch nicht so, weshalb man den CB-Test bereits als Geschichte betrachten muss.

Edit:
Um Dich zu beruhigen: ich habe einen Xeon aus meinem aktuellen Projekt genutzt, der mit seinen 2,1 GHz (Boost 2.6 GHz auf einem der Kerne) und den
vier aktiven Kernen (sechs habe ich spaßeshalber deaktiviert) beide Karten in gleichem Maße kastriert. Es verhält sich exakt so, wie es die Kurven auch so aussagen.
Es zieht mittlerweile weder AMD noch Nvidia irgendeinen Vorteil aus der DX12-Geschichte in Hitman. Außer dass die Frametimes im Limit generell zum Kotzen aussehen.
Hitman ist kaputt, irgendwie :D

dargo
2016-08-17, 18:50:16
Wenn Du was "mainstreamiges" ´nutzt, weißt Du am Ende schon gar nicht mehr, welche Komponente zuerst limitiert und dann ist alles andere pure Rätselraterei.

Das wäre mir neu. :confused: Was limitiert lässt sich immer problemlos mit Gegentests herausfinden.

Pirx
2016-08-17, 18:51:11
Gibts überhaupt "den" CPU-Load? Sehe ich auch eher kritisch, sollte mit einer "normalen" CPU gegengetestet werden.

(del)
2016-08-17, 18:53:25
Das wäre mir neu. :confused: Was limitiert lässt sich immer problemlos mit Gegentests herausfinden.
Wenn ich zwei unbeeinflusste Kurven vergleiche, die auf einem sehr ähnlichem Level liegen, was sollte dann bei gleichem Limit daran anders ändern? Die Kappung setzt auch dann gemeinsam ein.
DAS würde mich auch theoretisch mal interessieren, wie das anders sein könnte. Wenn die RX 480 Kurve signifikant niedriger liegen würde, würde die GTX 1060 logischerweise zuerst ins Limit reinen.
So stürzen sich aber beide nahezu gleichzeitig aus dem Fenster. Wenn ich mal mutig prognostiziere, ist die 480 sogar einen Tick eher auf dem Sims als die 1060, weil sie einfach die schnellere der beiden Karten ist :)

(del)
2016-08-17, 18:54:22
Gibts überhaupt "den" CPU-Load? Sehe ich auch eher kritisch, sollte mit einer "normalen" CPU gegengetestet werden.
Siehe oben im Edit. 4x 2,1 GHz lassen beide Karten mehr oder weniger gleichzeitig absterben. Liegt an Hitman und den Treibern.
Ja, den Load gibt es. Ich logge nur die Kerne/Threads, auf denen ich das Programm in der Ausführung finde. Diese Lasten sind sogar einigermaßen sicher reproduzierbar.

Sorry, Doppelpost. :(

Übrigens:
Je schwächer die CPU und je mehr sie die GPU-Limitiert, um so mehr steigen auch die Messfehler bei Benchmarks.
Dann sind Unterschiede von 1-2 FPS schon an der Tagesordnung und wenn man Pech hat, wird es sogar noch mehr.
Dann braucht man mit seinen Balken schon gleich gar nicht mehr antreten, erst recht nicht mit Nachkommastellen.
Die suggerieren etwas, was so nie existieren kann.

dargo
2016-08-17, 19:02:03
Wie gesagt, ich traue dem Braten erst wenn ich Ergebnisse mit einer deutlich schwächeren CPU DX11 vs. DX12 sehe. Im besten Fall vollständiges CPU-Limit. Belassen wir es aber dabei. Du sitzt eh am längeren Hebel da ich kein Hitman habe um das zu testen.


Edit:
Um Dich zu beruhigen: ich habe einen Xeon aus meinem aktuellen Projekt genutzt, der mit seinen 2,1 GHz (Boost 2.6 GHz auf einem der Kerne) und den
vier aktiven Kernen (sechs habe ich spaßeshalber deaktiviert) beide Karten in gleichem Maße kastriert. Es verhält sich exakt so, wie es die Kurven auch so aussagen.
Es zieht mittlerweile weder AMD noch Nvidia irgendeinen Vorteil aus der DX12-Geschichte in Hitman. Außer dass die Frametimes im Limit generell zum Kotzen aussehen.
Hitman ist kaputt, irgendwie :D
Ups... Edit übersehen. Gut... es wäre durchaus möglich, dass der Entwickler den DX11 Renderer weiterhin mit Patches optimiert hat.

(del)
2016-08-17, 19:07:22
Wie gesagt, ich traue dem Braten erst wenn ich Ergebnisse mit einer deutlich schwächeren CPU DX11 vs. DX12 sehe. Im besten Fall vollständiges CPU-Limit. Belassen wir es aber dabei. Du sitzt eh am längeren Hebel da ich kein Hitman habe um das zu testen.

Ups... Edit übersehen. Gut... es wäre durchaus möglich, dass der Entwickler den DX11 Renderer weiterhin mit Patches optimiert hat.

Ich vermute eher, dass NV ordentlich im Treiber gefummelt hat. So wie bei Doom, wo man aus dem Stand plötzlich mal eben 20% mehr Bums bekommt.
Ob da jetzt was weggelassen oder gecheatet wurde, kann ich nicht sagen - ich sehe auf den ersten Blick jedenfalls erst mal nichts.
Die 480 ist jedoch immer noch etwas schneller, da hat sich nichts grundlegend geändert.

Ich schriebs ja schon zwei Seiten weiter vorn: ich will endlich mal ein richtiges und funktionierendes DX12-Spiel und nicht so einen Frickelmüll.

dargo
2016-08-17, 19:10:49
Jetzt reden wir glaube ich von zwei verschiedenen Themen. :D Ich spreche vom CPU-Limit, du offenbar vom GPU-Limit. Im Umkehrschluß würde das nämlich bedeuten, dass AMD unter DX11 im CPU-Limit vorher schneller als NV war, was ich mir beim besten Willen nicht vorstellen kann.

Iruwen
2016-08-17, 19:11:13
Witzig wenn man nochmal liest was AMD dazu gesagt hat (http://wccftech.com/hitman-feature-implementation-dx12-async-compute-amd/).

(del)
2016-08-17, 19:12:17
Jetzt reden wir glaube ich von zwei verschiedenen Themen. :D Ich spreche vom CPU-Limit, du offenbar vom GPU-Limit. Im Umkehrschluß würde das nämlich bedeuten, dass AMD unter DX11 im CPU-Limit vorher schneller als NV war, was ich mir beim besten Willen nicht vorstellen kann.

Ich spreche auch vom CPU-Limit, in das die schnellere Karte logischerweise zuerst tappt, wenn ansonsten die Lasten im gleichen Verhältnis zur Performance stehen :)

aufkrawall
2016-08-17, 19:20:16
Teste mal Sapienza den Cafe-Platz und schau von dort in Richtung Mafiosi-Villa.
DX12 bringt hier im CPU-Limit (720p) mit AMD an dieser Stelle locker 40% (zumindest war das letztes Mal so, hab das Spiel wegen der langweiligen KI deinstalliert).

Aber die Frametimes im CPU-Limit sind halt absoluter Müll mit DX12, das stimmt.
Hatte im 1070-Thread auch angemerkt, dass es gefühlt in 4k besser als in WQHD läuft, weil man aus dem hakenden CPU-Limit rauskommt.

Im GPU-Limit ist allerdings tatsächlich kein Performance-Vorteil mit DX12 bei AMD festzustellen. Schätze, Async Compute ist in dem Spiel genau so wackelig wie der Rest vom DX12-Renderer.
Man hätte sich lieber stärker auf DX11 konzentrieren und eine ähnliche CPU-Skalierung wie in diversen Ubisoft-Spielen erreichen sollen. Oder besseres Occlusion Culling oder was auch immer, für allgemein höhere fps im CPU-Limit (und teilweise auch GPU-Limit).

Ätznatron
2016-08-17, 19:21:35
Ich spreche auch vom CPU-Limit, in das die schnellere Karte logischerweise zuerst tappt, wenn ansonsten die Lasten im gleichen Verhältnis zur Performance stehen :)

Mal ganz out of order:

Was ist eigentlich bei euch daraus (http://www.tomshardware.de/nvidia-geforce-gtx-1080-gtx-1070-grafikkarten-roundup,testberichte-242137.html) geworden?

Da fehlen einige angekündigte Grafikkarten. Kommen die noch?

dargo
2016-08-17, 19:32:05
Witzig wenn man nochmal liest was AMD dazu gesagt hat (http://wccftech.com/hitman-feature-implementation-dx12-async-compute-amd/).
Wo soll jetzt der Widerspruch sein? Ich sehe in den Messungen von Igor dank Frameverläufe Stellen wo die MSI RX480 Gaming bis zu 30% vor der MSI GTX1060 Gaming im GPU-Limit liegt. Durch die avgs. wird halt auch viel geglättet.

Edit:
Man sieht übrigens auch sehr gut, dass die RX470 in einigen Passagen doch stärker gegenüber der RX480 einknickt als es die üblichen Tests mit den avgs. einem suggerieren.

(del)
2016-08-17, 19:34:52
Mal ganz out of order:

Was ist eigentlich bei euch daraus (http://www.tomshardware.de/nvidia-geforce-gtx-1080-gtx-1070-grafikkarten-roundup,testberichte-242137.html) geworden?

Da fehlen einige angekündigte Grafikkarten. Kommen die noch?
Ja, hier stehen noch 13 Stück rum. AMD hat doch mit den quälenden und nervenden Scheibchenlaunches genau das erreicht, was sie eigentlich wollten: dass nämlich alles erst mal liegen bleibt ;D

Wo soll jetzt der Widerspruch sein? Ich sehe in den Messungen von Igor dank Frameverläufe Stellen wo die MSI RX480 Gaming bis zu 30% vor der MSI GTX1060 Gaming im GPU-Limit liegt. Durch die avgs. wird halt auch viel geglättet.
Genau deswegen sind Balken allein eher komplett witzlos. Ich empfehle da die dritte Grafik als gutes Beispiel.
Da sieht man ja die Framezeiten mal prozentual aufgegliedert verglichen. Gelbe gegen hellblaue Kurve.

Nochmal zur Erinnerung:

http://i.imgur.com/UAthFLq.png

aufkrawall
2016-08-17, 19:37:30
Wo soll jetzt der Widerspruch sein? Ich sehe in den Messungen von Igor dank Frameverläufe Stellen wo die MSI RX480 Gaming bis zu 30% vor der MSI GTX1060 Gaming im GPU-Limit liegt. Durch die avgs. wird halt auch viel geglättet.
Täte sie auch mit DX11, hat mit Async Compute rein gar nichts zu tun.

(del)
2016-08-17, 19:43:22
Täte sie auch mit DX11, hat mit Async Compute rein gar nichts zu tun.Hitman ist als DX12-Paradeprogramm nicht mehr zu gebrauchen. Entweder die Implementierung taugt nichts, oder man hat DX11 noch einmal gepusht oder wohl eher beides. Treiber-Krieg inklusive. :D

Hitman ist als Benchmark irgenwie obsolet geworden. Wie AotS

dargo
2016-08-17, 19:48:40
Genau deswegen sind Balken allein eher komplett witzlos.
Da bin ich voll bei dir. Interessant wird das auch mit zukünftigen Spielen die starken Einsatz von Async Compute machen werden. Da wird es sicherlich auch einige Passagen geben wo die GPU-Last auf GCN gut durch AC kompensiert wird. Ich weiß aber jetzt schon, dass man davon in diversen Benchmarks durch die avg. Glättung nicht alles sehen wird.

aufkrawall
2016-08-17, 19:49:29
Hitman ist als Benchmark irgenwie obsolet geworden. Wie AotS
Sind allerdings die beiden Spiele, bei denen Pascal gegenüber Maxwell am stärksten zugelegt hat (unabhängig von der API), imho doch nicht ganz uninteressant. Und Hitman bleibt ja weiterhin aktuell.
Würd dann aber auch DX11 statt 12 testen, wenns halt nicht richtig läuft.

Ashes ist aber eigentlich eh zu hässlich, ums es weiter mitzutesten. :D

Ätznatron
2016-08-17, 19:50:25
Ja, hier stehen noch 13 Stück rum. AMD hat doch mit den quälenden und nervenden Scheibchenlaunches genau das erreicht, was sie eigentlich wollten: dass nämlich alles erst mal liegen bleibt ;D


Danke.

:biggrin:

(del)
2016-08-17, 20:07:00
Danke.
:biggrin:Und ich gehe Ende nächste Woche erst mal neun Tage in Urlaub. Nordsee, Haus, kein Internet und zwei Kästen Simon Spezial im Kofferraum. Jever ist untrinkbar. Dann gibts wieder Karten, Karten, Karten...

Die HIS 480 Roaring habe ich mir beim Distri schon geordert. Kommt ja erst noch nach DE. Demnächst. Irgendwann :)
Dann gibts auch mal MSI vs. Sapphire vs. Asus vs. HIS. Irgendwann :P

Ätznatron
2016-08-17, 20:11:57
Viel Vergnügen.

Nordsee ist immer gut.

:biggrin:

Nama12
2016-08-17, 20:17:00
Ja, hier stehen noch 13 Stück rum. AMD hat doch mit den quälenden und nervenden Scheibchenlaunches genau das erreicht, was sie eigentlich wollten: dass nämlich alles erst mal liegen bleibt ;D



Jetzt hab ich mich doch extra für diese eine Frage angemeldet.
Heißt das, die kommen alle noch vor den 480 bzw. weiteren 1060 (u.a EVGA) Karten, wegen wer zuerst kommt mahlt zuerst?

Ich ahne irgendwie, dass ich mich diesmal nur mit halboffenem Auge entscheiden muss :/

(del)
2016-08-17, 20:19:33
Ich mache das immer die Reihe rum. 1070/80, RXe, 1060. So, wie ich gerade Lust habe.
Aber: die jeweiligen Kategorien nach Posteingang :)

Bei den 480ern habe ich aktuell nur die MSI und die Sapphire, wobei die MSI von mir so organisiert wurde. Die HIS hätte ich noch gern, kann ja kein Roundup mit nur zwei Karten starten. Oder ich hau die 470 mit rein. Dann habe ich noch XFX und MSI :)

Raff
2016-08-17, 20:26:19
Wow, hier geht's ja wieder ab. DX12 und Vulkan sind in diesen Spielen richtig dufte:

- Hitman
- Rise of the Tomb Raider
- Ashes of the Singularity
- Doom

wenn man eine schwache CPU mit einer flinken AMD-Grafikkarte (wie beispielsweise RX 480 oder R9 Nano) paart. Ich rede hier von echten Spielszenen, keine integrierten Benchmarks. Und ich rede von den x-Mal gepatchten Spielen, denn anfangs war da wirklich vieles im Argen.

Die Min-Fps gehen durch die Decke, das komplette Fps-Niveau ist höher. Da stören die paar Spikes, die keineswegs auf jedem System auftreten, wesentlich weniger als die niedrigen DX11-/OGL-Fps. Im Grafiklimit ist tatsächlich nicht alles dufte, vor allem bei Geforce-Karten, aber davon darauf zu schließen, dass Low-Level derzeit nichts bringt, halte ich für falsch. Ich habe zu viele Wunder auf menem FX-Nano-PC gesehen, um die aktuellen Implementierungen zu hassen. :D

MfG,
Raff

aufkrawall
2016-08-17, 20:31:42
Bei den 480ern habe ich aktuell nur die MSI und die Sapphire, wobei die MSI von mir so organisiert wurde. Die HIS hätte ich noch gern, kann ja kein Roundup mit nur zwei Karten starten. Oder ich hau die 470 mit rein. Dann habe ich noch XFX und MSI :)
Ich weiß nicht, wie ihr das intern so regelt, aber ich fände ein allumfassendes Roundup (mit möglichst allen verfügbaren Karten) wesentlich besser.
Ihr hattet ja auch schon mal diverse Lüftergeräusche aufgenommen (würd ich noch insofern anders machen, als dass die Zeit von Idle bis Erreichen der Maximal-Temp aufnehmen würde).
Für so ein "Full-Roundup" würd ich auch locker 3€ via Paypal zahlen, free dann halt eine abgespeckte Variante.

Gutes Wetter an der See. :)

dargo
2016-08-17, 20:36:54
Zumindest Doom @Vulkan kann ich bestätigen. Das läuft hier mit Grenada Pro sowas von butterweich mit ~70-100+fps @1440p, absoluter Traum mit Freesync und 120Hz. Die Frametimes dürften auch perfekt sein. Ich merke nicht die kleinste Unregelmäßigkeit, und darauf reagiere ich besonders stark seitdem ich Freesync habe allergisch.

fondness
2016-08-17, 20:41:36
AMD hat doch mit den quälenden und nervenden Scheibchenlaunches genau das erreicht, was sie eigentlich wollten: dass nämlich alles erst mal liegen bleibt ;D


Als ob es Nvidia anders gemacht hätte als Scheibchenweise Karte für Karte vorzustellen.

(del)
2016-08-17, 20:41:46
Ich mache seit Längerem nur noch Roundups, teste aber generell alles mit gleichen Treibern. Das ist nicht immer einfach, aber ehrlicher. Die Amis zerpflücken das dann und stricken Einzelreviews draus. Muss eh nur Content liefern.

Für Wunder ist der Papst zuständig. Nicht mein Aufgabengebiet. :D

Als ob es Nvidia anders gemacht hätte als Scheibchenweise Karte für Karte vorzustellen.
Sie haben es ja noch nicht mal anders gemacht. Nur mit größeren und auch schaffbaren Abständen. Mir ist es egal, wer es wann gemacht hat, mir war es einfach zu viel.

Zumindest Doom @Vulkan kann ich bestätigen. Das läuft hier mit Grenada Pro sowas von butterweich mit ~70-100+fps @1440p, absoluter Traum mit Freesync und 120Hz. Die Frametimes dürften auch perfekt sein. Ich merke nicht die kleinste Unregelmäßigkeit, und darauf reagiere ich besonders stark seitdem ich Freesync habe allergisch.Doom läuft mittlerweile auf allen Karten recht gut. Auch hier haben die letzten Treiber noch einmal ordentlich zugelegt. Ich habe noch die Nano im HTPC (die mit dem Lüfterumbau), das läuft sogar 4K :)

fondness
2016-08-17, 20:45:12
Mir ist es egal, wer es wann gemacht hat, mir war es einfach zu viel.

Das kommt nicht so rüber, denn beschwere über die Scheibchentaktik tust du dich zum wiederholten male nur über AMD.

drumnbass
2016-08-17, 20:49:53
[..]
Bei den 480ern habe ich aktuell nur die MSI und die Sapphire, wobei die MSI von mir so organisiert wurde. Die HIS hätte ich noch gern, kann ja kein Roundup mit nur zwei Karten starten. Oder ich hau die 470 mit rein. Dann habe ich noch XFX und MSI :)
[..]


auf einen HIS test der 480 werd ich noch warten.. vor meiner kaufentscheidung..
und bis die HIS am markt ist, werden sich andere preise vllt schon ein bissi aklimatisiert haben.. aber was da atm verlangt wird grenzt an böswillige frechheit, und dann habens net mal was im lager liegen..

(del)
2016-08-17, 20:50:55
Das kommt nicht so rüber, denn beschwere über die Scheibchentaktik tust du dich zum wiederholten male nur über AMD.Du bist viel zu markenempfindlich. Wenn es NV gemacht hätte, hätte ich NV geschrieben. Ich bin nicht die Sorte Mensch, die lapidar unbekannte Tätergruppe schreibt, obwohl man es besser weiß. Dazu habe ich die Tagespresse ;)

Nama12
2016-08-17, 21:05:17
Bei den 480ern habe ich aktuell nur die MSI und die Sapphire, wobei die MSI von mir so organisiert wurde. Die HIS hätte ich noch gern, kann ja kein Roundup mit nur zwei Karten starten. Oder ich hau die 470 mit rein. Dann habe ich noch XFX und MSI :)

Also genau die, die ich nicht will bzw. die nicht verfügbar ist hast du und jene die verfügbar sind oder demnächst werden noch nicht :(

Powercolor offenbar in weiter Ferne und wie es XFX geschafft hat, die Karten bei diversen Händlern auf Lager zu legen ohne im Netz auch nur den Anschein eines Reviews zu hinterlassen, bleibt wohl auch deren Geheimnis.

Mr. Lolman
2016-08-17, 22:12:46
Wow, hier geht's ja wieder ab. DX12 und Vulkan sind in diesen Spielen richtig dufte:

- Hitman
- Rise of the Tomb Raider


Was ist in RotTR DX12 so toll?

Achill
2016-08-17, 22:25:40
Was ist in RotTR DX12 so toll?

(Imho) bessere Frametimes (Delta zwischen zwei Frames kleiner), und DX12 mGPU support!!! :D

aufkrawall
2016-08-17, 22:26:48
Natürlich kacken die fps im CPU-Limit auch weniger ein als mit DX11, im Gegensatz zu Hitman auch ohne Schluckauf.

Achill
2016-08-17, 22:34:12
@Format_C, schon einmal dank für die Mühe. Finde die aufbereiteten Daten sehr gut und informativ. Hätte noch folgenden Vorschlag:


[..]
http://i.imgur.com/flRrYz6.png
[..]


Neben dieser Darstellung wäre der Betrag der 1ten Ableitung von den Frametimes - sprich die pos. Deltas von zwei aufeinander folgenden Frametimes als Kurve m.E. sehr Aussagegräftig und diese kann man über die FPS & Frametime-Kurve legen und auch in Verbindung der CPU-Last als Merkmal hinzu ziehen.

--
Edit: Den Betrag deswegen, da Ausschläge in der Kurve Stocker über die Zeit ausdrücken. Ein pos. und neg. Deltas wären schwerer in einer Kurve zu verstehen (imho).

Cyphermaster
2016-08-18, 07:22:26
Neben dieser Darstellung wäre der Betrag der 1ten Ableitung von den Frametimes - sprich die pos. Deltas von zwei aufeinander folgenden Frametimes als Kurve m.E. sehr Aussagegräftig und diese kann man über die FPS & Frametime-Kurve legen und auch in Verbindung der CPU-Last als Merkmal hinzu ziehen.+1!

Ist vielleicht etwas Aufwand, die Ableitungs-Darstellung einmal halbwegs "für Dummies" zu erklären, aber ich denke ebenfalls, das würde sich lohnen.

(del)
2016-08-18, 12:14:09
Ich hatte das früher schon einmal, allerdings waren die Deltas mit Vorzeichen, was sich als unübersichtlich herausgestellt hat. Ich schaus mir gern noch mal an :)

Nikstar
2016-08-18, 14:30:52
Fazit: zur XFX Radeon RX 480 GTR
http://geizhals.de/xfx-radeon-rx-480-gtr-rx-480p8dfa6-a1485002.html

- Sehr leise bis deutlich hörbar bei 3000 Umdrehungen, aber ich habe generell einen PC mit etwas lauten Lüftern, da hörte ich nur meine alte Asus 390x raus oder wenn ich manuell die RX 480 GTR auf 3000 Stelle, unter 2000 empfinde ich es als nicht störend, meine rein subjektive Meinung.
- viel Schutzfolie, auf jeder Buchse ist ein Kunststoffdeckel, auch auf dem PCIE-Stecker.
- Beim Einbau in das Gehäuse waren die Displayport-Buchsen ziemlich weit oben...das ist das erste Mal, dass ich das Problem hatte, da das DisplayPort-Kabel nicht richtig passte.
Ich habe vieles probiert, letztendlich half eine Feile, da ich sowieso diverse DisplayPort-Kabel habe.
- Max. Temp. bei R6 Siege auf Sehr hoch in 1440p war 71°C bei 85-100 FPS, das sagt natürlich nicht viel aus, aber im Moment kann ich nicht viel testen.
Aktuelle Treiber Non-WHQL-Win10-64Bit-Radeon-Software-Crimson-16.8.2-Aug11
http://imgur.com/a/ycv0k Wattman
http://i.imgur.com/HfPW0N7.jpg GPU - Z
Gefällt mir jedenfalls bisher sehr gut, mal sehen wie sie mit der Alpha von Star Citizen die nächsten Wochen laufen wird.
Die BF1 Beta kommt ja auch noch.

dildo4u
2016-08-18, 16:11:00
No Man's Sky: GTX 1060 vs RX 480

https://youtu.be/RZJXV4dzoCE

Bestätigt die PCGH Benches.

Raff
2016-08-18, 16:14:35
Gerade kam der Patch offiziell (auch bei GoG), der vieles besser macht. :)

MfG,
Raff

Gipsel
2016-08-18, 16:58:51
Mini-Review zur XFX Radeon RX 480 GTR
http://geizhals.de/xfx-radeon-rx-480-gtr-rx-480p8dfa6-a1485002.html

- Sehr leise
[..]
- Max. Temp. bei R6 Siege auf Sehr hoch in 1440p war 71°C bei 85-100 FPS, das sagt natürlich nicht viel aus, aber im Moment kann ich nicht viel testen.
Aktuelle Treiber Non-WHQL-Win10-64Bit-Radeon-Software-Crimson-16.8.2-Aug11
http://imgur.com/a/ycv0k Wattman
http://i.imgur.com/HfPW0N7.jpg GPU - ZAlso steht das Temperaturtarget per Default wohl auf maximal 70°C (sieht man im Wattman leider nicht). Aber sind die dort erkennbaren, maximal 2500 Lüfterumdrehungen die Minute wirklich noch leise? Die Lüfter sehen nicht wirklich danach aus, bei der Drehzahl noch zu flüstern (das hängt ja ähnlich wie der Luftdurchsatz bei gegebener Drehzahl sehr von der Schaufelform ab). Aber mit Temperaturtarget auf 75-80°C sollte man das wohl auf 2000 oder so drücken können. Egal, am Sonnabend werde ich mir sowieso so eine 480 GTR mal persönlich ansehen (und anhören).

Raff
2016-08-18, 17:12:10
Yep, das Temperaturziel beträgt 70 °C. Immerhin besser als bei Asus. :ugly: Am besten machen's trotzdem MSI und Powercolor.

MfG,
Raff

(del)
2016-08-18, 19:27:00
Das ganze noch einmal mit einem FX 8350 auf einem MSI 970 Brett mit 16 GB DDR3 1866

Die Balkengrafik vorweg (die wirklich nichts aussagt, als das übliche Bla Bla);

http://i.imgur.com/vPphqAe.png

Nun mal die FPS vs. Frame Time Variance (pos. Delta, die DX12 Grafiken haben noch einen Typo in der Legende):

http://i.imgur.com/9xLvnrH.png
http://i.imgur.com/YLJbxzR.png

CPU-Last und Leistungsaufnahme:

http://i.imgur.com/ezscUrh.png
http://i.imgur.com/muwQMB9.png

Zwischenfazit:
Unter DX11 rennen beide Grafikkarten partiell ins CPU-Limit, unter DX12 steigen die FPS und es sinken CPU-Last und auch Leistungsaufnahme der CPU.
Getestet habe ich mit den allerneuesten Treibern und leider sind die Frametimes der RX 480 unter DX12 deutlich schlechter als die der langsameren GTX 1060,
auch wenn die Balken noch Schönwetter anzeigen. Die 1060 hat dafür unter DX11 den unrunderen Lauf, was auch durchs CPU-Limit bedingt ist.
Diesbezüglich hat AMD offensichtlich Boden gutmachen können oder Hitman ist mittlerweile so verfrickelt, dass auch die karten nicht mehr wissen,
wo eigentlich oben und unten ist.

Irgend etwas ist entweder mit dem Spiel oder den Treibern, wobei es ja bei der (generell etwas langsameren) GTX 1060 unter DX12 ja recht rund läuft.
Ich hab das (und einiges andere) mal an AMD geschickt - mal gucken, ob eine Antwort kommt.

Und für diejenigen, die jetzt wieder eine Verschwörung wittern: Bielefeld gibt es wirklich! ;)

dargo
2016-08-18, 20:08:11
Die Frametimes sind aber echt völlig kaputt bei der RX480 in DX12. Aber selbst die der GTX1060 finde ich noch problematisch, bei beiden APIs. Gefühlt wird bei mir eine Varianz ab 15-20ms spürbar und störend. Hast du zufällig was älteres für einen Vergleich wie zb. Grenada? Nicht, dass hier nur Polaris solche Probleme macht.

(del)
2016-08-18, 20:13:00
Wenn ich Zeit habe, dann gern. Ich habe heute fast 12 Stunden dranrumprogrammiert. Aber den Versuch wäre es schon wert :)
Bedauerlicherweise muss man sich alles selbst programmieren, wenn man nicht in den üblichen Balken verrecken will.
Excel kann vieles, nur leider nicht effizient rechnen. Bei so vielen Daten gbit es schnell Stillstand :D

http://i.imgur.com/DKoU0fv.png

Schnoesel
2016-08-18, 20:15:42
Wenn man jetzt noch wüsste ob die was taugt: http://www.mindfactory.de/product_info.php/8192MB-HIS-Radeon-RX-480-IceQX2-Roaring-Turbo_1117372.html

(del)
2016-08-18, 20:16:26
Wenn man jetzt noch wüsste ob die was taugt: http://www.mindfactory.de/product_info.php/8192MB-HIS-Radeon-RX-480-IceQX2-Roaring-Turbo_1117372.html

Wenn sie beim Distri aufschlägt, dann habe ich sie auch ;)
Ich kann gern vorab berichten...

Schnoesel
2016-08-18, 20:18:46
Mich persönlich interessiert ja nur die Kühlung ob die Potential hat. Ein Auge habe ich auf ne 470 4GB für mein HTPC geworfen und es geht preislich langsam in die richtige Richtung. Die Kühlung sollte die gleiche sein?!

dargo
2016-08-18, 20:20:14
Oh... der Preis wurde schon mal ordentlich nach unten korrigiert. (y) Bis auf die Lüfter soll es wohl eine XFX Radeon RX 480 GTR Black Edition sein.

Schnoesel
2016-08-18, 20:23:42
Und grade die Lüfter machen den Ton in der Musik ;-)

dargo
2016-08-18, 20:33:36
Ich kann dir nur sagen, dass die beiden Propeller meiner HiS R9 390 (Revision 1!) hervorragenden Ton abgeben. Selten so laufruhige Lüfter erlebt. Selbst mit knapp 1600RPM noch schön leise aus einem Nanoxia DS3. Muss natürlich nicht für die P10 Kühler gelten.

(del)
2016-08-18, 20:38:32
Kommt alles vom gleichen Fließband ;)

Achill
2016-08-18, 20:59:29
@Format_C, sieht sehr gut aus. Wann man mit einen Neurologen / Forscher auf den Gebiet "optische Wahrnehmung" anfragen / diskutieren könnte, dann wäre meine Frage ob es ein Unterschied in der Wahrnehmung gibt bzgl. steigenden oder sinkenden Verzögerung (klärt evtl. die Frage ob man doch neg. Deltas zeichnet) und man dies darum unterschieden müsste.

Die Frametimes sind aber echt völlig kaputt bei der RX480 in DX12. [..]

Das schlimme ist, das sind keine Frametimes sondern die Deltas von zwei Frametimes (1. Ableitung aka Steigung in Kurvendiskussion) - es ist nur noch interessant ab wann es sich ungefähr unrund anfüllt und ab wann man von Stocken spricht - grob da individuell.

Zeroman
2016-08-18, 21:14:45
Die HIS hat aber ein Jahr weniger Garantie als die XFX und die Lüfter sind nicht wechselbar.

Und die Optik... naja..... im Case aber egal :P

raumfahrer
2016-08-18, 21:49:51
OT:

(...)

Nun mal die FPS vs. Frame Time Variance (pos. Delta, die DX12 Grafiken haben noch einen Typo in der Legende):

http://i.imgur.com/9xLvnrH.png
http://i.imgur.com/YLJbxzR.png

(...)

Schön, fand schon vor einger Zeit den Frame Time Analyser (oder sowas) mit seiner statistischen Aufbereitung hier aus dem Forum sehr interessant.

Allerdings finde ich den Begriff Varianz nicht so passend, du jagst ja nur einen Differenzen-Filter über deine Reihe.

Hast du dir auch mal die Doppel-Differenzen geplottet? Die müssten doch Mikroruckler verstärken und gleichzeitig weniger kritische einfach Sprünge glattbügeln?

@Format_C, sieht sehr gut aus. Was man mit einen Neurologen / Forscher auf den Gebiet "optische Wahrnehmung" anfragen / diskutieren könnte, dann wäre meine Frage ob es ein Unterschied in der Wahrnehmung gibt bzgl. steigenden oder sinkenden Verzögerung (klärt evtl. die Frage ob man doch neg. Deltas zeichnet) und man dies darum unterschieden müsste.

Was meinst du mit steigenden/sinkenden Verzögerungen? Pos./neg. Vorzeichen bei den Sprüngen?

Das schlimme ist, das sind keine Frametimes sondern die Deltas von zwei Frametimes (1. Ableitung aka Steigung in Kurvendiskussion) - es ist nur noch interessant ab wann es sich ungefähr unrund anfüllt und ab wann man von Stocken spricht - grob da individuell.

Die Einfach-Differenzen müssen aber auch erst richtig interpretiert werden. Nur weil da mal ein Ausschlag groß ist, muss das nicht schlimm sein. Einzelne Peaks sind i.d.R. ja kein Problem, weil sie erstmal nur einen Niveausprung signalisieren. Ganze Zeit 120fps, dann schlagartig auf 80fps getankt. Riesiger Peak im Plot. Muss nicht schlimm sein, das kommt auf die Engine und den Wertebereich an. Sowas können die Syncs ja wohl auch ganz gut abfedern. Schlimm ist eine hohe Varianz oder doppelte Sprünge. Letzteres insbesondere, wenn es in weniger spielbare Gefilde (i.d.R. über 16ms) geht.

(del)
2016-08-19, 07:04:19
Es ist kein Polaris-, sondern ganz offensichtlich ein Crimson-Problem bei DX12. Ich habe heute früh mal noch die R9 390 getestet, das Ergebnis fiel leider analog zur 480 aus.
Der aktuelle Crimson scheint eh buggy. Die 390er flackert auf dem Desktop alle paar Minuten mal, mit der Nano komme ich nicht mal bis zum Desktop (Black-Screen), obwohl das System läuft.
Die extremen Spikes sind auch beim Core i7 6950X da, fallen aber um bis zu ca. 30%

Auch wenn die Balken bei AMD stärker steigen als bei der Nvidia-Karte - das Bild ist deutlich unruhiger:

http://i.imgur.com/dBaXLz6.png

@raumfahrer
Ich nehme an, er meint mit negativen Werten, wenn ein schneller auf einen sehr langsamen Frame folgt.
Nach Auswertung von zig Logfiles kann man übrigens festhalten, dass sowohl bei AMD als auch Nvidia meist schnelle und langsame Extreme zusammen und hintereinander auftreten.
Wobei "schnell folgt auf langsam" doch sehr deutlich überwiegt, so als wollte man die Zeit wieder aufholen ;)

Wenn alle Frames mit schön gleichmäßigen 30ms kommen und einer mal mit 5 ms, dann merkt man das kaum bis gar nicht.
Aber der eine 30ms-Frame, der in einer Reihe von 10ms-Frames auftaucht, den merkt man bereits, wenn man etwas empfindlicher ist.
Je nach Empfinden sind wohl 20ms die Obergenze dessen, was Auge und Gehirn bequem wegfiltern können.
Man ist in den Augenwinkeln eh empfindlicher, so dass es auch noch stark auf die Bildinhalte ankommt und das eigene Helligkeits- bzw. Farbempfinden.
Das ist wie mit dem "Kantenflimmern", das jeder unterschiedlich störend empfindet. Nur sind alle Spikes über 30 ms nicht wegzubügeln, man sieht sie einfach.

Ganze Zeit 120fps, dann schlagartig auf 80fps getankt.
Dann müssten aber alle Karten diesen Sprung aufweisen.. Da ich die FPS selbst auch noch mit auswerte (Plausibilitäts-Test), also den Zeitblock,
indem sich der Frame befindet bzw. die darauf folgenden, lassen sich Szenen- und Lastwechsel eigentlich gut erkennen.
Deshalb finde ich ja auch die Anregung, FPS und Frametimes auf einer Achse darzustellen so spannend. Die Idee finde ich wirklich gut.

drumnbass
2016-08-19, 08:20:22
Wenn sie beim Distri aufschlägt, dann habe ich sie auch ;)
Ich kann gern vorab berichten...

inwiefern sich die HIS und XFX ähneln wäre interessant, da sie ja quasi "im selben haus" gefertigt werden ( - oberflächlich betrachtet unterscheiden sich die karten nur von core-takt, garantie und preis)

edith sagt: bei der HIS kann man die lüfter nicht tauschen? - das ist dann ein haupt-/mitgrund für die kürzere garantie-dauer, weil mehr aufwand (für alle beteiligten)

Cyphermaster
2016-08-19, 08:31:59
Nur sind alle Spikes über 30 ms nicht wegzubügeln, man sieht sie einfach.Bei einer Ableitungs-Darstellung könnte man einen entsprechenden "Korridor" anzeichnen (innerhalb = unkritische, außerhalb = sichtbare Frametime-Veränderung), und damit eine Art "Ruckelindex" aufstellen.

Bin aber über den Grad der Aussagefähigkeit daraus für eine Grafikkarte nicht sicher, da auch meiner Erfahrung nach Benchmarkprogramm + Treiber dabei i.d.R. sehr viel wesentlicher im Einfluß sind, als die Hardware. Und daß AMD mit seiner Spar-Truppe für die Treiber entsprechend etwas hinter nVidia hinterherläuft, ist schließlich keine besondere Neuigkeit, daher überrascht mich das mit Crimson überhaupt nicht.

dargo
2016-08-19, 08:34:07
@igor

Danke für den Vergleich.

Zwei Sachen fallen mir noch ein. Erstens... benutzt Hitman den Shadercache? Bei Witcher 3 ist es bsw. so, dass nach einer Treiberinstallation das Game erst einmal gestartet werden muss und wieder beendet. Erst beim zweiten Gamestart läufts gut. Ansonsten speiked es. Zweitens... ich hatte mit einzelnen Crimsons das Problem, dass GTA V in den ersten Sekunden immer starke Spikes in den Frametimes hatte, das waren schon echte Standbilder. Erst nachdem das Game ca. 45-60 Sekunden gelaufen ist lief es sauber. Aktuell mit dem Crimson 16.8.2 gibt es dieses Problem hier nicht. Gibts eventuell das selbe Problem mit Hitman?

(del)
2016-08-19, 08:51:16
Shader-Cache... Ich lasse das Spiel hier so oft durchlaufen, dass ich schon fast kotzen könnte, außerdem zähle ich den ersten Run nie.
Darüber hinaus habe ich die Spikes immer, also nicht nur am Anfang. Und die Runs dauern immer fast 2 Minuten. Weniger als 60 Sekunden bei Hitman sind sinnlos.
Der 16.8.2 ist aus meiner Sicht ein kleiner Rückschrit im Hinblick auf die Stabilität.

@Cyphermaster:
Bei der Gegenüberstellung von Frame-Time-Differenzen und FPS habe ich sogar eine Art "Bewertungsfilter" mit drin, der bei den harten Szenenwechseln die Cuts herausfiltert. Dazu betrachte ich immer eine Sekunde im Voraus und eine in der Vergangenheit, um eine Art Tendenz festzustellen. Liegt ein auffälliger Frame innerhalb so einer Periode, dann wird er genauer betrachtet. Befindet er sich im direkten Übergangsbereich, dann lasse ich ihn sogar heraus. Den Filterabgleich habe ich mit einigen selbst programmierten D3D-Szenen gemacht, wo ich sehr unterschiedliche FPS-Sprünge zeitlich reproduzierbar provozieren konnte.

Die Rucklerei (oder Glätte, je nachdem) habe ich ja auch bewertet. Da greift obiger Filter übrigens auch:
http://i.imgur.com/flRrYz6.png

horn 12
2016-08-19, 09:18:27
edit

Achill
2016-08-19, 09:18:32
[..]
Was meinst du mit steigenden/sinkenden Verzögerungen? Pos./neg. Vorzeichen bei den Sprüngen?
[..]


Bei einer gegebenen Folge an Frametimes: ... 16, 31, 18, 22, ...
Ist die Folge der Deltas (ohne Betrag): ... 15, -13, 4, ...

Steigenden (15) / Sinkenden (-13) Verzögerungen ist evtl. schlecht Gewählt als Beschreibung, Igor hat mich aber schon korrekt interpretiert.

K.a. ob das bessere Namen sind:
Steigende Verzögerung ~= Warten
Sinkenden Verzögerungen ~= Vorwärts Springen?


[..]
Die Einfach-Differenzen müssen aber auch erst richtig interpretiert werden. Nur weil da mal ein Ausschlag groß ist, muss das nicht schlimm sein. Einzelne Peaks sind i.d.R. ja kein Problem, weil sie erstmal nur einen Niveausprung signalisieren. Ganze Zeit 120fps, dann schlagartig auf 80fps getankt. Riesiger Peak im Plot. Muss nicht schlimm sein, das kommt auf die Engine und den Wertebereich an. Sowas können die Syncs ja wohl auch ganz gut abfedern. Schlimm ist eine hohe Varianz oder doppelte Sprünge. Letzteres insbesondere, wenn es in weniger spielbare Gefilde (i.d.R. über 16ms) geht.


Ein pos. Delta über 20ms oder 30ms ist auf jeden Fall ein Stocker und irgendwas über 100ms sogar ein richtiger Lag.

Ein neg. Delta könnte ggf. nicht (negativ) auffallen, wenn die darauf folgenden Frames gleichmäßig "schnell" kommen.


Bei einer Ableitungs-Darstellung könnte man einen entsprechenden "Korridor" anzeichnen (innerhalb = unkritische, außerhalb = sichtbare Frametime-Veränderung), und damit eine Art "Ruckelindex" aufstellen.

+1 - find ich gut.


@igor

Danke für den Vergleich.

Zwei Sachen fallen mir noch ein. Erstens... benutzt Hitman den Shadercache? Bei Witcher 3 ist es bsw. so, dass nach einer Treiberinstallation das Game erst einmal gestartet werden muss und wieder beendet. Erst beim zweiten Gamestart läufts gut. Ansonsten speiked es. Zweitens... ich hatte mit einzelnen Crimsons das Problem, dass GTA V in den ersten Sekunden immer starke Spikes in den Frametimes hatte, das waren schon echte Standbilder. Erst nachdem das Game ca. 45-60 Sekunden gelaufen ist lief es sauber. Aktuell mit dem Crimson 16.8.2 gibt es dieses Problem hier nicht. Gibts eventuell das selbe Problem mit Hitman?

@Igor, dargo - habt ihr schon das neue Win10 1607 Update drauf, welches auch Anpassungen an DX12 enthält?

Bei mir läuft der RotTR Bench seit Win10 1607 nicht mehr rund (egal welche letzte Crim. Version ich versuche) - den Hitman-Bench bekomme ich aktuell nicht gestartet (DX11 und DX12).

horn 12
2016-08-19, 09:19:40
XFX und Sapphire Custom Karte lieferbar
Wohl die erste Charge an Sapphire Karten, bis dato war nicht verfügbar.

https://www.caseking.de/sapphire-radeon-rx-480-nitro-8g-8192-mb-gddr5-gcsp-154.html?sPartner=185&utm_source=geizhals&utm_medium=cpc&utm_campaign=geizhals&campaign=psm/geizhals

(del)
2016-08-19, 09:22:29
@Achill:
Der Hitman-Bench läuft seit dem letzten Patch nicht, das hat mit Windows nichts zu tun. In-Game FTW.... Ich nutze einen Trainer für die meisten Spiele, um quasi ungesehen und im God-Mode benchen zu können ;)
Bei RoTR habe ich auch Probleme, deshalb habe ich es aktuell nicht in Nutzung. Das Problem hat man sowohl in der finalen Version, als auch den Fast- und Slow-Ring-Systemen. Ich checke das immer mit 3 Images gegen.


Ruckel-Index... Unter Berücksichtigung von FPS-Tendenzen (Szenenwechsel), Sichtbarkeit im Verlauf (echter Kurvenverlauf, Ableitung) und einigen anderen Dingen.
Das geht von 0 (perfekt) bis 10 (grausam). Alles bis 3 ist unkritisch, bis 6 so lala, 7 bis 9 schlecht und 10 sind quasi Drops/totale Hänger.
Man könnte natürlich auch einfach einen FPS-Abschnitt (die jeweilige Sekunde auf dem Diagramm) als solchen bewerten, was eine etwas glattere Kurve ergäbe.

http://i.imgur.com/5aHwAPW.png

Mortalvision
2016-08-19, 11:59:22
Es wird eine Revision 2 der Powercolor 480 Devil geben!

http://geizhals.de/powercolor-radeon-rx-480-red-devil-v2-axrx-480-8gbd5-3dhv2-a1495030.html?hloc=at&hloc=de

horn 12
2016-08-19, 13:12:06
Und der Unterschied wäre exakt welcher (Bessere Chips und weniger Stromhungrig da der 14nm Prozess langsam besser läuft)
Oder wurde das Teil diesesmal auf Performance getrimmt?

Linmoum
2016-08-19, 13:14:04
Tippe mal aufs Bios.

Raff
2016-08-19, 13:16:43
Da muss mehr dran sein, denn das BIOS wurde bereits mehrfach überarbeitet. Kann aber auch eine Cost-Down-Version sein, V2 heißt ja nicht automatisch "besser". ;)

MfG,
Raff

marc-05
2016-08-19, 14:54:27
. Die Kühlung sollte die gleiche sein?!
Die Unterscheidetet sich schon wie bei Schwestern Karte von XFX

HIS /XFX 470 Heatpipes laufen Heatpipes quer
http://fs5.directupload.net/images/160819/5valpqcv.jpg (http://www.directupload.net)

HIS /XFX 480 laufen die längst zur Karte
http://fs5.directupload.net/images/160819/hryejeod.jpg (http://www.directupload.net)

Edit: Besser direkt Blick auf dem Kühler
http://fs5.directupload.net/images/160819/5qtage6j.jpg (http://www.directupload.net)

HT4u beim RX 470 Test -> http://ht4u.net/reviews/2016/amd_fullhd-polaris-grafikkarte_radeon_rx_470_im_test/index8.php

Cyphermaster
2016-08-19, 17:49:58
Das ist den verfügbaren Bildern nach nicht ganz korrekt. XFX 470/480 "RS" haben beide den Kühler mit quer laufenden Heatpipes, nur die RX 480 "GTR" den mit längs laufenden Heatpipes. HIS bietet offensichtlich kein Pendant zur RX 480 "RS"-Version an.

Belege:

XFX-Homepage-Bebilderung der RX 480 "RS" (RX-480P4LFB6)

http://cdn.agilitycms.com/xfx/MediaGroupings/608/480_RS_Card_Back_Side.jpg

XFX-Homepage-Bebilderung der RX 480 "GTR" (RX-480P8DBA6)

http://cdn.agilitycms.com/xfx/MediaGroupings/617/480_GTR_Card_Back_Side.jpg

Raff
2016-08-19, 20:52:45
Test der Vorabversion eines Gaming Evolved-Spiels: Deus Ex Mankind Divided - Erste Benchmarks und Performance-Eindrücke - DX12 strauchelt (http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/)

... und die RX 480 OC landet unerwartet schon unter DX11 vor einer GTX 1060 OC. Der DX12-Showdown Anfang September wird interessant.

MfG,
Raff

Schnoesel
2016-08-19, 20:58:46
Wurde ja schon lange beworben von AMD, also wundert mich jetzt nicht so, dass sie bei diesem Spiel gut dastehen. Schade ist aber die noch fehlenden DX12 Implementierung und der Speicherhunger (vor allem für mich :mad: ).

Die HIS die ich gestern gepostet hatte ist schon wieder überall verschwunden. Möchte echt mal wissen wann die Chips mal breit im Markt aufschlagen, gibts doch nicht.

captain_drink
2016-08-19, 21:14:37
Wurde ja schon lange beworben von AMD, also wundert mich jetzt nicht so, dass sie bei diesem Spiel gut dastehen.

Zumal nicht auszuschließen ist, dass sich ohne aktivierte AMD-Features die Verhältnisse (ebenso wie der unverhältnismäßige Leistungshunger) verschieben.

dildo4u
2016-08-19, 21:15:59
Laut Raff frisst das Ding ordentlich Vram,die 1080 könnte schon deutlich besser dastehen leider wurde sie noch nicht gebencht.

Schnoesel
2016-08-19, 21:17:48
Mal abwarten. Ist ja noch nicht final Release und die passenden Treiber auf beiden Seiten fehlen auch noch.

dargo
2016-08-19, 21:18:10
Die Benches sind eh ziemlich sinnfrei ohne den Day1 Patch. Und selbst damit erwarte ich noch lange nicht die endgültige Performance.

dildo4u
2016-08-19, 21:23:13
Das wird die Version sein die näste Woche alle bekommen,daher wurde DX12 rausgepatcht,unwahrscheinlich das die jetzt über's Wochenende noch großartig daran basteln.

Linmoum
2016-08-19, 21:25:48
Das wird die Version sein die näste Woche alle bekommen,daher wurde DX12 rausgepatcht,unwahrscheinlich das die jetzt über's Wochenende noch großartig daran basteln.
Die PCGH-Benches sind noch nicht mit der finalen Version.

Da wir noch nicht mit der finalen Version von Deus Ex: Mankind Divided benchen können und mit unserer Review-Fassung noch einige Ungereimtheiten auftreten, beschränken wir uns auf eine kleine Auswahl Grafikkarten und liefern weitere Messungen mit der finalen Version in Bälde nach.

captain_drink
2016-08-19, 21:26:05
Ist ja noch nicht final Release und die passenden Treiber auf beiden Seiten fehlen auch noch.

Der aktuelle 372.54 soll zumindest nominell explizit für MD optimiert sein.

dargo
2016-08-19, 21:29:40
Der aktuelle 372.54 soll zumindest nominell explizit für MD optimiert sein.
Ihr interpretiert in dieses "Game Ready" viel zu viel rein. Game Ready heißt nicht unbedingt performant.

captain_drink
2016-08-19, 21:35:18
Ihr interpretiert in dieses "Game Ready" viel zu viel rein. Game Ready heißt nicht unbedingt performant.

Wer ist "ihr"? Man achte zudem auf das Wort "nominell".

dargo
2016-08-19, 21:42:07
Wer ist "ihr"?

Diejenigen die in einem Game Ready Treiber was tolles sehen. Ich sehe darin in erster Linie nichts weiter als Support. Sprich... beim ersten Treiber hat die Stabilität die höchste Priorität.


Man achte zudem auf das Wort "nominell".
Ich achte auch auf das Wort "optimiert".

dildo4u
2016-08-19, 21:46:30
Da wird nicht mehr so viel kommen bei NV.Hitman ist schon ewig auf den Markt und es wurde nicht viel besser für Nvidia,was man so liest stammt die Deux Ex Engine davon ab.

drumnbass
2016-08-19, 23:08:54
Das ist den verfügbaren Bildern nach nicht ganz korrekt. XFX 470/480 "RS" haben beide den Kühler mit quer laufenden Heatpipes, nur die RX 480 "GTR" den mit längs laufenden Heatpipes. HIS bietet offensichtlich kein Pendant zur RX 480 "RS"-Version an.
[...]

was ich so mitbekommen habe sind viele biegungen der heatpipes zur wärmeableitung schlechter als gäbe es weniger,
demnach müsste die RS "schlechter" kühlen.
ist meine annahme richtig, dass hier die GTR mit ihren längs-laufenden heatpipes effizienter hitze wegbringt, weil weniger biegungen vorhanden sind?
andererseits sehen die heatpipes bei der RS ein bisl dicker aus - ausserdem scheint das platz sparen können, da die karte auch einen kürzeren eindruck macht..
am geizhals ist die RS noch nicht zu finden ;(

ansonsten, rein äusserlich, scheint die HIS mit der XFX GTR BlackEdt. viel bis sehr viel gemeinsam zu haben (bis auf garantie, preis und abnehmbare fans).

raumfahrer
2016-08-20, 01:53:25
(...)

@raumfahrer
Ich nehme an, er meint mit negativen Werten, wenn ein schneller auf einen sehr langsamen Frame folgt.
Nach Auswertung von zig Logfiles kann man übrigens festhalten, dass sowohl bei AMD als auch Nvidia meist schnelle und langsame Extreme zusammen und hintereinander auftreten.
Wobei "schnell folgt auf langsam" doch sehr deutlich überwiegt, so als wollte man die Zeit wieder aufholen ;)


Könnte das nicht Rückschlüsse auf irgendwelches Caching-Verhalten oder sowas machen? Irgendwas für das langsame Frame muss von weit weg geladen werden, dabei wird für das nächste schon direkt Zeug mitgeholt. Kenn mich da nicht großartig aus.


Wenn alle Frames mit schön gleichmäßigen 30ms kommen und einer mal mit 5 ms, dann merkt man das kaum bis gar nicht.
Aber der eine 30ms-Frame, der in einer Reihe von 10ms-Frames auftaucht, den merkt man bereits, wenn man etwas empfindlicher ist.
Je nach Empfinden sind wohl 20ms die Obergenze dessen, was Auge und Gehirn bequem wegfiltern können.
Man ist in den Augenwinkeln eh empfindlicher, so dass es auch noch stark auf die Bildinhalte ankommt und das eigene Helligkeits- bzw. Farbempfinden.
Das ist wie mit dem "Kantenflimmern", das jeder unterschiedlich störend empfindet. Nur sind alle Spikes über 30 ms nicht wegzubügeln, man sieht sie einfach.


Eine 30ms Reihe ruckelt ja auch von Haus aus schon vor sich hin und 5ms Gezappel macht grad mal eine Varianz 3ms oder so aus. Das 30ms Sprünge bei sonst konstant 10ms auffallen sollte klar sein. Frage ist, ob man auf irgendwelche absoluten oder relativen Schwellen anspringt. Also was machen z.B. 5ms Sprünge bei 5ms, was passiert von 15ms auf 20ms (in manchen Spielen bin ich extrem empfindlich unter 60fps, da merk ich schon kleine Absacker auf 57fps).


Dann müssten aber alle Karten diesen Sprung aufweisen.. Da ich die FPS selbst auch noch mit auswerte (Plausibilitäts-Test), also den Zeitblock,
indem sich der Frame befindet bzw. die darauf folgenden, lassen sich Szenen- und Lastwechsel eigentlich gut erkennen.
Deshalb finde ich ja auch die Anregung, FPS und Frametimes auf einer Achse darzustellen so spannend. Die Idee finde ich wirklich gut.

Ja, im Vergleich sieht man sowas schon gut. Mit zusätzlichen Informationen lässt sich das auch alles vernünftig bewerten. Aber der DAU, der nur Bilder ohne Erläuterungen in Foren verlinkt, stellt damit doch nur Unfug an. Ich kenn das halt aus der Wissenschaft, da werden Daten in irgendwelche Matlab-Funktionen geballert, wo dann tolle Plots raus kommen, die man ohne zu wissen, was besagte Funktionen genau machen, gar nicht interpretieren sollte.

(...)
Ein pos. Delta über 20ms oder 30ms ist auf jeden Fall ein Stocker und irgendwas über 100ms sogar ein richtiger Lag.

Ein neg. Delta könnte ggf. nicht (negativ) auffallen, wenn die darauf folgenden Frames gleichmäßig "schnell" kommen.
(...)

Solche Sprünge gehen ja auch in den unspielbaren Bereich (i.e. alles unter 60fps :biggrin:).

@Format_C
Würdest du eine Zeitreihe (mit Rucklern) mal hochladen?

Die Diskussion wäre denke ich auch einen eigenen Thread wert.

Hermelinmaster
2016-08-20, 03:39:40
@Format_C Herzlichen Dank für dein Engagement. Der Ruckel-Index ist klasse und freue mich, dass du die Community so sehr in deine Arbeit einbindest.

(del)
2016-08-20, 09:08:03
@Format_C Herzlichen Dank für dein Engagement. Der Ruckel-Index ist klasse und freue mich, dass du die Community so sehr in deine Arbeit einbindest.

Die halbe Nacht ist noch draufgegangen, aber ich denke mal, das passt so. Ich habs mit einigen Dritten schon durchgetestet und es ist durchaus plausibel.
Danke auch für die Idee mit der Ableitung, die einfachen Differenzen führen nicht weit genug :)
ich habe jetzt mehrere Faktoren einbezogen und gewichtet:

- allgemeine Performance (FPS)
- Kurvenverlauf der Einzelframes (Differenzen/Varianzen, Tendenzen)
- aufwändiges Cut-Filter (spielbedingte Szenenübergänge und Load-Level-Changes werden niedriger bis gar nicht bewertet)

Das Ergebnis sieht jetzt so aus und ist eine Punkteskala zwischen 0 (perfekt) bis 10 (unspielbar) daraus geworden.
Da werden allgemein langsame Frametimes genauso einbezogen, wie Hoppler und Hänger:

http://i.imgur.com/wHLioZS.png

Cyphermaster
2016-08-20, 09:57:33
Ich finde es sehr gut. (y)

HOT
2016-08-20, 10:21:34
Laut Raff frisst das Ding ordentlich Vram,die 1080 könnte schon deutlich besser dastehen leider wurde sie noch nicht gebencht.
Unter FullHD reichen ja 4GB wenn man MSAA weglässt (was eh kaum noch sinnvoll ist), da ändert sich nix. Erst bei UHD werden 6GB knapp.

dildo4u
2016-08-20, 10:26:08
Unter FullHD reichen ja 4GB wenn man MSAA weglässt (was eh kaum noch sinnvoll ist), da ändert sich nix. Erst bei UHD werden 6GB knapp.

1440p macht mit 4GB schon Probleme,der Text bezieht sich auf den Benchmark der ohne MSAA gemacht wurde.


Mit einer 4-GiByte-GPU wird der Grafikspeicher schon in Full HD eng; ab WQHD warnt das Spiel sogar vor einer Überfüllung des Speichers. Die Radeon R9 Fury X zeigt im Benchmark, welche Auswirkungen das hat: Unter Full HD ist die Welt noch in Ordnung, doch ab WQHD ist das Nachladeruckeln in Form niedriger Min-Fps zu sehen

Das ist schon böse wenn man über 600€ für Fury X ausgegeben hat,das sie jetzt schon kaum besser läuft als eine 270€ 480.

(del)
2016-08-20, 10:37:58
ich würde das, auch in bezug auf die Fury, etwas ruhiger angehen wollen. Und bitte definiert Min-FPS. Niedrige FPS <> Ruckeln. Dazu am Montag mehr.

Und über Spiele und die Leistung einzelner Karten würde ich sowieso erst urteilen, wenn das Spiel final ist und beide Hersteller auch angepasste Treiber bieten.
Vorher hat so etwas den etwas merkwürdigen Beigeschmack einer Produktplatzierung. Oder Klickhascherei, oder von beidem ;)

fondness
2016-08-20, 11:16:02
Ab nächster Woche sollte eine ordentliche Menge RX480 Customs einreffen.

Cyphermaster
2016-08-20, 11:59:02
was ich so mitbekommen habe sind viele biegungen der heatpipes zur wärmeableitung schlechter als gäbe es weniger,
demnach müsste die RS "schlechter" kühlen.Biegungen sind prinzipiell nachteilig für Heatpipes - aber in eher nur unwesentlichem Umfang. Das dürfte sich alleine nicht unbedingt meßbar auswirken.
Wesentlicher für die Kühlleistung des Kühlkörpers sind Länge, Verteilung und Oberfläche der Kühlfinnen, sowie die Optimierung des Luftstroms. Ich schätze, der RS-Kühler dürfte etwas, aber nicht Dimensionen schlechter als der Kühler der GTR sein.
ansonsten, rein äusserlich, scheint die HIS mit der XFX GTR BlackEdt. viel bis sehr viel gemeinsam zu haben (bis auf garantie, preis und abnehmbare fans).Höchstwahrscheinlich nicht nur Äußerlich. Da wurde garantiert nur Vorhandenes neu zusammengewürfelt und mit ein wenig HIS-Markenoptik garniert.

Achill
2016-08-20, 12:02:11
Die halbe Nacht ist noch draufgegangen, aber ich denke mal, das passt so. Ich habs mit einigen Dritten schon durchgetestet und es ist durchaus plausibel.
Danke auch für die Idee mit der Ableitung, die einfachen Differenzen führen nicht weit genug :)
ich habe jetzt mehrere Faktoren einbezogen und gewichtet:

- allgemeine Performance (FPS)
- Kurvenverlauf der Einzelframes (Differenzen/Varianzen, Tendenzen)
- aufwändiges Cut-Filter (spielbedingte Szenenübergänge und Load-Level-Changes werden niedriger bis gar nicht bewertet)

Das Ergebnis sieht jetzt so aus und ist eine Punkteskala zwischen 0 (perfekt) bis 10 (unspielbar) daraus geworden.
Da werden allgemein langsame Frametimes genauso einbezogen, wie Hoppler und Hänger:

http://i.imgur.com/wHLioZS.png

Das Ergebnis deiner Arbeit gefällt mir sehr gut und freue mich schon auf den Artikel bei euch. Well Done!

Mortalvision
2016-08-20, 12:04:20
Hallo Ihr Lieben, und vielen Dank an FormatC für all seine Mühen!

Und auch danke an denjenigen, der mir geraten hatte, mal doch die WLP zu tauschen. Ich habe einen dicken BLOBB irgendwas aufgedeckt, und traute meinen Augen fast nicht mehr. Das war keine "dünne" Schicht WLP, sondern ca. 1-1,5 mm Wärmeschmiere. Anders kann man das nicht bezeichnen *widerlich* Jetzt rennt die GPU a) ohne Unterbrechung mit 1330 MHz, b) sind die max. Temperaturen jetzt ca. 72 statt 82 'C. Also, das nenne ich doch mal einen signifikanten Temperatursturz. Vielleicht klappt es dann auch mal endlich mit OC, mal sehen. Da spielt ja auch noch das Powercolor BIOS so eine Rolle...

Fazit: Wer die RX 470/480 Devil von Powercolor hat: Es ist ratsam, mal die WLP zu ersetzen. Ich persönlich hatte mit der Arctic Silver 5 guten Erfolg gehabt (daran denken, nach ca. 2 Jahren mal zu erneuern!)

-/\-CruNcher-/\-
2016-08-20, 12:18:14
Test der Vorabversion eines Gaming Evolved-Spiels: Deus Ex Mankind Divided - Erste Benchmarks und Performance-Eindrücke - DX12 strauchelt (http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/)

... und die RX 480 OC landet unerwartet schon unter DX11 vor einer GTX 1060 OC. Der DX12-Showdown Anfang September wird interessant.

MfG,
Raff

Bei ca 1350 Mhz und optimierten Shadern würde es mich nicht wundern darauf wiesen ja einige tests ausserhalb eurer schon drauf hin ;)

(del)
2016-08-20, 12:20:44
Bei ca 1350 Mhz und optimierten Shadern würde es mich nicht wundern darauf wiesen ja einige tests ausserhalb eurers schon drauf hin ;)
Schau Dir meine Hitman-Benches an, da treten eine 1060 OC und eine 480 OC an. knapp 2GHz konstant gegen 1,3 GHz konstant. Diagramme siehe letzte Seite :)

-/\-CruNcher-/\-
2016-08-20, 12:22:41
Schau Dir meine Hitman-Benches an, da treten eine 1060 OC und eine 480 OC an. knapp 2GHz konstant gegen 1,3 GHz konstant. Diagramme siehe letzte Seite :)

Ja man sollte die Rechnung aber vorerst nicht ohne Nvidias Shader Optimization team machen also lieber erstmal 1-2 treiber abwarten ;)

Wir errinern uns mal zurück an Tomb Raider und Kepler Tressfx das war eine irre Leistung Nvidias das Boot so zu drehen ;)

Übrigens wäre mal interessant man reviewed den älteren TressFX Code und Nvidias Optimierungen nochmal zwischen GTX 1060 und RX 480 :D

Dazu eigenen sich vor allem Retrospektiv

Tomb Raider 2013 (CDE aka Foundation)
Lichdom Battlemage (CryEngine 3 VR unoptimzed DX 11 Core)
;)

(del)
2016-08-20, 12:22:54
Das Ergebnis deiner Arbeit gefällt mir sehr gut und freue mich schon auf den Artikel bei euch. Well Done!

Zitat aus dem (vorläufigen) Fazit:
Unser ausdrücklicher Dank geht abschließend auch an die Community, seien es Leser-Feedbacks oder gemeinsame Diskussionen in verschiedenen Foren. Hier wurde auch der Ruckel-Index angeregt, die Verwendung der 1. Ableitung für unsere Kurvenfunktion und die differenziertere Betrachtung von Renderzeiten. Natürlich ist es am Ende ein ordentlicher Spagat zwischen dem, was man technisch für Enthusiasten aufbereiten könnte oder leicht verständlich auch für die Breite Masse anbieten muss. Aber wir sind uns sicher, dass hier für jeden etwas dabei ist.

fondness
2016-08-20, 12:27:40
Du bist viel zu markenempfindlich.

Du bist markenempfindlicher, als du es zugibst.


Wenn es NV gemacht hätte, hätte ich NV geschrieben.

Du hast vorher gerade geschrieben, dass NV nichts anderes gemacht hat.


Ich bin nicht die Sorte Mensch, die lapidar unbekannte Tätergruppe schreibt, obwohl man es besser weiß. Dazu habe ich die Tagespresse ;)

Momentan sehen ich dich nur wöchentlich in den RX480 herein posten, wie toll die GTX 1060 nicht ist. Sei es mit dubiosen Einstellungen wie Doom mit FXAA, oder um bei einem Spiel auf AMD Seite die µRuckler seitenweise zu kritisieren.

(del)
2016-08-20, 12:30:23
Im Gegensatz zu Dir bin ich nicht nur lernfähig, sondern auch weitgehend objektiv. Ich hoffe auch, dass Du das, was Du da schreibst, nicht etwa noch selbst glaubst :)
Ich mag nur eine Marke wirklich und die hat mit PCs überhaupt nichts zu tun. Der Rest ist nur marktübliches Grundrauschen in verschiedenen Farben :)

Sei es mit dubiosen Einstellungen wie Doom mit FXAA, oder um bei einem Spiel die µRuckler seitenweise zu kritisieren.
FXAA und TSSAA (8TX) bieten im Ergebniss mit den aktuellen Treibern die gleiche Aussage. Warum das so ist, schrieb ich übrigens auch. Sogar mit Diagrammen.

Und zu dem Rucklern bitte ich dich die letzte Seite genauer zu konsumieren. Im Gegensatz zu Dir setze ich mich nämlich aktiv mit der Materie auseinander.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11136447&postcount=4718
Da stecken einige Tage Arbeit drin und allein der Cut-Filter sind mittlerweile fast 500 Zeilen optimierter Code.
Du kannst selbst für Dich entscheiden, welche Karte dir dort besser gefällt. Beide bieten Vor-und Nachteile.

-/\-CruNcher-/\-
2016-08-20, 12:36:16
Jetzt wo du deine test daten so optimiert hast könntest du auch mal anfangen eine vor allem Mobile kritische seite zu beleuchten ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11136565#post11136565

Du hast einfach die höchste Auflößung momentan dafür :D

@fondness

Moment hatte Format_C nicht als erster der Reviewer festgestellt das die Bildausgabe auch relativ zur Power Consumption flüssiger ist mit Vulkan @ AMD ?

Hatte er doch ein paar seiten zuvor noch erwähnt oder hab ich was neues verpasst ?

Format_C ist immer etwas langsam mit Treiber updates da das V-sync Problem Nvidias hier wohl extreme reingespielt hat könnte das auch schon wieder History sein ;)

Bzgl des neuen DX12 (DWM) Intermediate Presentation mode da sollte man erstmal abwarten für Reviews bis das ganze auf beider seiten Treiber stabil vor allem mit G-sync und Freesync wird vor allem wenn man so hohe Auflößungen wie Format_C fährt.

Die ganzen daten für Windows 10 (WDDM 2.0/2.1) sind da momentan extrem instabil sollte man vorerst extreme vorsichtig in der Bewertung des ganzen sein (IHV Baustellenstatus) ;)

(del)
2016-08-20, 12:41:59
Der einzige Nachteil dieser Auswertung ist, dass man immer nur eine Karte ins Diagramm bekommt, weil es sonst zu unübersichtlich wird.

Wir wollen das Tool aber intern in allen Lokalisierungen nutzen. US macht wieder verstärkt Notebooks & Co.
Den habe ich ja schon mit den Wärmebildern geholfen und passendes Equipment besorgt, jetzt kommen die Benchmarks und Auswertungen dran. :)
Voher muss ich aber noch etwas Codeoptimierung betreiben, manche Module sind noch nicht effizient genug, vor allem die rekursiven Parts.
Ich war eigentlich froh, aus dem Programmierungs-Stress geflüchtet zu sein :D

-/\-CruNcher-/\-
2016-08-20, 12:56:53
Ich schau mir gerade an wie man NVAPI und Windows API (ETW) mischen kann mit dem geringsten overhead bei der Daten aquisition.

Daten aus dem Video Rendering Test sind aus dieser Misschung, ich werde nie an deine Hardware Auflößung kommen und verifizieren kann ich auch nicht aber ich konzentriere mich hier eher auf die RPMs und °C vor allem die RPMs die sind verdammt genau bei Intel und Nvidia anhand des RPM verhalten kann man schon verdammt genau rückschlüsse ziehen die manchmal so mit den anderen Countern zu noisy sind :D

So genau das ich mir überlge Optimierungen direkt auf die RPMs auszulegen anstelle der anderen Counter :D

Screemer
2016-08-20, 13:25:05
Der einzige Nachteil dieser Auswertung ist, dass man immer nur eine Karte ins Diagramm bekommt, weil es sonst zu unübersichtlich wird.

Ein Overlay der Diagramme wäre cool. Am besten mit Slider für die opacity.

-/\-CruNcher-/\-
2016-08-20, 13:28:50
@Format_C

Du solltest dein Unevness Indexing auch mal an ultra Smooth Animation optimierten 60 FPS Sport Titeln versuchen, Forza APex kommt mir als DX 12 Exclusiv Entwicklung sofort in den Sinn und als gegenpart Need For Speed als DX 11 Frostbite basis :)

Quantum Break ist auch ein sehr solider Smoth Motion Capture Animation titel :D

Auch Codemasters solide Arbeit mit der Ego Engine :D

Auch würde sich mal wieder der gute alte Max Payne 3 lohnen dessen Animation immernoch überragend genial sind vor allem für die damalige Zeit.

Rockstars Euphoria Workflow bleibt da weiterhin faszinierend und den anderen immernoch weit voraus vor allem die Umsetzung in Max Payne 3 ;)

Übrigens einer der besten Mods für GTA 5 in this regards

https://sl.gta5-mods.com/misc/naturalmotion-euphoria-oiv-kaai210-bravercoolio-jedijosh920

Klasse neues Diagram das so richtig böse in die Tiefe geht, so böse war noch kein Reviewer bis jetzt ausser FCatler wie Richard ;)

=Floi=
2016-08-20, 13:34:24
Das Ergebnis sieht jetzt so aus und ist eine Punkteskala zwischen 0 (perfekt) bis 10 (unspielbar) daraus geworden.

wäre 10 nicht perfekt und 0 unspielbar besser?


ich fand die andere aufteilung mit den % angaben der frametimes ein wenig übersichtlicher und einfacher zu verstehen.

-/\-CruNcher-/\-
2016-08-20, 13:37:50
@Format_C
Vor allem wird es interessant was passiert wenn man die FPS lockt mit dem Unevness verhältnis in der theorie sollte ja die overhead reduktion zu einem stabilieren Ergebnis führen ;)

Jetzt kannst auch die ganzen Power Saving (timer) auswirkungen sehr genau analysieren :D

Auch sehr in die Tiefe zwischen Windows 7,8 und 10 kannste damit gehen was bisher so noch niemand analysiert hat ;)

Auch wird es interessanter zu Hinterfragen wie Optimieren AIBs und welche Vorausetzungen müssen sie erfüllen innerhalb ihrer Bios Optimierungen die hier auch signifikant in der jewiligen Richtung (Balance) eine Rolle spielen vor allem innerhalb der Power Saving features und Dynamischen Frequenzen und Memory Timings die hier eine Signifikante rolle im Variance verhalten spielen können.

Das wie ich finde du als erster Reviewer überhaupt mal hinterfragt hast bei deiner OC Effizienz Analyse mit dem Pascal Launch, während die anderen noch auf ihren Balken rumhingen :)

Du setzt neue Masstäbe im Reviewing und wir können nur hoffen das wir bald einen Merger zwischen Fcat und deiner Analyse haben wie gesagt Presentmon ist schon Lower Kernel Level aber ich würde den Benchmark gegen FCAT gerne mal sehen ;)

Für VR Analyse wird das allerdings auch absolut nötig werden, wer da noch mit Balken kommt macht sich absolut lächerlich :)

(del)
2016-08-20, 15:03:14
wäre 10 nicht perfekt und 0 unspielbar besser?
ich fand die andere aufteilung mit den % angaben der frametimes ein wenig übersichtlicher und einfacher zu verstehen.
Erstens lasse ich die anderen Diagramme nicht weg, sondern der Index ist zusätzlich und zweitens geht es ja nicht einen Spielbarkeits-, sondern Ruckel-Index.
Spielbarkeit ist als pauschalisierte Zahl so eine Aussage, die ich mir gar nicht anmaßen möchte, echte Ruckler sind hingegen etwas Konkretes.
Naja, es endet eh alles als Kompromiss. :D

Achill
2016-08-20, 18:39:22
Es gab ein Hitman-Update (gestern?) heute über Steam und damit geht der Hitman-Benchmark wieder. Ich habe meine 390X mal mit DX12 durch laufen lassen. Spikes scheint es nur beim Start und Szenenwechsel zu geben, der Rest sieht ganz gut aus.

57087

dargo
2016-08-20, 18:51:20
Die ganze Arbeit von igor umsonst? :usweet:

Ex3cut3r
2016-08-20, 18:55:10
Naja, Benchmark....echtes Ingame wäre mehr wert.
Das Game hole ich mir mal vlt. als GOTY Edtion, wenn alle Episoden drin sind.

MfG

(del)
2016-08-20, 19:11:59
Die ganze Arbeit von igor umsonst? :usweet:Wieso umsonst? Gute Ergebnisse sind doch auch eine Aussage :D

@Achill:
Mit was protokolliert? Ich messe nachher die 1060 3GB, dann hänge ich auch die AMD Karten wieder mit rein. Nach dem Dreckspatch gehen manche Settings nicht mehr (ausgegraut). Kann also mal wieder bei Null anfangen :(

Achill
2016-08-20, 19:33:16
[..]
@Achill:
Mit was protokolliert? Ich messe nachher die 1060 3GB, dann hänge ich auch die AMD Karten wieder mit rein. Nach dem Dreckspatch gehen manche Settings nicht mehr (ausgegraut). Kann also mal wieder bei Null anfangen :(

Ich habe die Daten aus der C:\Users\<user>\hitman\profiledata.csv genommen, habe aber gerade gesehen das diese in 2 Teile unterteilt ist. Einmal CPU (dacht das wäre GPU) und später nochmal ein GPU-Part - die Werte von GPU können aber nicht korrekt zu sein.

Bin jetzt unsicher wie gut das alles passt ... :(

(del)
2016-08-20, 19:39:20
Das, was die Spiele produzieren, ist eigentlich selten das, was man mit Dingen wie PresentMon oder FCAT erhält. Ich sage nur The Division und deren alberne Log-Dateien ;)

Die 470 noch und dann die 1060 6G und die 480. Man, ist das sinnloser Stress. Patches, Treiber und das fast täglich :(

Achill
2016-08-20, 20:12:49
Ich habe die Daten aus der C:\Users\<user>\hitman\profiledata.csv genommen, habe aber gerade gesehen das diese in 2 Teile unterteilt ist. Einmal CPU (dacht das wäre GPU) und später nochmal ein GPU-Part - die Werte von GPU können aber nicht korrekt zu sein.

Bin jetzt unsicher wie gut das alles passt ... :(

Ich habe dir mal meine PresentMon-Lauf ran gepackt, wenn ich das richtig sehe, dann startet DX11 bei 396 und DX12 bei 385 - kann mit den Daten aber noch nichts richtig anfangen. Bin gerade auf der Suche um die etwas besser zu verstehen.


Das, was die Spiele produzieren, ist eigentlich selten das, was man mit Dingen wie PresentMon oder FCAT erhält. Ich sage nur The Division und deren alberne Log-Dateien ;)

Die 470 noch und dann die 1060 6G und die 480. Man, ist das sinnloser Stress. Patches, Treiber und das fast täglich :(

Hoffe du hast wenigstens ein kühles Blondes zur Motivation ... :)

(del)
2016-08-20, 20:39:36
Hoffe du hast wenigstens ein kühles Blondes zur Motivation ... :)Bayreuther Hell und als Katalysator KAVALAN Solist. Der haut gut rein :P

BTW: Wo kommen bei Dir unter DX11 Framedrops her? CPU zu langsam?

Min FPS sind 5, Max 85 und 55 FPS unter DX11
Min FPS sind 10, max 90, Average 59 FPS unter DX12

Achill
2016-08-20, 22:34:08
Bayreuther Hell und als Katalysator KAVALAN Solist. Der haut gut rein :P

BTW: Wo kommen bei Dir unter DX11 Framedrops her? CPU zu langsam?

Min FPS sind 5, Max 85 und 55 FPS unter DX11
Min FPS sind 10, max 90, Average 59 FPS unter DX12

Meinen System geht es eigentlich gut (5820k@4GHz, Prime-Stabil, Temp.Max ~70°C), keine auffälligen Einträge im Ergebnisprotokoll unter Computerverwaltung und auch die Latency-Tools sehen gut aus. Gibt es die DX11 Spikes bei dir nicht?

(del)
2016-08-20, 22:38:41
Meinen System geht es eigentlich gut (5820k@4GHz, Prime-Stabil, Temp.Max ~70°C), keine auffälligen Einträge im Ergebnisprotokoll unter Computerverwaltung und auch die Latency-Tools sehen gut aus. Gibt es die DX11 Spikes bei dir nicht?Meine Grafiken kennst du ja. KEINE Drops, nicht mal mit dem ollen FX 8250. Komisch.