PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Performance-Entwicklung von Ampere & RDNA2 seit Herbst 2020


Leonidas
2021-06-26, 14:07:18
Link zum Artikel:
https://www.3dcenter.org/artikel/performance-entwicklung-von-ampere-rdna2-seit-herbst-2020

aufkrawall
2021-06-26, 14:16:02
Ampere enttäuscht als vermeintliches Rohleistungsmonster etwas bzw. sieht man das zumindest in Spielen nicht (abseits von 4k, aber da ist RDNA2 auch nicht gerade schwach). Der RT & DLSS-Trumpf bleibt natürlich.

iamthebear
2021-06-26, 14:36:15
Ich denke unter 1080p liegt es zum Großteil daran, dass mittlerweile einfach mehr DirectX12 Spiele dabei sind, wo AMD seinen Hardware Scheduler nutzen kann und so weniger CPU Overhead hat als Nvidia (siehe Tests von HWU).
Bei DirectX 11 Spielen war es umgekehrt. Hier hat Nvidia die Draw Calls vom Main Render Thread in den Treiber verlagert. Das hat zwar grundsätzlich auch mehr Overhead, hat aber den Großen Vorteil, dass mehrere Kerne genutzt werden können, die sowieso nie genutzt wurden.

Leonidas
2021-06-26, 14:40:19
Das könnte man zwar auch mit unter "neue Spiele" verbuchen - aber ich denke, das notiere ich nochmal extra.

aufkrawall
2021-06-26, 14:45:27
Liegt nicht nur am CPU-Limit, nehmen wir mal diese aktuellen Beispiele mit UE4 und Unity:
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/dungeons-dragons-dark-alliance-test-gpu-cpu
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/dungeons-dragons-dark-alliance-test-gpu-cpu
Klar sind die niedrigen Auflösungen mit D3D11 insbesondere mit Radeon CPU-limitiert. In 4k drehen die dann aber richtig auf, von 4k Stärke von Ampere ist wenig zu sehen. Klar gibts immer Fälle in die eine oder andere Richtung, aber die 3080 darf auch noch 20W mehr ziehen.

Allerdings sollte man hinsichtlich der Spielbarkeit auch immer noch die Frametimes beachten. Days Gone ist eine einzige Frechheit mit AMD D3D11, das stottert widerwärtig. Das läuft hier auf der GTX 660 sauberer als auf der zuvor eingebauten RX 6800. Klar, mit kompletter Ekel-Grafik. Aber auch damit würds auf der Radeon eklig stottern...

Sweepi
2021-06-26, 15:02:22
Danke fuer den Artikel! Ich finde diese Ausarbeitungen immer klasse.

Wir brauchen ein peer-reviewed scientific jounrnal on hardware performance in gaming, damit das ganze hier mehr Würdigung erfährt ^.^

Gast Ritis
2021-06-26, 17:12:37
Die Balkencharts zur Entwicklung sind super. Allerdings ist Full HD bei der GPU Klasse nicht erwähnenswert.
Dass AMD in 1440p an der 3080 vorbei gekommen ist hatte ich erwartet, aber nicht so schnell. In 4k braucht es noch a bisserl aber am Ende ist der Unterschied so gering dass man auf Preis, VRAM und spezielle Features für die favorisierten Games achten sollte.

Nvidia enttäuscht mich auf der ganzen Linie. Ich war eigentlich davon ausgegangen dass die für die 64er Wave Size erst noch Optimieren und wir dann Zuwächse wie damals bei Vega sehen könnten, die auch immer unter der mangelnden Auslastung der Shader TFLOP Leistung gelitten haben bis Game und Treiber angepasst wurden. Kommt da noch was oder ruht sich Nvidia auf dem RT Vorteil aus?

Gast
2021-06-26, 18:50:01
Fazit bleibt gleich. Ohne Raytracing sind alle schnell genug und mit Raytracing baut Nvidia einen massiven Vorsprung auf mit hohem Alterungsfaktor wegen zu wenig Speicher.

OpenVMSwartoll
2021-06-26, 18:51:23
[...]

Wir brauchen ein peer-reviewed scientific jounrnal on hardware performance in gaming, damit das ganze hier mehr Würdigung erfährt ^.^

Nein, wir brauchen keinen circle jerk in der IT.

MadManniMan
2021-06-26, 19:54:51
Mit fehlt bei den möglichen Gründen, dass Nvidia bereits zum Launch gut optimiert hat - das wäre die andere Interpretationsmöglichkeit für dieselbe Entwicklung.

Troyan
2021-06-26, 20:28:19
Man vergleicht keine modernen GPUs mit rückständigen Spielen. Metro EE läuft nur mit Raytracing und die 3080 gegenüber der 6800XT ist da im Worst-Case 60% schneller. Kann man nicht einfach ignorieren und irgendwelche Klimperspiele nehmen. Und wenn man schon 1080p und 1440p betrachtet, dann gehört Raytracing erst recht rein, weil hier in 1080p über 100 und in 1440p über 60FPS auf einer 3080 drin sind.

GerryB
2021-06-26, 22:17:49
Man vergleicht keine modernen GPUs mit ...irgendwelche Klimperspiele nehmen. ...

Die Radeoner erfreuen sich trotzdem mit dem neuen Treiber an Klimper-TS: mal kurz geschaut Luxx vs. PCGH
(man kommt inzwischen rel. einfach nah an die extreme CB-Liste ran)

Beim Luxx ist nur Platz 1 mit 50mV mehr gepimpt, aber ne normale XT.

Leonidas
2021-06-27, 04:09:16
Und wenn man schon 1080p und 1440p betrachtet, dann gehört Raytracing erst recht rein,

Dazu existieren einfach nicht genügend solide historische Daten. Was hatte man denn Ende 2020 für RayTracing-Tests? 2-4 Spiele, alles NV-optimiert, eindeutige Ergebnisse deswegen oftmals nur exemplarisch getestet.

Große Vergleiche mit früheren Daten bedingen einfach eine ausreichende Datenmenge, insbesondere in der Vergangenheit. Das war im Fall von RayTracing noch nicht gegeben.

Sinngemäß hast Du aber Recht: Was nützt der Radeon der Vorteil unter Rasterizer um 3 fps, wenn man unter RayTracing 20 fps zurückliegt?! Dies ist ein Nachteil, mit dem AMD-Käufer derzeit leben müssen. Ok, wenn man was zum Listenpreis kaufen könnte ;)

GerryB
2021-06-27, 07:15:22
Die Art und Weise wie das RT auf die Grakas zugeschnitten ist, spielt keine unerhebliche Rolle!
(den Rest kann man sich denken, ...wave 64 vs. wave 32, lineares RT etc.)

Es wird daher "neutrale" AMD-RT-Games geben und Andere nicht "neutral"optimierte.
In Godfall funzt FSR ausreichend gut auch mit RT.

Am WQHD-Moni das 5k-FSR Video anschauen.
Mit FHD und UHD bitte das 4k-FSR-Video anschauen. (für UHD fehlt leider 4k-FSR ultra)

https://www.youtube.com/watch?v=f9QbjRjK6u0&t=3s
https://www.youtube.com/watch?v=wkUE69W9tt4&t=16s

FarCry
2021-06-27, 08:06:12
Man vergleicht keine modernen GPUs mit rückständigen Spielen.

Äh, doch, tut man. Man möchte ja nicht nur die allerneuesten Titel spielen.


Metro EE läuft nur mit Raytracing und die 3080 gegenüber der 6800XT ist da im Worst-Case 60% schneller. Kann man nicht einfach ignorieren und irgendwelche Klimperspiele nehmen.

Stimmt, sollte man nicht ignorieren. Aber der 60%-Ausreisser geht einfach in der Masse der Spiele völlig unter. Die Welt spielt ja nicht nur Metro EE.

Gast
2021-06-27, 18:15:07
Mit fehlt bei den möglichen Gründen, dass Nvidia bereits zum Launch gut optimiert hat - das wäre die andere Interpretationsmöglichkeit für dieselbe Entwicklung.
Ist bei NVidia ja oft so. Beim Launch von neuen GPUs sind ihre Treiber meist schon sehr gut optimiert, während bei AMD immer ein gewisses Reifen beim Kunden nötig ist.
Ampere zeigt hier mal wieder das Auslastungs-Problem, wie man es früher von Vega kannte. Die riesige Anzahl an Shadern kann Ampere bei niedrigen Auflösungen nicht auslasten, weil dann andere Einheiten zum Bottleneck werden. Erst bei hohen Auflösungen kann man dann die Recheneinheiten wirklich nutzen und die Leistung zeigen, die man erwartet hat. Daran muss NVidia beim Nachfolger dringend arbeiten. Eigentlich bräuchte AMD die massive Rechenleistung viel eher, da man die Rechenleitung für RT und Co noch bräuchte. Bei NV bleibt die Rechenleistung bei niedrigen Auflösungen einfach ungenutzt.

Gast
2021-06-28, 09:37:05
Metro EE läuft nur mit Raytracing und die 3080 gegenüber der 6800XT ist da im Worst-Case 60% schneller.
Interessanterweise sind die AMD bei den P1 dann näher an NVidia dran, da sind es dann nur noch grob 40% Vorsprung. AMD scheint hier etwas gleichmäßiger unterwegs zu sein mit ihrem Ansatz. Weiß jemand, woher das kommt? Hätte ich jetzt so nicht erwartet.
Und fairerweise muss man noch sagen, im Schnitt (also nicht worst case) sind die AMD Lösungen bei den Avg. grob 20% hinter NVidia (bei den P1 wieder teils deutlich weniger). Ich bin daher gespannt, wie das in 1-2 Jahren aussieht, ob NV den Vorsprung halten kann, oder ausbauen, oder ob er kleiner wird.

Gast
2021-06-28, 12:48:06
Die riesige Anzahl an Shadern kann Ampere bei niedrigen Auflösungen nicht auslasten, weil dann andere Einheiten zum Bottleneck werden. Erst bei hohen Auflösungen kann man dann die Recheneinheiten wirklich nutzen und die Leistung zeigen, die man erwartet hat.

Das ist nicht wirklich ersichtlich, schnellere Grafikkarten skalieren besser je höher die Auflösung wird, das ist aber nichts neues sondern war schon immer der Fall.

Zwischen Ampere und Turing gibt es keine auffälligen Unterschiede.
Der Unterschied zwischen 3070 und 2080Ti ändert sich nicht großartig zwischen den Auflösungen.

3080-3090 können sich immer stärker absetzen je höher die Auflösung wird, das aber genauso von den langsameren Ampere-Karten wie auch den Vorgängern.

Es gibt hier keinen Hinweis dass Ampere aus Architekturgründen in niedrigen Auflösungen schlechter skaliert