PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse AMD Radeon RX 6800 & 6800 XT


Leonidas
2020-11-26, 11:29:38
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6800-6800-xt

maximus_hertus
2020-11-26, 12:08:27
Danke für die Analyse. Danke der ganzen Tabellen und Zusammenfassungen kann man schön alles wichtige (für einen selbst) erfassen um dann 2021 (oder wann auch immer Grafikkarten wieder normal lieerbar sind) eine schöne Karte zu kaufen :)

#44
2020-11-26, 12:25:15
Erstmal Danke für die Analyse!

Und jetzt lesen...

Gast
2020-11-26, 13:02:41
AMD ist wieder konkurrenzfähig in dem Bereich.
Betrachtet man nur Leistung und Listenpreise im Verlgeich, ist aber kein großer Wurf gelungen.
Die 6800 steht sogar schlechter da als die drei anderen im Vergleich. Selbst 549 wären nicht ausreichend, um sich vor 3070 zu setzen.
Während man 'früher' für Leistungszuwachs (teilweise deutlich) überproportional drauf zahlte, liegen keine 5% an P/L dazwischen (die 6800 ist klar zu teuer).
Mal schauen, was die 60er bringen. Und wo sich die Straßenpreise einpendeln.
AMD muss sich ähnlich wie Nvidida Schläge wegen Schaumschlägerei gefallen lassen, denn die XT langt eben nicht.
Was bleibt, ist der Vorsprung bei der Speicherausstattung.

Iscaran
2020-11-26, 13:57:59
Danke - gute Zusammenfassung!

Vielleicht müsste man langsam überlegen ob man einen neuen "RT-Index" auflegt - zusätzlich zu den klassischen. Es wird vermutlich auf längere Sicht eh beides nebeneinander geben und dann einfach die eine Technik mit der anderen zu verwursten um auf einen Index zu kommen halte ich für stark vereinfachend.

Dann hätte ich lieber zwei Maßzahlen die man nebeneinander setzen kann.
4k-Index / RT-Index
306% // 280%
oder so.

Flusher
2020-11-26, 14:02:59
Wie immer eine Top Analyse. :up:

Preis/Leistung der 6800 XT scheint tatsächlich identisch mit der 3080 zu sein - Sofern man den Listenpreis zahlt und nur Rasterizer-Games spielt.

Schön das AMD nun endlich wieder oben mitspielt.

Gab es vielleicht irgendwo spezifische Tests zum Infinity Cache um etwaige Limitationen zu untersuchen?

Fallback
2020-11-26, 14:27:02
Kleine Anmerkung zu der Preistabelle:

Bei den AMD Karten wird geschrieben "nicht verfügbar", bei den NV Karten z.B. ein Preis für die FE genannt, mit Link zum NV Shop.
Nun könnte man denken, dass man die NV FE da kaufen könnte .. kann man aber nicht. ;)

Also entweder auch bei NV "nicht verfügbar" schreiben oder auch den AMD Shop benennen. :)

@Flusher: CB hat was untersucht, aber auch mit höher Speicherbandbreite limitiert da wohl nichts:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update

WedgeAntilles
2020-11-26, 14:45:11
Kleine Anmerkung zu der Preistabelle:

Bei den AMD Karten wird geschrieben "nicht verfügbar", bei den NV Karten z.B. ein Preis für die FE genannt, mit Link zum NV Shop.
Nun könnte man denken, dass man die NV FE da kaufen könnte .. kann man aber nicht. ;)

Also entweder auch bei NV "nicht verfügbar" schreiben oder auch den AMD Shop benennen. :)

Notebooksbilliger hat immer wieder FEs von Nvidia verfügbar.
Die 3090 bekommt man wohl sogar relativ gut (ist jedenfalls öfter als "verfügbar" gelistet)
Die 3070 habe ich auch schon öfter als lieferbar gesehen.
Sicher ist man meilenweit von einem "ich gehe auf die Webseite und kaufe ne Karte" entfernt, aber eine Aussage von "gar nicht verfügbar" ist inzwischen auch falsch.
Man muss häufig schauen ja, aber dann bekommt man eine.
(Einschränkung: Falls der Statuts "verfügbar" stimmt. Kann natürlich sein da steht verfügbar, man kann aber trotzdem keine kaufen weil der Status schlicht falsch ist.)

Gast Ritis
2020-11-26, 14:59:54
@Flusher: CB hat was untersucht, aber auch mit höher Speicherbandbreite limitiert da wohl nichts:
https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update

Dieser Teil des Berichtes beweist lediglich mal wieder dass die CB-Leute Andermahr "et.al". überhaupt kein technisches Verständis für die Funktionalität von Software und Hardware im Zusammenspiel haben. So viel Unsinn wie die messen ist einfach nur peinlich.
Keine Analyse der Grenze der Hit-Rates, keine Aussage über Hit-Rate pro Zugriff oder Speicherobjekt, nur 7% Taktvarianz beim VRAM, Ignorieren der Latenzen, keine Klärung ob ganze Targets ausserhalb der Caches liegen, keine Rücksprache mit den Entwicklern.
So unwissenschaftlich wie die arbeiten sollten sie sich den Lateiner wirklich sparen.
Kann ich auch: "Draussen seh ich Nebel. In ganz Europa scheint heute keine Sonne, Astronauten können die Sonnenbrille zuhause lassen. Heut Abend wirds dunkel." ;D

WedgeAntilles
2020-11-26, 15:26:10
HardwareUnboxed benutzt übrigens die Tabellen von dir Leo.

https://www.youtube.com/watch?v=kKSBeuVlp0Q
8:48

Ist zwar aus dem Artikel vom 18.11., aber das ist ja irrelevant.

Aroas
2020-11-26, 15:28:43
Die RT Leistung interessiert mich noch immer so gut wie kaum, weil es einfach kaum Spiele mit RT Support gibt. Und von den wenigen, die es gibt, interessieren mich 80% einfach mal nicht die Bohne.
Ich bin mal gespannt, wie die RT Integration für AMD Karten zukünftig aussehen wird. Sofern die Spieleentwickler da ordentliche Arbeit machen, wird man auch mit den AMD Karten sicherlich seinen Spaß an dem Feature haben.

Leonidas
2020-11-26, 15:50:48
Also entweder auch bei NV "nicht verfügbar" schreiben oder auch den AMD Shop benennen. :)


Naja, ganz nicht verfügbar isses nicht. Jedenfalls nicht so grauenhaft wie bei AMD.

AMD-Shop: Kann man da ernsthaft was ordern? Das leitet bei mir nur auf Seiten mit Listen zu Händlern um.




HardwareUnboxed benutzt übrigens die Tabellen von dir Leo.
https://www.youtube.com/watch?v=kKSBeuVlp0Q
8:48
Ist zwar aus dem Artikel vom 18.11., aber das ist ja irrelevant.


:up:

GanjaBob
2020-11-26, 16:09:26
Nice. Vorallem die letzte Tabelle "Performance-Faktor der Radeon RX 6800 XT gegenüber älteren Grafikkarten unter UltraHD/4K" --> Top

Lehdro
2020-11-26, 16:22:40
[...] erst unter der UltraHD/4K-Auflösung ziehen dann die GA102-basierten Grafikkarten (auf Basis ihrer viel höheren Speicherbandbreite) deutlicher davon.
Wissen wir dass denn sicher? Könnte das nicht eher daran liegen dass die double FP32 Performance erst bei höheren Pixelmengen so richtig zum tragen kommt? Die RDNA2 Karten scheinen durch den CB Test (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update) eher nicht bandbreitenlimitiert zu sein - wären sie das so kräftig wie hier suggeriert, würde sich da deutlich mehr tun.

Gast
2020-11-26, 16:25:07
"Eine bedeutsame andere Änderung liegt in der Hinzunahme einer einzelnen RayTracing-Einheit namens "Ray Accelerator" pro Shader-Cluster. Jene ist allerdings weit weniger mächtig als nVidias RayTracing-Ansatz, insofern darf hierbei nicht die gleiche RayTracing-Performance wie bei nVidia erwartet werden."
Ich bin mir nicht sicher, ob man dieses Fazit aktuell schon ziehen kann. Bisher wurde RT immer auf NVidias Umsetzung optimiert. Anfangs (als Touring noch neu war) war die RT Performance da auch teilweise grottig. Jetzt ist AMDs Umsetzung neu, und die Spiele müssen vielleicht auch erst auf diese Umsetzung optimiert werden. Wenn das passiert ist, dann kann es durchaus sein, dass der Unterschied vielleicht gar nicht so groß ist, wie im Vorfeld immer vermutet wurde (siehe Watch Dogs Legion).

Mr.Smith
2020-11-26, 16:53:14
6800 muss 100$ runter
6800xt muss 50$ runter

aber schnellstens, so passt das doch ned.

Fallback
2020-11-26, 17:01:48
Naja, ganz nicht verfügbar isses nicht. Jedenfalls nicht so grauenhaft wie bei AMD.

AMD-Shop: Kann man da ernsthaft was ordern? Das leitet bei mir nur auf Seiten mit Listen zu Händlern um.


Na ja, im Moment kann man da soviel ordern wie auf der NV Shop Seite. :rolleyes:
6800:
https://www.amd.com/de/direct-buy/5458374000/de
6800 XT:
https://www.amd.com/de/direct-buy/5458374100/de
6900 XT:
https://www.amd.com/de/direct-buy/5458374200/de

Gast
2020-11-26, 18:30:48
6800 muss 100$ runter
6800xt muss 50$ runter

aber schnellstens, so passt das doch ned.
Also ich hätte eher gesagt, dass die Karten erst mal verfügbar sein sollten, dann kann man über den Preis reden.

Blutmaul
2020-11-26, 18:33:06
Schön ausführlicher Artikel, dem es nur am Fehlen von SAM mangelt, was für die meisten Nutzer verschmerzbar sein dürfte.
AMD muß unbedingt ein Gegenstück zu DLSS entwickeln, das ein Vielfaches des Leistungssprungs verspricht, das SAM höchstens gelegentlich in Ansätzen bietet!

Komplett konträr ist nach wie vor meine Einschätzung der Bewertung der beiden 6800er GPUs, wo nach meinen Maßstäben die 6800XT alles richtig machte, wenn sie zum MSRP verfügbar wäre, und die 6800 komplett alles falsch, wobei eine Verfügbarkeit zum MSRP im gegenwärtigen Überpreis-Szenario sogar ein Kaufargument wäre.

Verrückte Welt 2020!

Happo
2020-11-26, 18:55:34
Vielen Dank für die sehr schöne Analyse & Zusammenfassung!

AMD hat es mit RDNA2 geschafft einen Architektur-bedingten Effizienzsprung hinzulegen der sich mit dem Sprung von Maxwell messen kann (laut 3DC praktisch identisch)! Absolut beeindruckend und wohl nur von den wenigsten so erwartet worden.

Knuddelbearli
2020-11-26, 19:40:18
Wissen wir dass denn sicher? Könnte das nicht eher daran liegen dass die double FP32 Performance erst bei höheren Pixelmengen so richtig zum tragen kommt? Die RDNA2 Karten scheinen durch den CB Test (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update) eher nicht bandbreitenlimitiert zu sein - wären sie das so kräftig wie hier suggeriert, würde sich da deutlich mehr tun.

find das Argument auch unsinnig, früher bei GCN war ja AM;D unter 4k besser als unter 2k im Vergleich zu NV; eben da höhere Auflösung die reine Rechenpower besser ausgelastet hat.

LeiwandEr
2020-11-26, 20:34:24
Naja, ganz nicht verfügbar isses nicht. Jedenfalls nicht so grauenhaft wie bei AMD.

AMD-Shop: Kann man da ernsthaft was ordern? Das leitet bei mir nur auf Seiten mit Listen zu Händlern um.


Yepp, ich konnte dort sowohl 5950X als auch 6800XT ordern. Letztgenannte Hardware ist heute eingetroffen - siehe https://twitter.com/AloisLeiwand/status/1331962932821970945?s=20

Gast
2020-11-26, 20:47:07
Man könnte die RT-Performance z.B. anhand von MRays/s angeben. Der folgende Benchmark sollte auch auf 6800 und 6800XT laufen. Leider hat das bisher keiner der Reviewer getestet.

https://github.com/microsoft/DirectX-Graphics-Samples/tree/master/Samples/Desktop/D3D12Raytracing
https://wccftech.com/first-nvidia-rtx-2080-ti-2080-dxr-raytracing-benchmark/

Ampere müsste etwa doppelt soviele MRays/s berechnen können wie Turing.

Platos
2020-11-26, 21:15:02
Super Test! Die Tabellen sind super!

Nice. Vorallem die letzte Tabelle "Performance-Faktor der Radeon RX 6800 XT gegenüber älteren Grafikkarten unter UltraHD/4K" --> Top

Kann ich nur beipflichten. Diese Tabelle bitte gerne ab jetzt immer, Leonidas. Die sind super!

Eine Idee: In diesen Tabellen jeweils auch die Vorgängermodelle (des jeweiligen Hersteller) mit eintragen, damit man sieht, wie der Fortschritt aussieht.

iamthebear
2020-11-26, 21:24:00
Wissen wir dass denn sicher? Könnte das nicht eher daran liegen dass die double FP32 Performance erst bei höheren Pixelmengen so richtig zum tragen kommt? Die RDNA2 Karten scheinen durch den CB Test (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update) eher nicht bandbreitenlimitiert zu sein - wären sie das so kräftig wie hier suggeriert, würde sich da deutlich mehr tun.

Also ich denke nicht, dass nur wegen einer Änderung der Auflösung sich das Verhältnis von INT zu FP Operationen spürbar ändert. Der Effekt ist weder durch Benchmarks belegbar noch war der gegenteilige Effekt von Pascal auf Turing feststellbar (wo Nvidia ja das Gegenteil gemacht hat als nun von Turing auf Ampere).

Wenn man die 2080 Ti mit der 3070 vergleicht, so sieht man, dass die 3070 im computerbase Performanceindex bei höheren Auflösungen nicht schneller ist. Es ist sogar das Gegenteil der Falls, dass diese mit steigenden Auflösungen leicht langsamer wird, was aber wohl mehr den 8GB Speicher geschuldet sind, die bei Ghost Recon Breakpoint schon etwas bremsen (zumindest in Ultra Settings).

Man darf jetzt nicht den Fehler macht die 2080 Ti mit der 3080 zu vergleichen. Es ist vollkommen klar, dass hier der Vorsprung mit sinkenden Auflösungen immer kleiner wird. Das hat den einfachen Grund, dass die 3080 bei 1080p und 1440p von der CPU gebremst wird.

"Eine bedeutsame andere Änderung liegt in der Hinzunahme einer einzelnen RayTracing-Einheit namens "Ray Accelerator" pro Shader-Cluster. Jene ist allerdings weit weniger mächtig als nVidias RayTracing-Ansatz, insofern darf hierbei nicht die gleiche RayTracing-Performance wie bei nVidia erwartet werden."
Ich bin mir nicht sicher, ob man dieses Fazit aktuell schon ziehen kann. Bisher wurde RT immer auf NVidias Umsetzung optimiert. Anfangs (als Touring noch neu war) war die RT Performance da auch teilweise grottig. Jetzt ist AMDs Umsetzung neu, und die Spiele müssen vielleicht auch erst auf diese Umsetzung optimiert werden. Wenn das passiert ist, dann kann es durchaus sein, dass der Unterschied vielleicht gar nicht so groß ist, wie im Vorfeld immer vermutet wurde (siehe Watch Dogs Legion).

Ob die RT Leistung nun bei Nvidia 10-20% höher ist oder nicht ist doch unerheblich. RT macht ohne DLSS einfach keinen Sinn. Selbst im Quality Modus verdoppelt sich schon die Performance.
RT wird bei AMD erst sinnvoll nutzbar sein, wenn diese eine brauchbare DLSS Alternative bieten und ich bin hier mangels Tensor Cores echt skeptisch, dass das was wird. Das hat man ja bei DLSS 1.0 vs. 2.0 gesehen, was durch die Nutzung der Tensor Cores möglich wird.

Schön ausführlicher Artikel, dem es nur am Fehlen von SAM mangelt, was für die meisten Nutzer verschmerzbar sein dürfte.
AMD muß unbedingt ein Gegenstück zu DLSS entwickeln, das ein Vielfaches des Leistungssprungs verspricht, das SAM höchstens gelegentlich in Ansätzen bietet!

Komplett konträr ist nach wie vor meine Einschätzung der Bewertung der beiden 6800er GPUs, wo nach meinen Maßstäben die 6800XT alles richtig machte, wenn sie zum MSRP verfügbar wäre, und die 6800 komplett alles falsch, wobei eine Verfügbarkeit zum MSRP im gegenwärtigen Überpreis-Szenario sogar ein Kaufargument wäre.

Verrückte Welt 2020!

Bei DLSS stimme ich zu. Hier muss AMD schleunigst aufholen, wobei hier die Unterstützung durch Spiele ein wichtiger Punkt ist. Wenn Spiele keine Unterstützung für AMDs neue Technologie bieten, dann wird es nicht nutzbar sein.

Was die Preise angeht: Es ist ähnlich wie bei Nvidia. Die stärkeren Karten sind der bessere Deal, jedoch sind diese auch schwerer lieferbar, während der UVP der kleineren Karten eher an der Realität liegen wird.

LeiwandEr
2020-11-26, 21:26:25
Super Test! Die Tabellen sind super!



Kann ich nur beipflichten. Diese Tabelle bitte gerne ab jetzt immer, Leonidas. Die sind super!

Eine Idee: In diesen Tabellen jeweils auch die Vorgängermodelle (des jeweiligen Hersteller) mit eintragen, damit man sieht, wie der Fortschritt aussieht.

Dafür ein :up: !

FarCry
2020-11-26, 22:12:17
AMD ist wieder konkurrenzfähig in dem Bereich.
Betrachtet man nur Leistung und Listenpreise im Verlgeich, ist aber kein großer Wurf gelungen. .... Was bleibt, ist der Vorsprung bei der Speicherausstattung.

Das reicht aber völlig als Kaufargument.
Oder verzichtet jemand ernsthaft auf 6/8 GB mehr VRAM, damit er ~5% mehr fps hat...?

Leonidas
2020-11-27, 03:46:31
Wissen wir dass denn sicher? Könnte das nicht eher daran liegen dass die double FP32 Performance erst bei höheren Pixelmengen so richtig zum tragen kommt? Die RDNA2 Karten scheinen durch den CB Test (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update) eher nicht bandbreitenlimitiert zu sein - wären sie das so kräftig wie hier suggeriert, würde sich da deutlich mehr tun.


Beides denkbar. Der Text ist in dieser Frage wohl zu spekulativ.






Na ja, im Moment kann man da soviel ordern wie auf der NV Shop Seite. :rolleyes:
6800:
https://www.amd.com/de/direct-buy/5458374000/de
6800 XT:
https://www.amd.com/de/direct-buy/5458374100/de
6900 XT:
https://www.amd.com/de/direct-buy/5458374200/de


Ich bau es noch mit ein.

Update: Erledigt. Die vorletzte Tabelle mit der Zusammenfassung von Performance & Preis enthält nun eine extra Spalte mit der Verfügbarkeit - eine Info, die nunmehr von der reinen Preisnotierung getrennt ist.

Fallback
2020-11-27, 09:00:53
Update: Erledigt.

Super, danke dir. :up:

Jetzt kann man bei beiden auf die tolle UVP klicken und in die Röhre schauen. :D

Iscaran
2020-11-27, 09:14:12
Ob die RT Leistung nun bei Nvidia 10-20% höher ist oder nicht ist doch unerheblich. RT macht ohne DLSS einfach keinen Sinn. Selbst im Quality Modus verdoppelt sich schon die Performance.

Also mir persönlich würden GPUs reichen die mit RT auf ~60 FPS in FHD kommen.

Das können praktisch alle der jetzigen Generation in fast jedem Game mit RT in höchsten Settings. Wozu dann noch DLSS ? :-) (Habe nur FHD Display und mit Freesync sind +-60 FPS völlig OK).

Ansprüche sind halt auch verschieden.

Klar ist aber - dass die RT-Leistung bei BEIDEN sich in den nächsten Jahren noch mind. verzehnfachen muss damit wir volles RT in Games nutzen können.

Ben Carter
2020-11-27, 10:00:55
Sehr gute Analyse, wie immer! :up:

Was die 4k Performance betrifft bzw. die Vermutung, ob der Infinity Cache limitiert: man scheint da irgendwie zu vergessen, dass es noch mehr Karten, als nur die 3000er Serie von nVidia gibt. Setzt doch einfach mal die 2080 Ti auf 100% und schaut euch dann das Verhältnis zwischen Touring, Ampere und RDNA2 an. Da sieht man recht schnell, dass eigentlich Ampere der Ausreißer ist. Und das lässt dich eben mit den FP32 Einheiten ganz gut erklären und natürlich auch etwas damit, dass unter geringeren Auflösungen die CPU Limits stärker wirken.

Hier mal die relative Performance zur 6800 XT laut dem Index aus der Analyse. Die 5700XT hab ich über den FullHD und 4k Index hinzugefügt, WQHD ist bei dieser interpoliert.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=72423&stc=1&d=1606467609

Man sieht schön, dass eigentlich nur die RTX 3080 und RTX 3090 besser skalieren.

lg Ben

Gast
2020-11-27, 15:47:18
Klar ist aber - dass die RT-Leistung bei BEIDEN sich in den nächsten Jahren noch mind. verzehnfachen muss damit wir volles RT in Games nutzen können.

Der BRIGADE-Engine (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12507119&postcount=1461) reicht offenbar schon Ampere (ca. 0,8GRays/s) dafür.

Gast Ritis
2020-11-27, 17:42:21
Ob die RT Leistung nun bei Nvidia 10-20% höher ist oder nicht ist doch unerheblich. RT macht ohne DLSS einfach keinen Sinn. Selbst im Quality Modus verdoppelt sich schon die Performance.
RT wird bei AMD erst sinnvoll nutzbar sein, wenn diese eine brauchbare DLSS Alternative bieten und ich bin hier mangels Tensor Cores echt skeptisch, dass das was wird. Das hat man ja bei DLSS 1.0 vs. 2.0 gesehen, was durch die Nutzung der Tensor Cores möglich wird.


Da bin ich komplett anderer Meinung. Denn das Raytracing von WOT mit den Intel-Libs macht auch schon Sinn. Nur blöd dass man dazu überhaupt keine RT-Cores benötigt. Bei der Crytek Demo auch nicht und selbst bei der ist schon mit Faust auf Auge bei RT-Effekten übertrieben. Wenn schon nur Global Illumination sauber berechnet wird oder die Schattenwürfe wo es sonst problematisch wird und teilweise das per Game-Design kaschiert wird ist schon im vernünftigen Mass was gewonnen.

Das Hauptproblem von RT ist momentan, dass Nvidia das als Verkaufsförderung einsetzt und das so grottig implementiert wird, damit auch ja die Pascal GPUs nix nutzen. Egal obs shice aussieht und Regenpfützen und Glasscheiben im Kriegsgebit mit Chrome-Effekt belegt sind.... hauptsache es geht nur mit RT-Cores und DLSS, denn das sind die Verkaufsargumente. Die 1080Ti und Titan gab bei ersten RT-Tests noch OK Ergebnisse bis Nvidia das verhindert hatte. Aber das Web ist leider viel zu vergesslich...

Bin gespannt ob mit den Konsolengames in der Breite dann auch mal ganz dezente RT Effekte eingesetzt werden die dann sogar auf einer Intel-GPU nach der Portierung läuft. Bei AMD sollte das auch für ältere Gen klappen wenn die nicht per Brechstange mit RT die neuen GPUs verkaufen wollen und Support in älten GPUs verhindern.

Die rieseigen BVH Trees, die Nvidia und AMD in den neuen GPUs beschleunigen brauchts nur wenn die ganze Szene gleichmässig mit RT-Effekten aufgepimpt wird.
Wenn der Schatten für fixe Objekte pre-baked ist und nur dynamische Schatten per RT berechnet werden gehts z.B. in aktuellen Shootern auch ohne.... wenn man WOT da als Beispiel vergleichen will.

Zugegeben, beim Zocken will man sich einer Illusion hingeben. Aber ab und zu beim Geld ausgeben sollte man auch mal rational sein...

Gast
2020-11-28, 15:16:32
Wissen wir dass denn sicher?

Nein. Was wir von AMD selbst wissen ist, dass die Hitrate im Infinity Cache bei höheren Auflösungen sehr deutlich sinkt.

Damit wissen wir umgekehrt auch sicher, dass in 4k massiv mehr externe Bandbreite benötigt als beispielsweise in FullHD.

Nachdem die Karten mit 4k nicht komplett einbrechen wissen wir auch, dass die verfügbare Bandbreite der 6xxx Karten für FullHD massiv überdimensioniert ist.

Generell hängt es auch immer stark von der Implementierung der Engine ab wieviel Bandbreite benötigt wird. Engines die sehr viele Berechnungen pro Pixel vornehmen benötigen (pro Pixel) normalerweise weniger Bandbreite als Engines die nur sehr wenige Berechnungen pro Pixel vornehmen.

Was wir durch all diese Informationen auch wissen ist, dass im Gegensatz zu einer "normalen" Grafikkarte bei RDNA2 die benötigte Bandbreite pro Pixel mit der Auflösung stark ansteigt. Bei einer konventionellen Grafikkarte bleibt diese annähernd gleich bzw. sinkt sogar leicht.

Was wir aus dem allen nicht wissen, dazu bräuchte es von AMD ein tool alá Nsight von Nvidia, wann eben der Punkt erreicht ist, dass die Bandbreite zu limitieren beginnt.

Wenn man sich die Fülle der Launchreviews ansieht findet man viele Spiele, die bis 4k relativ gleichmäßig skalieren, umgekehrt aber auch einige bei denen die Skalierung mit 4k sichtbar abnimmt.

Es ist zumindest anzunehmen, dass bei letzteren die Bandbreite mit eine Rolle spielt, ohne Nsight für AMD lässt sich das aber nicht sicher nachvollziehen.

Was die Benchmarks bisher gezeigt haben dürfte auf jeden Fall in der Regel für 4k genügend Bandbreite vorhanden zu sein, ohne die 6xxx Karten massiv zu limitieren, auch wenn es eventuell in dem einen oder anderen Fall kleinere Verluste gibt.


Könnte das nicht eher daran liegen dass die double FP32 Performance erst bei höheren Pixelmengen so richtig zum tragen kommt?


Es ist nicht anzunehmen, dass sich durch höhere Auflösungen das Verhältnis von INT zu FP der zu berechnenden Befehle ändert, und damit sollte die doppelte FP32 Performance in niedrigen wie höheren Auflösungen gleich gut zum Tragen kommen, weil sie eben nicht von der Auflösung abhängt sondern wieviele INT Befehle im Mix vorhanden sind.

Denkbar wäre, dass Ampere in niedrigen Auflösungen durch das Rasterizing limitiert wird, da es hier ja nur sehr maßvolle Steigerungen gegenüber Turing gab. Wobei der generelle konsens ja ist, dass die Grafikkarten in typischen Anwendungsfällen weit mehr als genug Leistung zum Rasterizing haben, so dass dieses eigentlich nie limitiert.


Die RDNA2 Karten scheinen durch den CB Test (https://www.computerbase.de/2020-11/amd-radeon-rx-6800-xt-test/5/#abschnitt_infinity_cache_und_4k_limitiert_er_in_hohen_aufloesungen_update) eher nicht bandbreitenlimitiert zu sein - wären sie das so kräftig wie hier suggeriert, würde sich da deutlich mehr tun.

So ein Test ist sehr wenig aussagekräftig, wie gesagt würden wir so was wie Nsight für AMD benötigen.
Das einzige was dieser zeigt ist, dass in den getesteten Spielen die Grafikkarte in 4k definitiv nicht an Bandbreite verhungert, nicht aber ob es potentielle Stalls gibt weil der Core auf den Speicher warten muss.

Gast
2020-11-28, 15:17:33
Man könnte die RT-Performance z.B. anhand von MRays/s angeben. Der folgende Benchmark sollte auch auf 6800 und 6800XT laufen. Leider hat das bisher keiner der Reviewer getestet.

https://github.com/microsoft/DirectX-Graphics-Samples/tree/master/Samples/Desktop/D3D12Raytracing
https://wccftech.com/first-nvidia-rtx-2080-ti-2080-dxr-raytracing-benchmark/

Ampere müsste etwa doppelt soviele MRays/s berechnen können wie Turing.

Das ist nur leider gleich aussagekräftig wie der Fillrate Test vom 3dMark.

Gast
2020-11-28, 15:24:18
Setzt doch einfach mal die 2080 Ti auf 100% und schaut euch dann das Verhältnis zwischen Touring, Ampere und RDNA2 an. Da sieht man recht schnell, dass eigentlich Ampere der Ausreißer ist.


Du machst den Fehler, von den schnelleren Nvidia Karten auf die langsameren umzurechnen.

Dass schnellere Karten mit höheren Auflösungen ihren Abstand zu den langsameren Verfolgern vergrößern ist völlig normal und war schon immer so.

Wenn du die 2080Ti als basis nimmst musst du aus der Ampere Reihe auch eine annähernd gleich schnelle karte nehmen und das wäre die 3070.

Und da siehst du, dass beide Karten praktisch gleich skalieren (sogar mit minimalen Nachteilen für Ampere).

Was auffällig ist, die 6800XT skaliert gegenüber der 2080Ti eben in 4k nicht wirklich besser, obwohl sie das als deutlich schnellere Karte eigentlich sollte.

Innerhalb der RDNA2 Familie passt es wieder, die 6800XT skaliert besser als die 6800, wie man es von einer schnelleren Karte erwarten würde, aber auch die 3800 die bis 1440p noch praktisch gleich schnell ist, zieht in 4k davon.

Leonidas
2020-11-28, 16:01:55
Gegenüber den Riesen-Unterschieden, die es früher mit Fury etc. gab, ist das aber alles bei weitem kleiner. Nichtsdestotrotz interessant. Ich lese hier gern weitere Zahlen und Anregungen!

Ben Carter
2020-11-28, 16:27:27
Es zeigt aber, dass RDNA2 keine wirkliche "4k-Schwäche" hat. Und nur Performance allgemein ist nicht alles, was wichtig ist, für die Skalierung. Sonst müsste der Unterschied zwischen 1080 Ti und 2080 Ti massiver sein. Es kommt eben auf die gesamte Architektur an und man sieht eben, dass RDNA2 nicht plötzlich ungewöhnlich abfällt.

LeiwandEr
2020-11-28, 16:52:36
Es zeigt aber, dass RDNA2 keine wirkliche "4k-Schwäche" hat. Und nur Performance allgemein ist nicht alles, was wichtig ist, für die Skalierung. Sonst müsste der Unterschied zwischen 1080 Ti und 2080 Ti massiver sein. Es kommt eben auf die gesamte Architektur an und man sieht eben, dass RDNA2 nicht plötzlich ungewöhnlich abfällt.


Sorry, aber wieso kommen alle auf die 4K-Schwäche?
Habt ihr mal Tests, welche dies eindeutig belegen?

Gast
2020-11-28, 17:09:22
Das ist nur leider gleich aussagekräftig wie der Fillrate Test vom 3dMark.

Die Fillrate ist längst kein Bottleneck mehr und daher weniger aussagekräftig. Aber wenn du einen besseren Vorschlag hast, verrate ihn uns bitte. :)

Gast
2020-11-28, 20:03:32
Habt ihr mal Tests, welche dies eindeutig belegen?

So ziemlich alle?
Wenn man bis WQHD praktisch gleich auf mit der 3080 ist (ausgenommen Raytracing) und unter 4k plötzlich doch einigermaßen deutlich hinten liegt kann man schon von einer (leichten) 4k Schwäche sprechen, bzw. generell eine Schwäche unter hohen Auflösungen. 5k oder mehr hat ja leider niemand getestet, aber zu vermuten ist, dass hier der Unterschied noch größer wird.

Sweepi
2020-11-29, 01:17:39
Es macht jedesmal Spaß, deine Analysen zu lesen. Besten Dank!

Ben Carter
2020-11-29, 02:25:14
Sorry, aber wieso kommen alle auf die 4K-Schwäche?
Habt ihr mal Tests, welche dies eindeutig belegen?
Liegt vermutlich einfach daran, da die 3080 und 3090 besser skaliert (oder schlechter nach unten, je nach Sichtweise) und AMD mit dem Infinity Cache und schmalerem Interface eben was anderes macht. Ergo muss natürlich RDNA2 eine 4k Schwäche haben. Ist doch vollkommen egal, wie es sich zu anderen Karten verhält. ;D

Leonidas
2020-11-29, 04:40:35
Zur "4K-Schwäche" mal eine Frage: Die 3070 hat ja auch Double-FP32. Der einzige gravierende Unterschied der 3080er/3090er ist die anziehende Bandbreite. Wäre da nicht doch die Bandbreite als Ursache mit im Spiel?

Ben Carter
2020-11-29, 14:36:43
Durchaus möglich, dass dieser die Bandbreite ausgeht, während bei der 2080 Ti es eher an Rechenleistung fehlt. Interessant wäre es zu wissen, wie stark die Anforderung an das Speicherinterface mit steigender Auflösung steigt.

watugonad00?
2020-11-29, 15:08:24
Liegt vermutlich einfach daran, da die 3080 und 3090 besser skaliert (oder schlechter nach unten, je nach Sichtweise) und AMD mit dem Infinity Cache und schmalerem Interface eben was anderes macht. Ergo muss natürlich RDNA2 eine 4k Schwäche haben. Ist doch vollkommen egal, wie es sich zu anderen Karten verhält. ;D

in 4K ist die 6800XT @317w um 1% schneller als ne 3080 FE @330w.

richtig ist auch, dass in 1440p die 6800xt um 5% schneller ist. mit solch einer "Schwäche" lässt es sich ganz gut leben.

https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/3/

Zergra
2020-11-29, 15:35:26
in 4K ist die 6800XT @317w um 1% schneller als ne 3080 FE @330w.

richtig ist auch, dass in 1440p die 6800xt um 5% schneller ist. mit solch einer "Schwäche" lässt es sich ganz gut leben.

https://www.igorslab.de/sapphire-radeon-rx-6800-xt-nitro-im-test-es-geht-auch-leise-schnell-und-ganz-schoen-durstig/3/
"Die Boardpartner-Karte wurde im Übrigen ausschließlich mit aktiviertem SAM getestet"

watugonad00?
2020-11-29, 16:03:36
stimmt :redface:

SAM rules!!!11 :freak:

3-4% muss man dann wohl abziehen..

Gast
2020-11-30, 00:02:22
Die Fillrate ist längst kein Bottleneck mehr und daher weniger aussagekräftig. Aber wenn du einen besseren Vorschlag hast, verrate ihn uns bitte. :)

Reale Software testen, eventuell auch offline Renderer.

Bis wir reine Raytracing Spiele sehen abseits von Einzelfällen wie Minecraft oder Quake werden eher noch Jahrzehnte vergehen, bis dahin heißt es einen guten Mix aus Rasterizing und Raytracing zu bieten, vor allem dann wenn beides gemeinsam eingesetzt wird.

Der Beste Durchsatz an Rays nützt dir wenig, wenn beispielsweise fürs Raytracing die ganze restliche GPU blockiert wäre.

Auch sagen "Gigarays" sehr wenig aus.
Primary Rays sind sehr "günstig", Rays für spiegelnde Reflexionen im mittleren Bereich, und Rays für diffuse Reflexionen/GI sehr teuer.

In aktuellen Spielen verwendet man aber großteils gar keine Primary Rays, deren Aufgabe wird vom Rasterizing übernommen.

Der theoretische Durchsatz an Rays sagt also praktisch gar nichts über die damit erreichbare Performance aus.

Gast
2020-11-30, 00:13:10
Interessant wäre es zu wissen, wie stark die Anforderung an das Speicherinterface mit steigender Auflösung steigt.

Grundsätzlich gar nicht!

Wie oft wird denn das Märchen noch verbreitet, dass mit höheren Auflösungen die relativen Bandbreitenanforderungen steigen?

Das ist nicht der Fall, es ist das Gegenteil der Fall. Bandbreite wird für vieles benötigt, unter anderem Texturen, Geometrie, Rendertargets oder auch Shader.

Der einzige Bandbreitenbedarf der linear mit der Auflösung steigert ist jener für Rendertargets. Der Rest der benötigten Bandbreite vergrößert sich mit steigender Auflösung nur geringfügig oder gar nicht.

Die benötigte gesamte Bandbreite pro berechnetem Pixel SINKT damit mit steigender Auflösung.

Navi 2x ist hier durch den Infinity Cache, der in niedrigen Auflösungen eine viel höhere Hitrate aufweist ein Sonderfall, und Navi 2x damit die einzige aktuelle Architektur die einen mit der Auflösung überproportional steigenden Bedarf an Bandbreite hat.

Gast
2020-11-30, 16:15:09
Noch ein Hinweis zu RayTracing auf der 6800.
Golem hat nochmal 5 Spiele nachgetestet und die 6800 gegen die 3070 gestellt:
https://www.golem.de/news/cod-crysis-dirt-5-watch-dogs-wow-radeon-raytracing-kann-auch-schnell-2011-152389.html
Es scheint so, als wäre es tatsächlich stark von der Implementierung und Unterstützung seitens der Grafik-Hersteller abhängig.

Ferenzo
2020-12-01, 07:52:28
Besten Dank für die Analyse. Wird auf jeden Fall spannend, wie sich Nvidia und AMD im Midrange Segment schlagen, vielleicht kommen ja mal wieder gute kaufbare Produkte im Bereich 300 EUR.