PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskusssion zu: Launch-Analyse AMD Radeon RX 6900 XT


Leonidas
2020-12-15, 17:42:26
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-6900-xt

Platos
2020-12-15, 18:32:44
Danke für die Arbeit, wieder mal genial geworden!

Wie seit neuem üblich sehr schöne Tabellen auf Seite 3 und allgemein sehr ausführlich, top!

Am besten einfach Leonidas' Analysen abwarten und damit hat man in kurzer Zeit wirklich eine sehr gute Übersicht. Gut finde ich auch, dass du nun auch immer auf P/L, Energieeffizienz und Perfomance zum Vorgänger und ähnliches eingehst. Das ist ist aus meiner Sicht neben der eigentlichen Perfomance für Kunden das wichtigste. Gerade weil die GPUs immer teurer werden, sollte man als Journalist (für ein Fazit bzw. die Bewertung) gar nicht mehr auf die absolute Perfomance schauen, sondern nur noch die Verbesserung bei selbem Preispunkt eingehen.

Alles andere ist ja schliesslich an der Realität vorbei geredet. Und dass die Perfomancekrone etwas mehr kosten, wissen wir natürlich, aber exorbitante bzw. beliebige Preissteigerungen rechtfertigt das deswegen trotzdem nicht (wie manche das oft tun).

y33H@
2020-12-15, 18:42:57
Grafikkarten werden doch immer bei gleichem Preis verglichen ...

JVC
2020-12-15, 18:47:01
Jo, das passt mir aber nicht wirklich in die "Geldbörse"... Oder hällt mir einer eine für 999,99.- vor die Nase? ^^
Wird wohl wirklich die 6800 XT. (Oder wann kommt die 3080 Ti 20Gb ?)
Die 6800 XT ist nur 6% langsamer als ne 3080, verbraucht dabei 10% weniger und ist ~8% günstiger.
(mit OC sind sie ~gleichschnell nur braucht NV dann schnell mal 20% mehr)
Das wichtigste aber sind Mir die +60% Speicher :)

Ist ja noch Zeit bis Februar...

M.f.G. JVC

Platos
2020-12-15, 19:18:15
Grafikkarten werden doch immer bei gleichem Preis verglichen ...

Nein, nicht wirklich. Das hat spätestens seit Pascal aufgehört (weil ab da die Preise teurer wurden). Man vergleicht meistens Namensnachfolger. Also GTX 970 mit 1070. 1070 mit 2070 usw. Und das Hauptaugenmerk des Tests liegt meist nicht bei: "Wie viel kriege ich bei selbem Geld mehr". Es liegt eher bei: " Wie viel ist die absolute Leistung besser... und irgendwo wird mal noch erwähnt, dass die Karten teurer wurden".

Ich sehe das eher so, dass neue Karten in Tests oftmals den Namensnachfolger gegenübergestellt wird. Ändert sich zwar langsam auf manchen Webseiten, aber die Mehrzahl der Tests da draussen sind immer noch genau das.

Musterbeispiel: https://www.golem.de/news/geforce-rtx-2080-ti-im-test-nvidias-turing-grafikkarten-sind-konkurrenzlos-1809-136185-4.html

Schauen wir uns rein die 4K-Messwerte an, so überholt die Geforce RTX 2080 die Geforce GTX 1080 um durchschnittlich 45 Prozent und liegt damit im Mittel um 15 Prozent vor der Geforce GTX 1080 Ti. Die Geforce RTX 2080 Ti wiederum erreicht 43 Prozent höhere Bildraten als ihre Vorgängerin und ist damit doppelt so flott wie eine Geforce GTX 1080. Die Radeon RX Vega 64 - das aktuelle Topmodell von AMD - leistet weniger als die Hälfte.

*Hust* 2080 hatte etwa den Listenpreis der 1080TI und bei Golem vergleicht man gleich zuerst einmal 1080 mit 2080, obwohl die 2080 deutlich teurer ist. Am schluss wird noch "schnell" erwähnt, dass die Preise teurer wurden. Dennoch wird hier von (Zitat) as non-Ti-Modell schlägt die Geforce GTX 1080 durchschnittlich um 45 Prozent, der Ti-Ableger die Geforce GTX 1080 Ti mit ähnlichem Abstand ...geredet. Es wird also suggeriert, dass die 2080 die 1080 "schlägt", was aus P/L sicht nicht der Fall ist. Das Hauptaugenmerk der Tests liegt wie gesagt nicht auf "wie viele mehr kriege ich beim Kauf dieser Karte im Bezug auf den Vorgänger pro Dollar oder bei selbem Preis" sondern "wie viel mehr Leistung hat der Namensnachfolger".

Das Hauptaugenmerk liegt ganz klar auf 1080-2080 Nachfolger und nicht auf Preis/Leistung. Der verlinkte Test ist ein Musterbeispiel dafür, von was ich rede. Es wird zwar erwähnt, dass die Karten teurer wurden, aber es wird trotzdem ständig von "Karte ist xy% besser wie Vorgänger" gesprochen, obwohl damit nur die absolute Leistung gemeint ist. Nicht einmal wurde in Zahlen erwähnt, wie viel besser (oder schlechter) die Karten pro Dollar sind. Schlussendlich interessiert aber den Kunden genau das. "Wie viel kriege ich mehr pro Dollar". Und die meisten Testseiten gehen darauf einfach viel zu wenig ein. Im Fazit hier steht z.B nicht etwa die Mehrleistung pro Dollar, nein. Es wird die absolute Mehrleistung gennant mit dem Hinweis, dass die Karten teurer wurden.

Und dann noch gepaart mit Titeln wie: "Nvidias Turing-Grafikkarten sind Konkurrenzlos". Das suggeriert dem Leser, die Karten seien sehr gut (weil "Konkurrenzlos"). Logisch sollten sie konkurrenzlos sein, wenn der Konkkurrent noch keine neuen GPUs gelauncht hat. Sagt aber rein gar nichts über die Qualität der Karten aus und suggeriert aber, dass sie gut wären. Bei Turing war aber die Leistung pro Dollar extrem schlecht. Die meisten Karten waren aus Kundensicht komplette verarsche.

Knuddelbearli
2020-12-15, 20:48:34
Der Vergleich mit der GeForce RTX 3080 fällt genauso schlecht aus: Zwar bietet die Radeon RX 6900 XT unter Rasterizer-Tests eine minimale Mehrperformance, liegt jedoch unter RayTracing-Tests sehr deutlich zurück – und verbindet dies wiederum mit einem um -29% schlechteren Preis/Leistungs-Verhältnis. Allenfalls den Mehrspeicher der Radeon RX 6900 XT kann selbige gegenüber der GeForce RTX 3080 (16 vs. 10 GB) ins Feld führen – was allerdings bei diesem drastisch schlechteren Preis/Leistungs-Verhältnis wenig Zugkraft entwickelt. Einzig im Vergleich mit der GeForce RTX 3090 kann die Radeon RX 6900 XT ein (immerhin um +35%) besseres Preis/Leistungs-Verhältnis für sich beanspruchen, die nVidia-Karte kann jene Differenz allerdings über ihre eindeutige Performance-Führerschaft und dann sogar einen Mehrspeicher auf nVidia-Seite durchaus rechtfertigen.

30% schlechteres P/L dafür 60% mehr Speicher ist böse wenn AMD den Mehrspeicher hat (Obwohl das sogar noch in einem Bereich ist wo man sicherlich davon profitieren wird)

30% schlechteres P/L dafür 50% mehr Speicher ist aber gerechtfertig wenn NV den Mehrspeicher hat ...

War vermutlich nicht so gemeint aber trotzdem ist der Absatz einfach ....

Ben Carter
2020-12-15, 21:02:32
Da muss ich Knuddelbearli zustimmen.

Alles in allem wieder eine super Launch-Analyse, aber dieser Absatz passt meiner Meinung nach nicht so recht. Ich verstehe zwar, dass die 3090 hier wohl noch die Sonderstellung "schnellste Karte" hat, aber um ehrlich zu sein, finde ich es preislich gut getroffen zwischen 3080 und 3090 und spiegelt auch das wieder, was man mehr bzw. weniger bekommt. Mal abgesehen von RT, aber das muss eh derzeit noch jeder für sich entscheiden, wie das gewichtet wird. Zudem sind die Auswirkungen zwischen 10/16 GB VRAM sicherlich eher mal wahrzunehmen als zwischen 16/24 GB.

Platos
2020-12-15, 21:07:05
Die 6900XT bietet ein 35% besseres P/L wie die 3090, hat aber ingesammt weniger Leistung, Viel weniger RT Leistung, kein DLSS und noch weniger Speicher. Also alles, bis auf das P/L (was sicherlich wichtig ist), ist schlechter.

Dazu kommt noch, dass das die beiden jeweiligen Spitzenmodelle sind, wofür manche oftmals für das letzte Quäntchen mehr Leistung auch bereit sind, mehr zu bezahlen.

Die 6900XT bietet allerdings ein 30% schlechteres P/L gegenüber der 3080, dazu aber auch noch weniger RT Perfomance, "nur" gleich viel Shaderleistung (und nicht mehr, bei höherem Preis) und dafür 60% mehr Speicher. Ist also nicht das selbe. Das einzige, was die 6900XT bietet, ist mehr Speicher, während dem die Shaderleistung gleich ist und alles andere schlechter. Bei der 3090 ist alles besser, bis auf das P/L. Und in beiden Fällen ist das P/L etwa gleich viel schlechter +/-

Dennoch will ich jetzt nicht den überteuerten Preis der 3090 irgendwie rechtfertigen (genauso wenig wie die überteuerte 6900XT). Beide Karten sind schlecht im P/L. Aber man kann sich natürlich an einem Wort aufhängen bei so einer umfangreicher, gut durchdachten Launchanalyse.

Die einzige Karte, die ich von AMD momentan empfehlen würde, ist die 6800XT (aber nicht, wenn man die Karte möglichst lange behalten will). Die 6900XT ist überteuert und die 6800 ist etwas zu teuer, aber bietet dann noch nicht mal vernünftige RT Perfomance und gar kein DLSS (Pendant).

Leistungstechnisch ist endlich mal etwas mehr drinn im GPU Markt, AMD kann zumindest wieder dem 2. besten nvidia Modell gut stand halten, aber bei AMD fehlt die RT Perfomance und DLSS und bei nvidia der Speicher.

Ich hoffe mal, die nächste Gen wird dann bei beiden die jeweiligen "Problemchen" lösen.

Bei Nvidia würde ich ja gar keine Karte ab Turing empfehlen :D Vlt. dann die 3060, sofern sie nicht mit 6GB kommt.

Gast Ritis
2020-12-15, 21:08:17
Ich gehe davon aus die 3080Ti setzt sich mit mehr VRAM und in etwa gleicher Leistung preislich über die 6900XT, während AMD step by step mit den Gameentwicklern Raytracing in vergleichbaren Leistungsraten nachliefert.
Dann ist wieder Zeit für die Erbsenzähler und hoffentlich wieder Zeit für modernere Review-Titel Auswahl.
Vulkan RT Quake3 könnte ein neues Marketing-Schlachtfeld werden...

FarCry
2020-12-15, 22:07:20
Die 6900XT bietet ein 35% besseres P/L wie die 3090, hat aber ingesammt weniger Leistung, Viel weniger RT Leistung, kein DLSS und noch weniger Speicher. Also alles, bis auf das P/L (was sicherlich wichtig ist), ist schlechter.

...

Die 6900XT bietet allerdings ein 30% schlechteres P/L gegenüber der 3080, dazu aber auch noch weniger RT Perfomance, "nur" gleich viel Shaderleistung (und nicht mehr, bei höherem Preis) und dafür 60% mehr Speicher. Ist also nicht das selbe. Das einzige, was die 6900XT bietet, ist mehr Speicher, während dem die Shaderleistung gleich ist und alles andere schlechter. Bei der 3090 ist alles besser, bis auf das P/L. Und in beiden Fällen ist das P/L etwa gleich viel schlechter +/-

Dennoch will ich jetzt nicht den überteuerten Preis der 3090 irgendwie rechtfertigen (genauso wenig wie die überteuerte 6900XT). Beide Karten sind schlecht im P/L. Aber man kann sich natürlich an einem Wort aufhängen bei so einer umfangreicher, gut durchdachten Launchanalyse.

Die einzige Karte, die ich von AMD momentan empfehlen würde, ist die 6800XT (aber nicht, wenn man die Karte möglichst lange behalten will). Die 6900XT ist überteuert und die 6800 ist etwas zu teuer, aber bietet dann noch nicht mal vernünftige RT Perfomance und gar kein DLSS (Pendant)...

Das trifft es eigentlich ganz gut. Die 6800XT scheint hier von AMD die interessanteste Karte zu sein. 6900XT? Eher nicht: wer für ~7% mehr Leistung bereit ist, 350 Euro (UVP) draufzuzahlen, hat entweder einen Goldesel in der Ecke stehen oder schlicht und ergreifend zu heiss gebadet.

Insgesamt ein guter Wurf, AMD, zweifelsohne. Trotzdem werde ich das Gefühl nicht los, dass mit RDNA1+2 nur ausprobiert und geübt wurde, und die richtigen Leistungs-, Effizienz- und P/L-Kracher wir dann erst mit RDNA3 serviert bekommen. Vielleicht lohnt es sich doch noch ein Jahr zu warten.

larodar
2020-12-15, 22:46:33
Nicht ganz der große Wurf, den AMD sich erhofft hat, aber gut aktuell verkauft sich so oder so alles was neu ist.

Da ist es egal dass zum UVP sowohl die 6900xt als auch die 3090 eigentlich ziemliche Enttäuschungen sind was P/L angeht, die 3090 kann aber zumindest den "Halo-Effekt" gewinnen.

@leonidas
Hast du vor evtl. TechSpot noch in deine Mittelungen enfließen zu lassen? Ich finde dort ist der Testparcours ziemich aktuell.

Platos
2020-12-15, 23:47:54
@FarCry: Naja, ich erwarte jetzt nicht irgend eine Wunderleistung bei RDNA3, also zumindest bei der normalen Shaderleistung. Aber bei RT erwarte ich schon eine ähnliche Leistung. Am besten ist der Unterschied nur noch 1-stellig, ich würde mich aber auch mit unter 15% Unterschied zufrieden geben, sofern es eine potente DLSS alternative gibt. Am wichtigsten ist mir da aber schon eine qualitativ sowie perfomant gleichwertige DLSS alternative.

FarCry
2020-12-16, 00:34:15
@FarCry: Naja, ich erwarte jetzt nicht irgend eine Wunderleistung bei RDNA3, also zumindest bei der normalen Shaderleistung. Aber bei RT erwarte ich schon eine ähnliche Leistung. Am besten ist der Unterschied nur noch 1-stellig, ich würde mich aber auch mit unter 15% Unterschied zufrieden geben, sofern es eine potente DLSS alternative gibt. Am wichtigsten ist mir da aber schon eine qualitativ sowie perfomant gleichwertige DLSS alternative.

Eben. In RT in etwa gleichziehen und DLSS-ALternative (wobei beides kein absolutes Muss, nur ein "wäre nett"), nochmals 50% W/P mehr als RDNA2 und eine pfeilschnelle Raster-Performance... dafür würde ich dann auch satte 1000 Euro ausgeben. Oder vielleicht auch etwas mehr.

Leonidas
2020-12-16, 03:44:01
30% schlechteres P/L dafür 60% mehr Speicher ist böse wenn AMD den Mehrspeicher hat (Obwohl das sogar noch in einem Bereich ist wo man sicherlich davon profitieren wird)

30% schlechteres P/L dafür 50% mehr Speicher ist aber gerechtfertig wenn NV den Mehrspeicher hat ...

War vermutlich nicht so gemeint aber trotzdem ist der Absatz einfach ....


Die Relation zur 6800XT macht es: Wäre die 6900XT die einzige Karte mit 16GB, hätte sie ihr Alleinstellungsmerkmal und könnte somit auch das schlechtere P/L-Verhältnis übertünchen. Aber so gibt es die 16GB auch bei der 6800XT - und wenn das so ist, wieso für so wenig Mehrperformance so viel mehr zahlen?

Leonidas
2020-12-16, 03:46:20
@leonidas
Hast du vor evtl. TechSpot noch in deine Mittelungen enfließen zu lassen? Ich finde dort ist der Testparcours ziemich aktuell.


Habe ich bei den letzten Reviews auch meistens getan. Aber diesemal haben sie nur die exakten Ergebnisse von 6 Spieletiteln veröffentlicht, der Rest ist ein einem avg-fps-Index versteckt. Konnte ich ergo leider diesesmal nicht verwenden.

JVC
2020-12-16, 08:46:07
(aber nicht, wenn man die Karte möglichst lange behalten will)
Gerade dann, sehe ich die Vorteile von RDNA ;)
Und den Vorteil von 16, anstelle von 10Gb.

Die 3090 ist "erhaben" -> 24Gb.... aber mir zu teuer...
Die 6900 XT ist "Voll aktiv/Perfeckt" -> manche reizt Das... auch mich ^^
Die 3080 ist "ein Krüppel" -> sobald man das erkennt, ist sie uninteressant (außer man zockt "FHD 240FPS" )
Die 6800 XT ist für Mich "einfach vernünftig und ausgewogen".

RDNA... Ich denke darüber werden wir noch viel hören :smile:

M.f.G. JVC

Knuddelbearli
2020-12-16, 11:48:21
Habe ich bei den letzten Reviews auch meistens getan. Aber diesemal haben sie nur die exakten Ergebnisse von 6 Spieletiteln veröffentlicht, der Rest ist ein einem avg-fps-Index versteckt. Konnte ich ergo leider diesesmal nicht verwenden.

Das, für mich verdrehte, Logik die mir öfters bei dir aufgefallen ist. Also belohnt man den Anbieter, der ein Großteil seines Angebots verkrüppelt damit die nicht verkrüppelten über den Klee zu loben?
Und das wo 16 statt 10 öfters die nächsten Jahre Vorteile bieten dürfte, 24 statt 16 ( bzw 32 statt 16 wenn AMD verdoppeln sollte) wohl eher selten bis nie.

Selbe bei Intel, die K CPU bekommt Bonuspunkte das sie freien Multi hat usw, da das eben ein Unterschied zum Rest des Portfolios ist. Bei AMD, die das eben bei allen CPUs bietet, wird das meist nichtmal erwähnt...

NOFX
2020-12-16, 12:09:42
AMD wird die 6900XT wahrscheinlich eh nicht groß verkaufen können/wollen. Der Chip ist voll aktiviert und muss dazu sehr gut selektiert werden, damit bei gleicher TDP wie die 6800XT hat auch Mehrleistung raus kommt.

Ich sehe die 6900XT eher als hübsch für den zweit längsten Balken in Reviews aber real nie wirklich erhältlich. Ein bisschen wie der 10900K (6900XT) und der 10850K (6800XT), in den Test möglichst glänzen und später wird dann eh das zweite Modell gekauft.

Platos
2020-12-16, 13:03:13
Gerade dann, sehe ich die Vorteile von RDNA ;)
Und den Vorteil von 16, anstelle von 10Gb.

Die 3090 ist "erhaben" -> 24Gb.... aber mir zu teuer...
Die 6900 XT ist "Voll aktiv/Perfeckt" -> manche reizt Das... auch mich ^^
Die 3080 ist "ein Krüppel" -> sobald man das erkennt, ist sie uninteressant (außer man zockt "FHD 240FPS" )
Die 6800 XT ist für Mich "einfach vernünftig und ausgewogen".

RDNA... Ich denke darüber werden wir noch viel hören :smile:

M.f.G. JVC
Ich sehe gerade da den Widerspruch. 16GB sprechen für eine Langlebigkeit. Das (bisherige) nicht-vorhandensein von einer DLSS alternative spricht dagegen und die schlechte RT Perfomance auch. Mag vlt. jetzt nicht so wichtig sein, aber wenn man die Karte ~4 Jahre behalten will (was ich als langlebig bezeichnen würde), dann schon. Und wenn es dann für AMD Grafikkarten eine DLSS Alternative gibt, ist auch nicht klar, wie gut RDNA2 da noch supportet wird und auch nicht, wie gut RDNA2 da Hardwaretechnisch mithalten kann.

Also sehe ich RDNA2 eher als sehr kurzlebig. RDNA3 dürfte da besser sein (hoffe ich mal). Und Hopper hoffentlich auch (Weil sie da hoffentlich mehr Speicher haben, also nicht nur bei überteuerten Modellen).

anddill
2020-12-16, 13:07:56
Sooo schlecht ist das P/L in der Praxis gar nicht.
real existierende RTX 3080 kosten ab 1150€ aufwärts
real existierende RTX 3090 kosten ab 1800€ aufwärts
real existierende RX 6800XT kosten ab 1050€ aufwärts
real existierende RX 6900XT kosten 1250€ (einen anderen Preis habe ich noch nicht gesehen).

JVC
2020-12-16, 14:09:15
Also sehe ich RDNA2 eher als sehr kurzlebig. RDNA3 dürfte da besser sein (hoffe ich mal).
Ok. Da würde ich mich noch etwas informieren.....
Bei RDNA geht es um Kompatibilität und Skalierbarkeit über alle Plattformen...
(Handy, Tablett, Laptop, Konsolen... High-End-PC)

Natürlich ist es trotz mittlerweile steigender Verbreitung noch möglich das es floppt...
Aber ich denke die RDNA Dna wird sich als langlebig erweisen.

M.f.G. JVC

Rabiata
2020-12-16, 15:43:46
Sooo schlecht ist das P/L in der Praxis gar nicht.
real existierende RTX 3080 kosten ab 1150€ aufwärts
real existierende RTX 3090 kosten ab 1800€ aufwärts
real existierende RX 6800XT kosten ab 1050€ aufwärts
real existierende RX 6900XT kosten 1250€ (einen anderen Preis habe ich noch nicht gesehen).
Guter Hinweis, wobei die Preise sich in naher Zukunft noch "zurechtrütteln" werden.
Generell halte ich es für sinnvoll, GraKas auf etwa demselben Preispunkt zu vergleichen. In dem Fall wäre das RTX 3080 vs. RX 6900XT. Etwa selbe Leistung, aber die AMD-Karte hat mehr Speicher, der mit 100 Euro Mehrpreis gegenüber Nvidia erkauft wird.

Platos
2020-12-16, 18:21:23
Ok. Da würde ich mich noch etwas informieren.....
Bei RDNA geht es um Kompatibilität und Skalierbarkeit über alle Plattformen...
(Handy, Tablett, Laptop, Konsolen... High-End-PC)

Natürlich ist es trotz mittlerweile steigender Verbreitung noch möglich das es floppt...
Aber ich denke die RDNA Dna wird sich als langlebig erweisen.

M.f.G. JVC

Hä? Ich spreche von RDNA2 bzw. deren Grafikkarten. Die werden nur schon wegen der schlechten RT Leistung nicht langlebig sein.

Es gibt ja jetzt schon in eig. jedem aktuellem neuem AAA Spiel RT. In 2 Jahren werden RDNA2 Grafikkarten schon verhaltet sein, weil die RT Leistung einfach mies ist. In 2 Jahren wird jedes aktuelle Spiel RT implementiert haben, während dem RDNA 2 deutlich hinter Ampere her hinkt in dieser Sache.

Skalierbarkeit über alle Platformen hat aber auch gar nichts damit zu tun, ob nun die Grafikkarten langlebig sind oder nicht.

Platos
2020-12-16, 18:24:04
Sooo schlecht ist das P/L in der Praxis gar nicht.
real existierende RTX 3080 kosten ab 1150€ aufwärts
real existierende RTX 3090 kosten ab 1800€ aufwärts
real existierende RX 6800XT kosten ab 1050€ aufwärts
real existierende RX 6900XT kosten 1250€ (einen anderen Preis habe ich noch nicht gesehen).

Was willst du damit sagen? Dass die Preise in der Praxis viel höher sind? Das spielt ja keine Rolle für die Bewertung des Listenpreises.

anddill
2020-12-16, 18:29:42
Ich will damit sagen daß die Listenpreise aktuell Bullshit sind. Man kann die Karten entweder nach den aktuellen Preisen einsortieren, oder nach den Preisen wenn man sie alle ab Lager kaufen kann. Und aktuell steht die RX 6900XT nicht so schlecht da wie sie duch die ListenPhantasiepreise dargestellt wird.

Hey, ich muss mir das ja irgendwie schönreden, hab meine ja gestern Abend eingebaut :D

Platos
2020-12-16, 19:18:14
Ach so, lol :freak:

Die Strassenpreise sind so schlecht, die kann ich nicht mal ernst nehmen.

Rincewind
2020-12-16, 20:03:19
Hä? Ich spreche von RDNA2 bzw. deren Grafikkarten. Die werden nur schon wegen der schlechten RT Leistung nicht langlebig sein.

Es gibt ja jetzt schon in eig. jedem aktuellem neuem AAA Spiel RT. In 2 Jahren werden RDNA2 Grafikkarten schon verhaltet sein, weil die RT Leistung einfach mies ist. In 2 Jahren wird jedes aktuelle Spiel RT implementiert haben, während dem RDNA 2 deutlich hinter Ampere her hinkt in dieser Sache.

Skalierbarkeit über alle Platformen hat aber auch gar nichts damit zu tun, ob nun die Grafikkarten langlebig sind oder nicht.

Da möchte ich gerne widersprechen, die RT-Leistung wird die nächsten Monate sehr steigen und dann über die nächsten Jahre peu à peu steigen. AMD weiß, wo ihre Baustellen sind (RT/DLSS) und werden das Problem recht schnell angehen.

GerryB
2020-12-16, 20:14:13
Mal abwarten, wie teuer die Customs werden. Die Ref kann ja net auf ne ähnlich Wattage wie ne 3090FE gebracht werden.(wäre für 24/7 zu laut, geht nur@h2o)
https://www.igorslab.de/radeon-rx-6900-xt-mit-knapp-2-7-ghz-im-time-spy-dank-wasserkuehlung-und-morepowertool/

Wer natürlich das Glück hatte ne 6900 zu ergattern, hat sicher auch die Passion für h2o.

Wer kein h2o möchte kann eigentlich optimistisch für die Customs sein.
Mal nur als Bsp. die 3800XT MERC: auch hier jetzt W ähnlich 3080FE
https://www.igorslab.de/xfx-rx-6800-xt-merc-319-16-gb-im-test-schwerer-brocken-fuer-harte-aufgaben/
und
Arbeitet immer noch effizient:
(da im Comptoir 6900-Review der QHD-Wert fehlt, kann man sich provisorisch an der Kleinen orientieren;
die 6900-Custom sollte für Raster@UWQHD gut ausreichen)

Gast
2020-12-16, 23:30:23
Es gibt ja jetzt schon in eig. jedem aktuellem neuem AAA Spiel RT. In 2 Jahren werden RDNA2 Grafikkarten schon verhaltet sein, weil die RT Leistung einfach mies ist.

Zum einen kauft die überwiegende Masse immer noch im Bereich der <300€ Karten, d.h. auch in 2 Jahren wird sich der Einsatz der RT Effekte immer noch im bekannten Rahmen bewegen, alleine wegen der Konsolen. Zum anderen schlägt sich RDNA2 in den nicht nur für Nvidia optimierten Games in RT ganz ok'ish.

Gast
2020-12-16, 23:51:23
Die Ref kann ja net auf ne ähnlich Wattage wie ne 3090FE gebracht werden.

???
Default gehen +15%, also 345W, praktisch identisch zur 3090@Stock

Gast
2020-12-17, 02:34:43
PCGames aus der Liste ausklammern oder gesondert führen?
Erkenne nicht die Gründe warum deren Werte so stark von dem Durchschnitt des Restes abweichen.

In Wqhd die rtx 3090 16 % über der rx6900xt; beim Rest so 3 - 8 %.
In 4kuhd 21 % darüber; beim Rest so 8 - 13 %.

Auch die anderen testen mit dicken Prozessoren wie i9-10900k/Ryzen 5900X/5950X (oder i9-9900k @ 5GHz übertaktet) und teils DDR4 4000 MHz.

Das Testsystem bei Computerbase zeigt den geringsten Unterschied auf, ist wegen des "lahmen" 3900XT auch am wenigstens aussagekräftig.
Deren Treiber sind teils auch recht alt und verfälschen das Ergebnis.
Vergleichbarkeit mit älteren Systemen zu geben hindert hier also die tatsächliche Aussagekraft.


An der löblichen Anzeige der Minimum-fps bei pcgh kann es ja nicht liegen; auch bei Hardwareluxx führt man diese.
Der ddr4 3800 MHz Speicher mit sauschnellen Latenzen von CL 14- 15?
Wobei hier nicht angegeben wird ob auch die Sub- und Tertiär-Timings stark angezogen wurden. Auch wenn dies der Fall ist, ist dies bei 4k uhd egal, das gpu-limitiert.
12- 20 aktuelle Spiele wurde bei den anderen Testern auch getestet.
Komisch.

Platos
2020-12-17, 04:16:33
Da möchte ich gerne widersprechen, die RT-Leistung wird die nächsten Monate sehr steigen und dann über die nächsten Jahre peu à peu steigen. AMD weiß, wo ihre Baustellen sind (RT/DLSS) und werden das Problem recht schnell angehen.

Ach nein, kommt jetzt wieder der heilige AMD Fine-Wine...

GerryB
2020-12-17, 05:40:24
Ach nein, kommt jetzt wieder der heilige Jensen mit nur "RTX Kaufen macht Sinn"...

Die Turing-Besitzer wurden gerade in ColdWar, WDL+CP2077 richtig vorgeführt.
Das mit Hopper dann Ampere das "leichte" Leben hat glaub ich net.

Nach m.E. sind die AMD-Käufer eher high Fps Gamer ohne Interesse an experimentellem Murks.
Bei gleichen W würde ich in Raster bis UWQHD Minimum einen Gleichstand vs.3090FE erwarten.(1440p siehe Anhang)
Das wird ja in Kürze der Vgl. mit den Customs zeigen.
Und auf Marketing BlaBla zum Vram werden Die sich net einlassen.

Grafikkarten werden doch immer bei gleichem Preis verglichen ...
In dem Sinne macht auch ne 6900 mit mehr Vram eine gute Figur ggü. ner 3080.
Und für HDR10@LPM ist packed FP16 ideal. Da arbeitet die nonGaming-Arch. von Ampere halt net so effektiv.

HDR-Moni/TV Besitzer sind mit AMD gut bedient.

Leonidas
2020-12-17, 06:07:55
PCGames aus der Liste ausklammern oder gesondert führen?


Wenn Du "PC Games Hardware" meinst: Auf keinen Fall! Die suchen noch nach richtig schlauchenden Benchmark-Szenen und vermeiden damit "Trocken-Tests" mit 200-300 fps (soweit es geht). Das sind auch die einzigen, wo unter UltraHD mal wirklich niedrige Zahlen für die mittleren Grafikkarten rauskommen. Will ich als Farbtupfer unbedingt dabei haben!

GerryB
2020-12-17, 06:24:47
Hauptsache Es kommen auch Games, wo net der Vram-Bedarf künstlich niedrig gehalten wird.
CP2077 ist ja nur gruselig von den Texturen her.

In ColdWar kanns schon Stellen geben, wo Ram+Vram ganz gut gefüllt werden.

bzgl. PCGH ist der Sachverstand der Leser bezeichnend:
Die 6800 würde rel. gern gekauft aber die vom P/L günstigere XT müsste eigentlich noch besser da stehen!?
(jetzt mal nur die Summe aus Evtl.+Kaufe betrachtet)
Zumindestens haben die Schafe erkannt, das die 3070 net so der BigDeal ist.=1+
Warum im Entry-Bereich die 3060Ti so schlecht weg kommt ist eigentlich net zu verstehen.
(ist nach m.E. wesentlich sinniger als die 3070, aber man schaut halt nur auf die Numbrs und 70 muss ja mehr bieten als 60)

Gast
2020-12-17, 09:17:41
PCGames aus der Liste ausklammern oder gesondert führen?
Erkenne nicht die Gründe warum deren Werte so stark von dem Durchschnitt des Restes abweichen.

Ganz einfach, weil sie im Gegensatz zu allen anderen bewusst besonders grafiklastige Szenen suchen, in denen sich logischerweise die schnelleren GPUs stärker abheben.

Gast
2020-12-17, 09:22:47
Und für HDR10@LPM ist packed FP16 ideal. Da arbeitet die nonGaming-Arch. von Ampere halt net so effektiv.



Nur, dass die Table ein Blödsinn ist und Nvidia seit Turing genauso in FP16 den doppelten Durchsatz hat.

Mehr sogar als das, FP16 machen bei Nvidia die Tensor-Cores, und diese können parallel mit RT und FP32/INT32 Cores arbeiten.

AMD hat also entweder 1x FP32 oder 2x FP16, Nvidia kann 1x FP32 und 2x FP16 gleichzeitig und seit Ampere sogar 1xFP32 + 2x FP16 + 1x RT.

AMD kann immer nur entweder FP32 oder FP16, bzw. RT oder TEX, bei Nvidia kann alles parallel ablaufen.

GerryB
2020-12-17, 17:56:27
Nur, dass die Table ein Blödsinn ist und Nvidia seit Turing genauso in FP16 den doppelten Durchsatz hat.
..FP16 machen bei Nvidia die Tensor-Cores, und diese können parallel...

Turing Jo, Ampere =???
Glaube, net in Gaming(Raster). Das sind spezielle Dinge für ML o.ä.

btw.
Es gibt gerade die 6900Ref bei MF: +200Tacken, aber manchmal besser haben als garnix
https://www.mindfactory.de/product_info.php/16GB-PowerColor-Radeon-RX-6900-XT-DDR6-Drei-Luefter-256bit--bulk-_1388380.html

Wer die 6900Ref nur ein mue UVtet und mal auf das PL der 3080FE geht bekommt ein Ergebnis wie bei OC3D: SAM=off
Wobei man sagen muss, die eingestellten 1075mV ändert nur den Mittelwert der Kurve, net unbedingt max.V, die werden je nach freiem PL bei Teilllast genommen oder auch net. Ändern könnte man Das nur mit MPT.
(ME leider net mit OC; beim Review keine Angabe, ob am Vram etwas geä. wurde - eher net)

GerryB
2020-12-17, 18:04:18
Warum im Entry-Bereich die 3060Ti so schlecht weg kommt ist eigentlich net zu verstehen.
Nach m.E. passt die Rohpower gut zum Vram.(ne 3070 ist eher so ein Honk, wie die 2060)

Interessanterweise sollte man bei der FE den Vram auch net zu sehr OCen, weil Das am verfügbaren PL für die GPU nuckelt.
Chiplotterie: Wer die Spannung noch 18mV absenken kann erreicht bereits eff.2100MHz inGaming. WTF!
(Gerade in CP lohnt sich evtl. eher ne geeignete CPU, z.Bsp. i5-10400F; AMD braucht noch nen offiziellen SMT-Patch von CD-Projekt, daher momentan große Differenzen in den Userbenchmarks; RT belastet die CPU extra!)

Lehdro
2020-12-17, 21:51:55
Hä? Ich spreche von RDNA2 bzw. deren Grafikkarten. Die werden nur schon wegen der schlechten RT Leistung nicht langlebig sein.

Es gibt ja jetzt schon in eig. jedem aktuellem neuem AAA Spiel RT. In 2 Jahren werden RDNA2 Grafikkarten schon verhaltet sein, weil die RT Leistung einfach mies ist. In 2 Jahren wird jedes aktuelle Spiel RT implementiert haben, während dem RDNA 2 deutlich hinter Ampere her hinkt in dieser Sache.

Wenn RDNA 2 nicht für spielbares und damit brauchbares RT reicht, dann langt auch der Großteil des NV Portfolios nicht mehr. Sorry, aber selbst die zweistelligen Zugewinne machen das dann auch nicht wirklich spielbar. Vorallem zählt dass dann, wenn kein DLSS möglich ist. RT wird etwas sein was so wie früher Rasterperformance massive Sprünge pro Generation hinlegt, gerade am oberen Ende, da ist man mit Ampere zur nächsten Generation genau wieder da wo man mit Turing heute ist: Das Feature ist halt da. ;)

Gast
2020-12-17, 22:12:51
Turing Jo, Ampere =???
Ampere genau so.


Glaube, net in Gaming(Raster). Das sind spezielle Dinge für ML o.ä.

Glauben heißt nicht wissen.

GerryB
2020-12-18, 13:03:19
Sparsity ist nur für ML:
"Vom professionellen Ampere ebenfalls übernommen wurde das „Sparsity“-Feature. Dieses basiert darauf, dass viele Matrizen in neuronalen Netzen spärlich sind"
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-ampere-technik/2/

Gast
2020-12-18, 15:26:48
Sparsity ist nur für ML:

Das ist schon klar, Tensor Cores können aber auch ganz stinknormales FMA, nicht nur Tensor-Ops. Und mit normalem FMA ist der Durchsatz 2x dem FP32 Durchsatz, mit Tensor-Ops ist der Durchsatz ja noch wesentlich größer.

Gast
2020-12-18, 19:03:03
Das ist schon klar, Tensor Cores können aber auch ganz stinknormales FMA, nicht nur Tensor-Ops. Und mit normalem FMA ist der Durchsatz 2x dem FP32 Durchsatz, mit Tensor-Ops ist der Durchsatz ja noch wesentlich größer.

Oh mann ich bin blöd, Ampere hat ja doppelte FP32 units und keine Verdopplung der Tensor Cores.

Damit stimmt natürlich der selbe Durchsatz für FP16 und FP32.

Was aber dennoch stimmt ist, dass Tensor + FP32 und damit auch FP16 + FP32 parallel arbeiten können, und damit der Gesamtdurchsatz bei Ampere deutlich höher ist, auch wenn der Reine FP16 Peak teilweise bei AMD höher ist.

Sorry für die Verwirrung.

Gast
2020-12-20, 01:20:08
Wenn Du "PC Games Hardware" meinst: Auf keinen Fall! Die suchen noch nach richtig schlauchenden Benchmark-Szenen und vermeiden damit "Trocken-Tests" mit 200-300 fps (soweit es geht). Das sind auch die einzigen, wo unter UltraHD mal wirklich niedrige Zahlen für die mittleren Grafikkarten rauskommen. Will ich als Farbtupfer unbedingt dabei haben!
Ganz einfach, weil sie im Gegensatz zu allen anderen bewusst besonders grafiklastige Szenen suchen, in denen sich logischerweise die schnelleren GPUs stärker abheben.
Okay.
Das jetzt reine Erkenntnistheorie basierend auf was oder irgendwie (methodisch) nachweisbar?
Von der Logik ausgegangen müsst ihr beide ja wissen welche Testsequenzen in allen 30+ Spielen die 20 anderen Tester benutzt haben und somit mit denen von pcgamesh verglichen um auf diese Aussage zu kommen.
Nachweise?

Außerdem stellt sich mir die Frage: Warum soll es und welchen Unterschied macht es, ob rx 6900xt oder rtx 3090 im gleichen Spiel, blos in zwei verschiedenen Szenen, Abweichungen von 10 % entstehen.
Beide Grafikkarten sind nämlich, zumindest in 4k uhd, immer voll ausgelastet (100 %). Kein Prozessorlimit, kein Vram und auch bei rx 6000 limitiert ja nicht die Datenrate des Speichers/Infinity Cache (jedenfalls nach computerbase, auch in 4k uhd).

Die Aussage impliziert nach meinem Verständnis das bei Test-Abschnitt 1) 100 % Auslastung bei rund 50 - 70 fps und Test-Abschnitt 2) (pcgamesh) 100 % Auslastung bei rund 30 - 50 %, die rx 6900XT um 10 % mehr abfällt.
Den 20 anderen Testern bei den 30+ Spielen soll dies also nicht aufgefallen sein? Keiner berichtet darüber?

Welche Nachweise gibt es hierfür? Auf die Architektur bezogen?

Lehdro
2020-12-20, 11:33:45
Okay.
Das jetzt reine Erkenntnistheorie basierend auf was oder irgendwie (methodisch) nachweisbar?
Von der Logik ausgegangen müsst ihr beide ja wissen welche Testsequenzen in allen 30+ Spielen die 20 anderen Tester benutzt haben und somit mit denen von pcgamesh verglichen um auf diese Aussage zu kommen.
Nachweise?

Außerdem stellt sich mir die Frage: Warum soll es und welchen Unterschied macht es, ob rx 6900xt oder rtx 3090 im gleichen Spiel, blos in zwei verschiedenen Szenen, Abweichungen von 10 % entstehen.
Beide Grafikkarten sind nämlich, zumindest in 4k uhd, immer voll ausgelastet (100 %). Kein Prozessorlimit, kein Vram und auch bei rx 6000 limitiert ja nicht die Datenrate des Speichers/Infinity Cache (jedenfalls nach computerbase, auch in 4k uhd).

Die Aussage impliziert nach meinem Verständnis das bei Test-Abschnitt 1) 100 % Auslastung bei rund 50 - 70 fps und Test-Abschnitt 2) (pcgamesh) 100 % Auslastung bei rund 30 - 50 %, die rx 6900XT um 10 % mehr abfällt.
Den 20 anderen Testern bei den 30+ Spielen soll dies also nicht aufgefallen sein? Keiner berichtet darüber?

Welche Nachweise gibt es hierfür? Auf die Architektur bezogen?
Das unterschiedliche Szenen auf ein und derselben Hardware in demselben Game massiv voneinander abweichen ist nun wirklich keine neue Erkenntnis, dachte ich zumindest. Anscheinend ist dem nicht so.

Schnitzl
2020-12-20, 21:58:25
was mal interessant wäre: ein Test zw. 6900XT und 3090 jeweils bei 300W und bei 360W
hier bei Computerbase (https://www.computerbase.de/2020-12/amd-radeon-rx-6900-xt-review-test/4/#abschnitt_6900_xt_6800_xt_2080_ti_3080__3090_bei_270_watt) wurde das leider verbockt und z.B. die 3090 auf 270W reduziert - also ob man es extra kompliziert machen möchte... :rolleyes:

Gast
2020-12-21, 09:06:28
Wenn da noch irgendwelche Beweise kommen, würde ich diese gerne lesen, ansonsten ist die Aussage mit den Testszenen bei pcgh eine Behauptung.

Computerbase zeigt nicht die Mindest-Frameraten. Finde dies wenig aussagend.
270 W average-frames sieht aber gut aus.

Gast
2020-12-22, 09:22:00
Wenn da noch irgendwelche Beweise kommen, würde ich diese gerne lesen, ansonsten ist die Aussage mit den Testszenen bei pcgh eine Behauptung.

Du unterstellst PCGH irgendwas absichtlich zu machen um Nvidia besser/AMD schlechter dastehen zu lassen.

Hast du dafür irgendwelche Beweise? Falls nicht braucht es auch keine Gegenbeweise, im Rechtsstaat gilt noch immer im Zweifel für den Angeklagten.

Gast
2020-12-22, 23:48:41
Du unterstellst PCGH irgendwas absichtlich zu machen um Nvidia besser/AMD schlechter dastehen zu lassen.

Hast du dafür irgendwelche Beweise? Falls nicht braucht es auch keine Gegenbeweise, im Rechtsstaat gilt noch immer im Zweifel für den Angeklagten.
Nein, das hast du geschrieben/aus meinen Zeilen frei heraus interpretiert (oder fantasiert? :D ), nicht ich, und legst es mir in den Mund.
Von daher antworte ich dazu auch nicht ;)

Der Leonadis und noch wer anders, schreibt es liegt an den Testszenen bei pcgh, dass diese fordernder sind als die anderen Testszenen der anderen 20 Tester bei den anderen 30+ Spielen.
Dazu würde ich gerne Nachweise sehen, Erklärungen und Verlinkungen dass dies wirklich so ist, wie bereits beschrieben.
Und wenn es in irgendeiner Weise an der Mikroarchitektur liegt, dann auch eine Erklärung/Nachweis dazu.
An irgendwas muss es ja liegen, das man bei pcgh so stark (10 %) von allen anderen abweicht, obwohl keine Vram- und Prozessorlimitierung vorliegt.
Auch bei der rtx 3080/3070 so.

GerryB
2020-12-23, 00:44:46
Was genau bei PCGH "gedacht" wird, ist net klar. Manchmal alle Settings auf MAX und manchmal
halt net. (ME mit adv.PhysX+Hairworks = ON wird evtl. besser den NV-Grakas liegen)
Gab auch Spiele, wo irgendein Vram-default <8GB genommen wurde.(und Max dann separates Rev.)
Weiss auch gar net, ob aktuell überhaupt die Mehrzahl der Reviewer HDR an nem entspr. Moni nutzt.
(gerade bei Godfall mit HDR10@LPM net unwichtig)

Wäre mit persönlich buggy, weil man sich seinen Teil denken kann.
PCGH ist nach m.E. nur im Spezialfall/Gametests wg. der verwendeten Custom-Grakas interessant,
weil dann das PL net so den eff. Takt drückt.
Positiv ist die Nutzung von SAM bei PCGH, fehlt mir bei CB.

Wg. CB@270W: Leider ohne die "neuen" Games+SAM, daher mal etwas Cherrypicking, weils so gut passt
(Wie gedacht, würde nur ne 6900@320W die 100Fps im Score schaffen..oder mit SAM)

Leonidas
2020-12-23, 04:51:05
Der Leonadis und noch wer anders, schreibt es liegt an den Testszenen bei pcgh, dass diese fordernder sind als die anderen Testszenen der anderen 20 Tester bei den anderen 30+ Spielen.
Dazu würde ich gerne Nachweise sehen, Erklärungen und Verlinkungen dass dies wirklich so ist, wie bereits beschrieben.


Es entspricht dem allgemeinen Wissen, dass sich die PCGH sehr in dieser Sache engagiert. Wie der Vergleich zu den Testszenen der anderen Webseiten ausfällt, weiss keiner, den den Vergleich hat keiner öffentlich angetreten.

Wir haben hier also nur eine wohlfeile Erklärung - nicht aber einen exakten Beweis. Mehr liegt zu dieser Sache leider nicht an griffigem vor.

Aus meiner Erfahrung mit Benchmarks & Benchmark-Auswertungen kann ich allerdings sagen, dass es komplett normal ist, wenn solche leicht sprunghaften Ergebnisse herauskommen. Das ist im CPU-Bereich nochmals sehr viel krasser. Es hängt augenscheinlich daran, welche Spiele/Apps man testet. Würden alle Webseiten exakt dieselben 30 Spiele/Apps testen, würden (wahrscheinlich) überall nahezu dieselben Resultate herauskommen.

Gast
2020-12-23, 09:14:10
Nein, das hast du geschrieben/aus meinen Zeilen frei heraus interpretiert (oder fantasiert? :D ), nicht ich, und legst es mir in den Mund.
Von daher antworte ich dazu auch nicht ;)


Du willst, dass PCGH nicht/geringer gewichtet in den Durchschnitt einfließt.
Das wäre aber nur zulässig wenn PCGH bewusst die Benchmarks in eine Richtung lenken oder gar fälschen würde.

Wenn diese einfach nur zufällig das Ergebnis zeigen was sie eben zeigen sind die Benchmarks genauso viel Wert wie von anderen Websites, in denen sich das Ergebnis mal umdreht.


Der Leonadis und noch wer anders, schreibt es liegt an den Testszenen bei pcgh, dass diese fordernder sind als die anderen Testszenen der anderen 20 Tester bei den anderen 30+ Spielen.


PCGH ladet immer wieder mal Videos auf Youtube hoch in denen sie zeigen, wie sie sich ihre Benchmarkszenen suchen und zum Testparcour gibt es glaubh ich sogar zu jedem einzelnen Spiel ein solches Video, man muss sie eben suchen, da sie quer über den ganzen Kanal verteilt sind.

Lehdro
2020-12-23, 10:42:13
Der Leonadis und noch wer anders, schreibt es liegt an den Testszenen bei pcgh, dass diese fordernder sind als die anderen Testszenen der anderen 20 Tester bei den anderen 30+ Spielen.
Dazu würde ich gerne Nachweise sehen, Erklärungen und Verlinkungen dass dies wirklich so ist, wie bereits beschrieben.
Das kannst du alles selber machen. Die Testszenen von PCGH (und glaube auch CB) sind doch mehr oder minder öffentlich. Dann einfach selber nachbenchen und die Ergebnisse quervergleichen. Warum sollte das hier oder auch dort irgendjemand für dich vorkauen? PCGH hat schon mehrfach in eigenen Artikeln verlauten lassen, warum und wie sie sich Testszenen suchen. Anstatt direkt mit den Theorien hier anzukommen, dass das ja irgendwie nicht so ganz stimmt mit den Ergebnissen, kannst du ja einfach selber mal kritisch investigativ tätig werden.

Gast
2020-12-25, 08:35:46
Nun, wenn es nur eine annähernde (wohlfeile) Erklärung dazu ist, dann ist es halt so.
Dachte wirklich es gäbe vielleicht jemanden der sich die viele Mühe gemacht hat dies alles nachzutesten und zu beweisen.

Das lustige für mich an der Situation ist halt, dass genau diese Behauptung/Erklärung bezüglich der pcgh-Testszenen, eine logische Überlegung impliziert, dass die rtx Ampere Karten unter deutlich fordernderen Testszenen weniger Leistung einbüßen als die rx 6000er Karten.
Und das obwohl bei so gut wie allen anderen Testern auch kein Prozessor-, Arbeitsspeicher oder Vram-Limit existiert und auch diese beinahe 30 verschiedene Spiele testen.
Und im GPU-Limit sind die Karten bereits unter 1440p auch beinahe immer.

Also genau der Gegenteil von der implizierten Überlegung, bei pcgh legt man die Testszenen fälschlicherweise so an, um nvidias Karten mehr zu gefallen.
Und das obwohl diese Überlegung ein nicht bewiesener Fehlschluss ist.
Denn würde man dies wirklich beweisen wollen, müsste man bei pcgh zu den bereits getesteten eigenen Szenen, nochmal für mindestens jedes Spiel nachtesten - aber diesmal mit anderen, weniger, fordernden Testszenen (oder mit den Szenen aus einem anderen Test).
Und dann, müsste man diese neuen Testszenen nochmal mit allen anderen Szenen aus den Spielen der anderen Tester vergleichen.
Also eine Mammut-Aufgabe. :D


Nur mal kurz ein Spiel verglichen:
Borderlands 3, 1440p.
pcgh:
rtx 3090: 106 und 132,9 fps
rx6900xt: ohne SAM 97 und 98,8.
Nur unwesentlich höher mit SAM.

igorsL:
rtx 3090 98 und 116,5
rx6900xt: 114 und 129,8.

Da fängt der Kakao schon an, wenn bei IgrosL die rx6900xt plötzlich schneller ist als die rtx 3090.
Ganze 30 % ist die average-fps der rx6900xt bei Igor schneller, während 14 % schneller die rtx 3090 bei pcgh.
30 %!
Da müsste man mal Igor fragen, warum bei ihm die rtx 3090 so abstürzt, oder andersherum, warum bei pcgh die rtx 3090 so schnell ist.
Die Testszene Sanctuary bei pcgh gerade angeschaut. Da schaut nichts nach fordernder aus als die interne Standard Benchmarkszene des Spiels.
Und schaue ich mir die FPS-Zahlen an (min. und average), erreicht man mit beiden Karten ähnlich hohe Werte von 100 bis 130 fps.

So, damit war jedenfalls bei diesem Spiel für mich die Überlegung, es liege an der Szene die womöglich etwas fordernder ist die die Frames, die bei pcgh niededriger sind.
:D

Unter 4k uhd ist es dann genau so komisch.
Da hat die rx6900xt bei pcgh 51 und 58 fps, während bei Igor 61 und 69 fps.
Bei beiden bleibt die rtx 3090 mit ~ 58 und 69 fps ähnlich schnell.

Von hier kommen die dicken Unterschiede um die 10 % her.
10 % wohl gemerkt. Während hier immer diskutiert wird um wie viel schneller die eine Grafikkarte ist als die andere, bei 5 % Unterschied :D

Leonidas
2020-12-25, 09:43:50
Das hängt wohl an den Testszenen. Dadurch, dass die besseren Reviewer allesamt unter eigenerstellte Benchmarks testen, kommt überall etwas anderes herauskommen. Meist nur im gewissen Rahmen unterschiedlich, aber auch durchaus mal krass unterschiedlich.

Normalerweise müsste ein Test ein Spiel in 10 Sequenzen testen und daraus einen Mittelwert ziehen. Erst das ergibt eine wirklich solide Vergleichsbasis, weil damit nicht per Zufall eine Sequenz ausgewählt wird, die vielleicht mit Hardware X besonders gut/schlecht läuft. Leider ist dafür der Aufwand zu hoch, das könnte man nur per integrierten Benchmark machen, der alles fix und automatisiert ablaufen läßt.

GerryB
2020-12-26, 08:03:49
PCGH fällt wohl ein mue aus der Reihe. JayZ hat ohne SAM auch schon andere Werte@badAss.(bestätigt die Messungen von AMD)

btw.
OC3D hat jetzt auch die 6800xt LC reviewed mit OCen. (bzw. h2o-Loop wäre ähnlich)
https://www.overclock3d.net/reviews/gpu_displays/asus_rog_strix_rx_6800_xt_lc_review/1
Das ist ne gute Alternative zur 6900 für high-Fps-Gamer: 6900@PL+12 deckt sich mit der Eff.-Messung von Igor
(glücklicherweise wieder die beiden BN mit PL+12%?=W@3080FE 12V+5V+3V bei TPU? >320W avg.)

Gears5 bei OC3D@OCed SAM=off und z.Vgl. bei AMD@Stock SAM=on.
(man würde ja sowohl leicht OCen als auch SAM nutzen...150fps in Reichweite)

edit: Bei HOT gibts auch nen OC-Test leicht über den +12%(mit 15% PL)
Aber im Grundsatz schon erstaunlich, was die 6900oc bei ähnlichem Verbrauch wie die 3080FE leistet.
In UW QHD würde vermutlich SAM auch noch mehr durchschlagen.(gerade bei Sim sehr beliebt)

PRODIGY
2023-04-14, 11:24:22
Mir ist gerade aufgefallen, dass die 3080 und 3090 mit den gleichen Rohleistungs-Daten in der Tabelle stehen (Rohleistungen 29,8 TFlops & 760 GB/sec | 29,8 TFlops & 760 GB/sec) - müsste die 3090 nicht mit 35,7 TFlops & 936 GB/sec (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090) vermerkt sein?

Raff
2023-04-14, 11:40:28
Jo. Hat 2,5 Jahre niemand gesehen. :D Passiert.

MfG
Raff

Leonidas
2023-04-14, 12:12:56
Mir ist gerade aufgefallen, dass die 3080 und 3090 mit den gleichen Rohleistungs-Daten in der Tabelle stehen (Rohleistungen 29,8 TFlops & 760 GB/sec | 29,8 TFlops & 760 GB/sec) - müsste die 3090 nicht mit 35,7 TFlops & 936 GB/sec (https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-3090) vermerkt sein?

Gefixt.