PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Chip-Spezifikation zu AMD RDNA3 und nVidia Ada im Vergleich


Leonidas
2022-03-17, 16:30:17
Link zum Artikel:
https://www.3dcenter.org/artikel/chip-spezifikation-zu-amd-rdna3-und-nvidia-ada-im-vergleich

Update 20.3. ca. 11:15
Fehler gefixt - AD106 & AD107 haben natürlich nur 32 MB L2, nicht 48 MB

WedgeAntilles
2022-03-17, 19:18:35
Natürlich fühlen sich jetzt gleich wieder viele beleidigt, aber das ist mir bekanntermaßen völlig egal, daher:

Wenn deine Interpretation stimmen, ist Nvidia - vom obersten Segment abgesehen - IMO deutlich besser aufgestellt als AMD.

Mehr Leistung, früheres Erscheinen, bessere Ram-Mengen.
Dazu kommt immer noch DLSS und eine bessere RT Leistung - um wieviel die besser ist wird man sehen, theoretisch kann AMD die natürlich auch egalisieren.

Bleibt natürlich das Thema: Preis - ein schlechteres Produkt, dass nur die Hälfte kostet kann natürlich das unterm Strich bessere Angebot sein.

Allerdings ist AMD in den letzten 1,5 Jahren ja mit vielem aufgefallen - günstige Preise zählten nicht dazu.

konkretor
2022-03-17, 20:16:50
Bei Navi 31

~800mm² für das ganze MCM Design oder pro Modul?

Thomas Gräf
2022-03-17, 20:23:24
Naja das "schlechtere Produkt" werden in diesem Zusammenhang diesmal ganz hochgradig all die grottig programmierten Games sein.

Wird bestimmt wieder im berühmten cherry picking enden...

H0fn43rrchen
2022-03-17, 20:47:00
Der Artikel lässt einen wesentlichen Faktor leider außen vor: Die kolportierte Leistungsaufnahme der nächsten Generationen. Angesichts voraussichtlichen Spitzenwerten jenseits von 800 Watt sind derartige Chips schlicht und einfach indiskutabel und sollten - so denn sich dies bewahrheitet - boykottiert werden. Dies ist angesichts der politischen Situation und der Klimakrise einfach nicht gangbar. Bestenfalls eigen sich derartige Chips noch für professionelle Anwendungen (Datacenter etc.), wo sie mit einer entsprechend hohen Effizienzsteigerung gerade noch zu rechtfertigen wären. Für den Endkundenmarkt ist ein derartiges Produkt ein Armutszeugnis.

Es zeigt sich damit auch, dass die Zukunft im Grafikmarkt nicht in immer leistungsfähigerer Hardware zu suchen ist, sondern auf Softwareseite. Der Release von RSR ist schon einmal ein guter Start. Zwar bleiben ältere Generationen außen vor, es ist jedoch zu hoffen, dass zukünftige Versionen zumindest für die unterstützten Chips weiter optimiert werden. Dies schont sowohl den Geldbeutel der Kunden als auch die Umwelt, ermöglicht es doch längere Produktlebenszyklen.

MorPheuZ
2022-03-17, 21:16:09
Ich sehe der Entwicklung auch ziemlich kritsch entgegen. Die "prophezeiten" 600+ Watt sind in keinster Weise zu akzeptieren. Ich kann mir gar nicht vorstellen wie das noch anständig wegzukühlen ist.
Ziemlich nachdenklich gestimmt ich bin....

WedgeAntilles
2022-03-17, 21:28:41
Der Artikel lässt einen wesentlichen Faktor leider außen vor: Die kolportierte Leistungsaufnahme der nächsten Generationen. Angesichts voraussichtlichen Spitzenwerten jenseits von 800 Watt sind derartige Chips schlicht und einfach indiskutabel und sollten - so denn sich dies bewahrheitet - boykottiert werden.
Ach, jetzt sind wir schon bei über 800 Watt "voraussichtlich"

Dann werfe ich doch einfach mal 2000 Watt in den Raum.
Die neuen GraKas brauchen 2000 Watt aufwärts.


Hört doch mit diesen lächerlichen Geschichten von den ach so hohen Stromverbräuchen auf.
Mag sein, das wir ne 3090TI mit 600 Watt bekommen, aber wen interessiert das?

Der Großteil des Portfolios wird ähnlich viel Strom wie die aktuellen Karten brauchen.
Meinetwegen 20, 30 Watt mehr, aber das war es auch.

Iscaran
2022-03-17, 22:23:29
Was mir hier ein wenig spanisch vorkommt ist folgendes:

RDNA2 operiert mit 23 TFlops bei 348% 3DC-Indexpunkten.
RTX3090 mit 37 TFlops bei 376%
bzw . GFlops/% = 66 GFlops/% vs 98 GFlops/%

Oder nochmal anders gesagt: RTX3090 braucht 1.5x soviele TFlops für die Leistung

Wenn nun also RDNA3 mit 77 TFlops antanzt aber damit angeblich nur das 2.3x fache der Leistung schafft, also 2.3*348% = 800%, dann erhält man damit ca 96GFlops/%

von RDNA2 zu RDNA3 haben wir also den Trend Gflops/%:
66 => 96 also einen "Anstieg" bzw. Verlust an "Effizienz" um Faktor x1.5

Analog mal für RTX40 umgerechnet:
angeblich 85-92TFlops für das 2-2.5 fache an leistung also 2*376%=752% bis 2.5*376%=940%
nehmen wir mal 85/752 = 113 GFlops/%
und 92/940 = 98 GFlops/%

Der Trend wäre hier also von RTX30 zu RTX40
98 zu 98-113 Gflops/%
Somit also ein KONSTANTER Wert ohne "Effizienzverluste" bzw. nur "minimale Effienzverluste" durch die hochskalierung (98 zu 113)

Das scheint mir schon eine seltsame Diskrepanz zu sein.

Hab jetzt keine Zahlen dazu im Kopf wie die Gflops/Index% vergangener Architekturen sich so im Schnitt verändert haben, aber mein Gefühl sagt mir RDNA3 wird nicht soviel "Effizienz" verlieren und nVidia wird nicht mysteriöserweise plötzlich +50% interne Effizienz (also pro Flop sozusagen) hinzugewinnen.

Dazu geben die bisherigen Leaks irgendwie keinen Anlass das zu denken.

iamthebear
2022-03-17, 23:20:35
1.) Die Theorie "Navi33 deutlich > 6900XT bei 16WGP" und "Navi21 = 2.5x 6900XT bei 60WGP" scheinen sich auf den ersten Blick tatsächlich etwas zu spießen.

Allerdings darf man nicht vergessen, dass Navi31/32 ein 5nm Design sind während Navi33 ein 6nm (aus der 7nm Familie) ist. Es ist also davon auszugehen, dass nur Navi31/32 ein wirkliches Redesign erfahren haben, Navi33 jedoch eher ein verbesserter Navi2X sein wird.

Mit RDNA2 hat sich AMD dazu entschieden ca. 1/3 mehr Transistoren pro FP32 Einheit einzusetzen (Infinity Cache schon rausgerechnet), um im Gegenzug 35% mehr Takt bei gleicher IPC heraus zu bekommen. Beide Ansätze kamen auf ca. dieselbe Performance/Transistor bzw. mm² (siehe 6600XT vs. 5700XT).
Es ist durchaus möglich, dass AMD sich bei Navi31/32 dazu entschlossen hat diesen Schritt wieder teilweise rückgängig zu machen und es hier wieder mehr FP32 Einheiten/Fläche dafür aber mit niedrigerem Takt gibt. Zumindest würde das die Differenz von ca. 25% Performance/FP32 erklären. Der Rest ergibt sich dadurch, dass sich bei kleineren Dies einfach der Takt weiter hoch treiben lässt siehe 6700XT vs. 6900 XT.
Bei Nvidia gab es ja eine ähnliche Situation mit Pascal 128 FP32 Einheiten/SM, Turing 64FP32+64INT und Ampere wieder 128 FP32, wobei 64 davon auch INT berechnen können. Auch hier waren beide Ansätze (128 vs. 64+64) in etwa gleich effizient in Performance/Transistor, jedoch mit massiven Unterschieden in Performance/SM bzw. Performance/FP32 Einheit.

2.) Die im Artikel angegebenen 37TFlps der 3090 basieren auf dem offiziellen Boosttakt von 1,7GHz. Der reale Boosttakt liegt jedoch ca. bei 1,9GHz.
Die von Greymon55 angegebenen 2,3-2,5GHz werden jedoch ziemlich sicher der reale Gametakt sein.
Es ergibt sich hier also eine Steigerung von lediglich 20%-30% mehr Takt, was bei 70% mehr Shader eine Rohleistung von 2,07x - 2.25x

Da jedoch die L2 Caches massiv ausgebaut werden, die Speicherbandbreite aber auch steigt kann ich mir jedoch gut vorstellen, dass die IPC auch um 0-10% höher ist, wobei mir auf den 2-2,5x Rohleistung wären.

3.) Ich gehe davon aus, dass die ganzen Performanceangaben von 2.5x 6900XT sich lediglich auf die reine GPU Performance beziehen (also Anzahl FP32*Takt*IPC). Was am Schluss dabei dann als echte Performancesteigerung bei den Frameraten ankommt wird ein ganz anderes Thema sein und speziell bei Nvidia wird es da bei niedrigeren Auslösungen ein ganz böses Erwachen geben wenn man feststellt, dass zur Hälfte die CPU bremst.

Gast
2022-03-18, 01:40:54
Das Thema Kühlung hatten wir ja schon öfter.
Wie man das Gehäuse und dessen Umgebung kühlt, steht nicht auf der Agenda von GPU-Herstellern, IMHO aber echtes Problem für Hobbyisten. Schon jetzt brauchen viele dort keine Heizung mehr und haben im Sommer Probleme, wenn sie nicht mit Klimaanlage und/oder räumlicher Trennung gegenwirken.

Um die Chips kühlen zu können, muss die Fläche wachsen. Klingt absurd, denn die Strukturen sollen ja kleiner werden.
Stacking ist da eher kontraproduktiv, wie man z.B. beim 5800X3D sieht.
HBM verlagert Verbrauch aus der GPU hinaus, weshalb ich bei Top-Notch Abkehr von GDDR erwarte. Da habe ich bisher nicht recht behalten.
Chiplets kann ebenfalls helfen.
Revival von X2/Duo-Karten.
'Rückwärtige' Kühlung?
Und sicher gibt es andere Lösungen, um mehr als 600W von einer Karte runter zu kriegen.

Was viele hier absichtlich falsch verstehen, ist der Umstand, dass diese Verbräuche (erstmal?) nur 90er-Karten betrifft. Die kauft auch jetzt nur eine Minderheit. Es gibt gute Gründe max. 70er zu kaufen und dabei zu bleiben oder zukünftig eine Klasse tiefer. Kommt Wärmeentwicklung ggf. als Faktor oben drauf.

Leonidas
2022-03-18, 03:18:22
Bei Navi 31
~800mm² für das ganze MCM Design oder pro Modul?

Komplett. Noch ohne MCDs gerechnet, da nicht klar ist, wie man diese verrechnet.




Der Artikel lässt einen wesentlichen Faktor leider außen vor: Die kolportierte Leistungsaufnahme der nächsten Generationen.

Korrekt. Aber dazu haben wir nur Gerüchte (die eventuell auch im falschen Hals gelandet sind), während die HW-Daten ziemlich festzustehen scheinen. Ich wollte dies daher für diesen Artikel besser nicht vermischen.

Rabiata
2022-03-18, 14:20:54
Bleibt natürlich das Thema: Preis - ein schlechteres Produkt, dass nur die Hälfte kostet kann natürlich das unterm Strich bessere Angebot sein.
Schlecht oder gut bewegt sich (mindestens) in dem Dreieck von Leistung, Stromverbrauch und Treiberqualität. Von daher ist viel Interpretationsspielraum.

Bei Leistung/Stromverbrauch ist AMD derzeit knapp vor Nvidia. Beide könnten sich verbessern, indem sie ihre GPUs nicht bis zur Kotzgrenze hochtakten (Einstellung ab Werk zählt). Wo Intel steht, ist noch nicht klar.
Bei der Treiberqualität scheinen AMD und Nvidia OK zu sein, jedenfalls lese ich in Reviews nur noch selten was von "SoftwareX läuft nicht". Intel hat scheinbar noch Probleme.

Absolute Leistung interessiert nur beim jeweiligen Topmodell, darunter kann man nachjustieren indem man eine Klasse höher oder tiefer einkauft.

Ich persönlich würde es an der Preisklasse festmachen. Wenn dann eine RX 6600 XT fast so viel kostet wie eine RX 5700 XT, sind das die angemessenen Kontrahenten für den Vergleichstest. Auch wenn die ...700 eine höhere Performance-Klasse suggeriert als die ...600

WedgeAntilles
2022-03-18, 14:34:47
Ich persönlich würde es an der Preisklasse festmachen. Wenn dann eine RX 6600 XT fast so viel kostet wie eine RX 5700 XT, sind das die angemessenen Kontrahenten für den Vergleichstest. Auch wenn die ...700 eine höhere Performance-Klasse suggeriert als die ...600

Jepp, da bin ich ganz bei dir.
Wird wieder eine spannende GraKa Generation denke ich :)

Lehdro
2022-03-18, 15:02:27
Na da bin ich ja gespannt was schlussendlich bei Beiden dabei rauskommt. Das ganze wirkt bei beiden Herstellern im Moment (falls die Werte stimmen) ziemlich unrund, wenn auch in jeweils anderen Bereichen.

WedgeAntilles
2022-03-18, 15:26:40
Ich bin auch recht hoffnungsvoll, dass wir ein solides Portfolio bekommen.

Bei RDNA2 / Ampere war es ja echt nicht einfach.
Bei Nvidia war die Ram-Ausstattung bei allem außer der 3090 lächerlich.
Bei AMD konnte man die RT Leistung vergessen.

Unterm Strich war am Anfang eigentlich keine einzige Karte, bei der man nicht massiv Abstriche machen musste.
(Außer eben bei einer 3090, die aber mit 1500 Euro jenseits von Gut und Böse für die überwältigende Mehrheit war.)

Durch die Preise wurde dann sowieso alles ad absurdum geführt.

Aber was man bisher hört dürfte man bei der nächsten Generation ein sehr viel runderes Paket erhalten.

Bleibt die große Frage nach den Preisen.

MiamiNice
2022-03-18, 15:42:33
Natürlich fühlen sich jetzt gleich wieder viele beleidigt, aber das ist mir bekanntermaßen völlig egal, daher:

Wenn deine Interpretation stimmen, ist Nvidia - vom obersten Segment abgesehen - IMO deutlich besser aufgestellt als AMD.

Mehr Leistung, früheres Erscheinen, bessere Ram-Mengen.
Dazu kommt immer noch DLSS und eine bessere RT Leistung - um wieviel die besser ist wird man sehen, theoretisch kann AMD die natürlich auch egalisieren.

Bleibt natürlich das Thema: Preis - ein schlechteres Produkt, dass nur die Hälfte kostet kann natürlich das unterm Strich bessere Angebot sein.

Allerdings ist AMD in den letzten 1,5 Jahren ja mit vielem aufgefallen - günstige Preise zählten nicht dazu.

Nvidia hat noch einen weiteren Vorteil. Der neue Navi ist ein Multi Chip Design was für Probleme sorgen wird. Ich schaue mal in die Glaskugel und behaupte das AMD seine Leistung in lang nicht allen Titeln halten können wird. Das selbe schreibe ich NV zu, bei deren ersten MCM Lösung. Selbiges gilt für Intel und galt für den grottigen Ryzen 1 - 2,5.

Der Weg kann nur sein die letzten monolithischen Chips zu kaufen und die anfänglichen Probleme mit MCM zu überspringen.

Ich freue mich jedenfalls auf meinem 13900k und die 4090, werden mich lange begleiten.

Platos
2022-03-18, 17:53:45
Du bist manchmal einfach nur noch lustig :freak:

ChaosTM
2022-03-18, 18:02:06
AMD kann und darf einfach nicht zu gut werden im GPU Bereich, weil das Universum kollabieren würde und das wollen wir doch nicht, oder ?

WedgeAntilles
2022-03-18, 22:10:22
AMD kann und darf einfach nicht zu gut werden im GPU Bereich, weil das Universum kollabieren würde und das wollen wir doch nicht, oder ?
Naja, das kann man 1:1 aber auch auf Nvidia übertragen, wenn sich die manche User hier einen drauf runterholen, dass die Nvidia Karten 600 Watt, 800 Watt und was weiß ich wieviel noch brauchen werden.

Miami begründet es wenigstens und bezieht sich auf potentielle Probleme mit dem Multi-Chip.
Völlig von der Hand zu weisen ist das ja auch nicht.
Wie groß man die Gefahr sieht bleibt jedem selber überlassen, aber das es Probleme geben kann wird ja wohl kaum einer leugnen, oder?

OpenVMSwartoll
2022-03-19, 01:53:30
Probleme kann es immer und überall bei neuen Produkten geben. Bitte höre endlich auf, so ein nüchternes Thema persönlich zu nehmen. Die kolportierten 600 W tauchen immer mal wieder auf. Aber warten wir es einfach mal ab.

ChaosTM
2022-03-19, 01:56:52
Weder AMD noch NV werden dumm genug für alles über 400 Watt sein..