PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 23./24. April 2022


Leonidas
2022-04-25, 08:18:41
Link zur News:
https://www.3dcenter.org/news/news-des-2324-april-2022

basix
2022-04-25, 09:22:00
Was ist Milan-X? Der wird doch sicher deutlich länger erhältlich sein. Kann doch nicht sein, dass Server plötzlich nicht mehr ersetzt werden können.

Gast
2022-04-25, 10:59:57
4N ist ein weiter N5 Node, mit etwas höherer Leistung und Dichte. Also keine echten 4nm, was immer auch Nvidia selbst darüber schreibt. Würde ja zu der Energiedichte und Verlustleistung passen. Die Angabe der FP32 Einheiten ist schon bei Ampere ein Witz und reines Marketing.

https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm

WedgeAntilles
2022-04-25, 11:07:52
Ich kapiere es nicht.

Der TSMC 4 Prozess dürfte vermutlich einen Ticken besser als der "normale" TSMC 5nm Prozess sein. Wieviel sei dahingestellt, ob das jetzt 5%, 10% oder sonstwas ist.
Soweit habe ich recht, oder?

Der Samsung 8nm Prozess ist etwas schlechter, als der TSMC 7nm Prozess.
Wieviel sei dahingestellt, aber das er schlechter ist, gilt als gesichert.
Habe ich immer noch recht?

AMD setzt das neue MCM Design nur bei den High-End Produkten ein.
Die "normalen" Produkte kommen im herkömmlichen Verfahren.
Für die High-Tech Produkte nutzt AMD TSMCs 5nm.
Für die "normalen" Produkte TSMCs 6nm.

TSMCs 6nm ist schlechter (im Sinne von der Technik, nicht was das Preis-Leistungs-Verhältnis angeht) als TSMCs 5nm.

Habe ich bisher einen Denkfehler?

Also springt Nvidias GPUs vom Samsungs 8nm auf TSMCs 4 (oder nennen wir es "TSMCs leicht verbesserten 5nm Prozess)
AMD springt von TSMCs 7nm auf 5nm (HighEnd) bzw. 6nm ("normale" Produkte)

Korrekt?

Damit ist der Sprung in der Fertigung von Nvidia - vor allem bei den low und midrange Produkten deutlich größer, als der Sprung den AMD macht.
Beim High-End Bereich ist der Sprung etwas größer, aber dafür hat AMD hier das neue MCM Design, das ggf. eine Menge bringt.

Bitte korrigiert mich, falls ich irgendwo einen Denkfehler habe.


Und jetzt meine Frage:
Wie sollen die oben aufgeführten Tatsachen im LowEnd und Midrange-Bereich dazu führen, dass Nvidias Produkte schlechter, langsamer, ineffizienter sein sollen als AMDs Produkte???

Den High-End Bereich nehme ich aus, da ist MCM das große Fragezeichen. Was wir da sehen werden, keine Ahnung.

Aber wo soll bei den "normalen" Karten, die keinen 4-stelligen Betrag kosten, die ach so miesen Lovelace-Produkte herkommen, die jeder - incl. Moore's Law, so herbeisehnt?

Das ist doch völlig absurd?


Damit will ich nicht sagen, dass AMDs Karten Preis-Leistungs-Technisch nicht besser sein können - wenn ich 15% langsamer bin, aber durch günstigere Fertigung 30% preiswerter, kann ich unterm Strich natürlich ein attraktiveres Produkt haben.
Darum geht es ben den "Leaks" und Prognosen aber nicht.
Da geht es um die Technik, Effizienz und so weiter.
(Wobei Moores Law natürlich auch schon vorhergesagt hat, dass AMD auch noch preiswerter wird - was ich, siehe oben, durchaus für möglich halte.)

Ich bin ja wirklich kein Fachmann in diesem Bereich, ganz und gar nicht. Eher im Gegenteil.
Aber der gesunde Menschenverstand muss einem doch zeigen, dass man bei einem erheblich größeren Sprung im Fertigungsverfahren wohl kaum plötzlich technisch deutlich hinten liegen kann?
Das muss doch den Twitterern, Youtubern und Co auffallen?
(Denen ich generell zugestehe, dass sie deutlich mehr Fachwissen in dieser Materie haben dürften als ich.)

Was übersehe ich?
Wo ist meine Logik falsch?

RitterRost
2022-04-25, 11:32:22
Ich denke auch, dass AMD die Server-CPUs mit 3D Cache auch langfristig liefern können muss - genau, wie die anderen Server CPUs. Oder ist ein Zen3 +3D Cache Server Chiplet anders als ein Zen3 +3D Cache AM4-CPU Chiplet? Ich hätte erwartet, dass die 3D-Cache Fertigungslinien (für Server und Consumer CPUs) identisch sind...

Gast
2022-04-25, 11:35:35
Der Samsung 8nm Prozess ist etwas schlechter, als der TSMC 7nm Prozess.


Samsungs 8nm ist deutlich schlechter als TSMCs 7nm, auch Samsungs 7nm ist etwas schlechter als jener von TSMC, erst Samsungs 5nm kann mit TSMCs 7nm gleichziehen



TSMCs 6nm ist sogar schlechter als TSMCs 7nm+ (nicht zu verwechseln mit 7nm) aber günstiger.

[quote]
Also springt Nvidias GPUs vom Samsungs 8nm auf TSMCs 4 (oder nennen wir es "TSMCs leicht verbesserten 5nm Prozess)
AMD springt von TSMCs 7nm auf 5nm (HighEnd) bzw. 6nm ("normale" Produkte)


Wir könnten auch sagen, AMD springt von TSMCs 7nm auf TSMCs leicht verbesserten 7nm.


Damit ist der Sprung in der Fertigung von Nvidia - vor allem bei den low und midrange Produkten deutlich größer, als der Sprung den AMD macht.


So ist es, wobei es mich nicht gänzlich überraschen würde, wenn NV 4N nur > GA104 verwenden würde, und die kleineren GPUs aus einer günstigeren Fertigung kommen.
Andererseits, wenn es sich wirklich um einen extra für NV angepassten Prozess handelt und das mehr als nur Marketing ist würde es sich natürlich anbieten diesen für möglichst viele Produkte zu verwenden.

Troyan
2022-04-25, 12:07:30
Was übersehe ich?
Wo ist meine Logik falsch?

Spielt keine Rolle. Das Hopper auf 4nm Lichtjahre besser ist als MI210 auf 6nm, wird ja auch gekonnt ignoriert. So liefert die 350W PCIe Hopper Karte 600 TFLOPs Matrix FP16 Leistung, AMD steht bei 300W bei 181 TFLOPs. Da Hopper auch die Lichtjahre bessere Architektur hat (50MB L2 Cache gegen 6MB L2 Cache!), reden wir von einer Effizienz von ca. 4x. :eek:

Aber Lovelace soll gegen ein 6nm Produkt verlieren. Kann man sich nicht ausdenken.

maximus_hertus
2022-04-25, 12:15:06
Was übersehe ich?
Wo ist meine Logik falsch?

Die Fertigung ist nur ein Faktor, die Architektur / Takt der andere.

Neueste Fertigung, dafür "kleinere" Chips mit ggf. weniger Einheiten, dafür mehr Takt und voila, fertig ist eine tendenziell weniger effiziente Karte.

Ich bin da auch noch vorsichtig, was Lovelace und RDNA3 angeht.

Siehe RDNA2 Launch. Im Vorfeld war doch jeder skeptisch, 256-Bit Interface beim High End Produkt, wie soll das gehen? Beim Launch wurde dann der Infinity Cache vorgestellt und dieser hatte einen großem impact.

Von daher mache ich mich nicht "verrückt", von der reinen SM Zahl oder sonstige Details, so lange man nicht das Gesamtkonstrukt kennt.


Last, but not least, ein nicht unwichtiger Faktor: Das Ego von Jensen. Am Ende kommt es ihm auf die größe (des Balkens) an, koste es was es wolle. Siehe die Gerüchte von 600W und teils 850W. Das ist sicherlich nicht ursprünglich das Ziel gewesen....


Am wichtigsten: Wait for the Benchmarks! Und den unabhängig gemessenen Stromverbräuchen. Vorher ist alles nur Speku. Die kann, muss aber nicht stimmen. Dazu wird AMD traditionell im Vorfeld überhypt und nV meist unterschätzt.

Troyan
2022-04-25, 12:21:52
Welchen "Impact" hatte bitte der Cache? Die 6700XT mit deutlich besserem Bandbreitenverhältnis hat keine Chance gegen die 3070, die mit 4MB L2 Cache und 256bit Interface daher kommt. Die Mehrbandbreite der großen Ampere Karten ist einzig wegen Raytracing relevant.

Leonidas
2022-04-25, 12:51:19
Ich denke auch, dass AMD die Server-CPUs mit 3D Cache auch langfristig liefern können muss - genau, wie die anderen Server CPUs. Oder ist ein Zen3 +3D Cache Server Chiplet anders als ein Zen3 +3D Cache AM4-CPU Chiplet? Ich hätte erwartet, dass die 3D-Cache Fertigungslinien (für Server und Consumer CPUs) identisch sind...

Der Twitterer sprach mehrfach explizit von Vermeer-X, nicht allgemein von Zen3D. Außerdem liegt die Differenz zum normalen Vermeer sowieso nur im Packaging, die CCDs selber sind gleich.

Ergo: Zen3D im Server könnte tatsächlich länger laufen, Zen3D im Desktop dagegen nicht. Vorläufige Auslegung.

Gast
2022-04-25, 13:03:32
Was übersehe ich?
Wo ist meine Logik falsch?
Auch wenn ich dir früher nicht immer beipflichten konnte. In dem Fall übersiehst du gar nichts, insofern ist es ganz klar so, dass NVidia die klar bessere Ausgangslage hat.

Gast
2022-04-25, 13:35:23
Spielt keine Rolle. Das Hopper auf 4nm Lichtjahre besser ist als MI210 auf 6nm, wird ja auch gekonnt ignoriert. So liefert die 350W PCIe Hopper Karte 600 TFLOPs Matrix FP16 Leistung, AMD steht bei 300W bei 181 TFLOPs. Da Hopper auch die Lichtjahre bessere Architektur hat (50MB L2 Cache gegen 6MB L2 Cache!), reden wir von einer Effizienz von ca. 4x. :eek:
Naja, in FP64 ist die MI210 aber auch gleich schnell als Hopper, NVidia hat halt einen anderen Fokus. FP32 ist für NVidia z.B. nicht so wichtig, daher ist Hopper da sogar langsamer als die MI210. Denn NVidia kann in den Matrix Kernen kein FP32, nur TF32. Die GPUs sind halt auf komplett unterschiedliche Themen ausgelegt (bei NVidia liegt der Fokus auf niedrige Genauigkeiten für AI, AMD hat den Fokus eher auf höhere Präzision).
So ganz nebenbei habe ich auch noch nirgendwo konkrete Leistungsdaten der PCIe Version gesehen. NVidia gibt die Leistung von PCIe und SXM immer gleich an, SXM verbraucht aber schon seit einigen Gens deutlich mehr. Also irgendwo muss es da schon massive Unterschiede geben. Das Interface alleine wird wohl keine 350W ausmachen.
Wobei ich deinem Tenor schon auch zustimme: Die technischen Daten von Ada müssen schon alleine bedingt durch den höheren Sprung bei der Fertigung deutlich bessere Werte für NVidia ergeben. Selbst ein beibehalten der Abstände von Ampere vs. Navi 2x wäre für die neue Generation eher unwahrscheinlich, ein Anwachsen geht eher Richtung Wunschdenken.

Gast
2022-04-25, 14:53:46
Die Fertigung ist nur ein Faktor, die Architektur / Takt der andere.



Wenn man aktuell mit einer deutlich schlechteren Fertigung durch die Architektur trotzdem einigermaßen gut mithalten kann ist es allerdings schwer zu glauben, dass man dann mit gleichwertigere/überlegener Fertigung plötzlich in der Architektur so weit hinten liegen soll.

Gast
2022-04-25, 15:49:57
Kein 5.0? Da werden aber einige sauer sein, weil sie davon ausgegangen sind, dass 5.0 System notwendig sein wird, um keine Nachteile zu haben.
Gibt dem 5800X3D Auftrieb.

maximus_hertus
2022-04-25, 18:23:22
Welchen "Impact" hatte bitte der Cache? Die 6700XT mit deutlich besserem Bandbreitenverhältnis hat keine Chance gegen die 3070, die mit 4MB L2 Cache und 256bit Interface daher kommt. Die Mehrbandbreite der großen Ampere Karten ist einzig wegen Raytracing relevant.

6600XT, 128 bit vs 5700XT, 256bit. Klar, RDNA1 vs 2, aber 128 vs 256 und trotzdem gleiche Eistung. Ohne den Cache wäre das so nicht möglich. Je höher die Auflösung, desto besser für die alte 5700XT, die ab 1440p wieder vorne liegt.

Ohne den Cache würde die 6700XT wohl nicht nur 5-10% hinter der 3070 gelandet sein, sondern eher 20+%.

Der Cache war / ist imo ein wichtiger Baustein für AMD gewesen, damit RDNA2 gut performen konnte und man die Lücke zu nVidia weiter schließen konnte (beachte => weiter schließen, nicht komplett schließen)

Gast Ritis
2022-04-25, 18:29:59
Ich kapiere es nicht.
..

Was übersehe ich?
Wo ist meine Logik falsch?

Zu wenige Parameter berücksichtigt, das ist der Grund.

AMD hatte bei Vega in 7nm von der dGPU zur APU plötzlich 20% Effizienz gefunden wo man zuvor sich immer fragte warum Nvidia so viel besser war. Der Cache war einiges aber nicht alles.
Seit dem war GCN mit fixer 64er Wafefronts je Shaderleistung in etwa gleich effizient wie Pascal. RDNA Nachfolger haben von diesem Knowhow Moment profitiert. Das war Fertigung und Chiplayout, wo Nvidia wohl viel Vorsprung hattte.
Mit Ampere ist Nvidia bei 32er Warps (Wafefronts/Threads) geblieben obwohl die Coreanzahl FP32 verdoppelt wurde. Das war Architektur, die etwas für Ineffizienz in der Auslastung sorgte, du musst im Thread die doppelte FP Leistung auch abrufen können wollen. RDNA hat da die flexible 32er/64er Warps und künftig wahrscheinlich auch 128er, je wie es braucht. Viel mehr macht aber der grosse IF-Cache aus.

Wie das alles in der nächsten Gen bei AMD und Nvidia zusammenreimt ist ohne Detailwissen kaum zu prognostizieren.
Es ist aber nicht nur Fertigungstechnik, auch Chip-Design generell, die Architektur und Cache-Design mit Einfluss auf Speicherinterface, was hier eine Rolle spielt.

Weil AMD suggeriert, RDNA3 würde nochmal ein Sprung wie RDNA2 sein, gehen einige davon aus, dass die effizienter werden als ADA.
Gründe werden der doppelt grosse WGP mit shared Cache sein, RT in den CUs bei Textureinheiten, ein vergrösserter IF-Cache und moderater GDDR-Speicher. Dagegen steht bei Nvidia ADA auch ein deutlicher Zuwachs am Cache, vermutlich weiterhin RT-Einheiten als Block, energieaufwändiger GDDRxy, extra Tensor-Cores ohne viel Nutzen im Gaming.

Dazu kommt dass extrem grosse Chips viel Volt benötigen, da waren schon Zen1-Chiplet gegenüber Intels Core im Vorteil trotz schlechterer Glofo Fertigung. Das Chiplet-Design muss nur mehr Spannung sparen helfen als auf dem Interposer an Watt zusätzlich verbraten wird. Wie sich das auf GPUs übertragen lässt muss man auch abwarten, aber kann auch ein Grund sein.

Troyan
2022-04-25, 18:46:14
6600XT, 128 bit vs 5700XT, 256bit. Klar, RDNA1 vs 2, aber 128 vs 256 und trotzdem gleiche Eistung. Ohne den Cache wäre das so nicht möglich. Je höher die Auflösung, desto besser für die alte 5700XT, die ab 1440p wieder vorne liegt.

Ohne den Cache würde die 6700XT wohl nicht nur 5-10% hinter der 3070 gelandet sein, sondern eher 20+%.

Der Cache war / ist imo ein wichtiger Baustein für AMD gewesen, damit RDNA2 gut performen konnte und man die Lücke zu nVidia weiter schließen konnte (beachte => weiter schließen, nicht komplett schließen)

6700XT mit 192bit und 96mb Cache ist 30% schneller als die 5700XT. Entspricht im Grunde exakt 1:1 dem Takt.

3070 ist 50%+ schneller als die 5700XT mit der selben Bandbreite. :eek:

Der Cache ist vollkommen irrelevant und bringt exakt nüscht.

maximus_hertus
2022-04-25, 19:13:46
6700XT mit 192bit und 96mb Cache ist 30% schneller als die 5700XT. Entspricht im Grunde exakt 1:1 dem Takt.

3070 ist 50%+ schneller als die 5700XT mit der selben Bandbreite. :eek:

Der Cache ist vollkommen irrelevant und bringt exakt nüscht.

Ergo hat AMD Milliarden versenkt und verbaut überall einen nicht kleinen Cache für nichts?


https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/#abschnitt_rdna_vs_rdna_2_in_wqhd

5700 und 6700, beide mit 2000 MHz. Die 5700 hat 448 GB/s, die 6700 384 GB/s. Trotzdem ist die 6700 schneller? RDNA2 hat bei der reinen IPC ja minimal gegen RDNA1 verloren (um beim Takt viel raus zu holen). Ergo kann es gar nicht sein, dass man mit schlechterer IPC (bei gleichem Takt) und mit 64 GB/s weniger Bandbreite auch noch schneller ist?

Gast-On
2022-04-25, 20:13:27
6700XT mit 192bit und 96mb Cache ist 30% schneller als die 5700XT. Entspricht im Grunde exakt 1:1 dem Takt.

Der bei gleichem Budget an Verlustleistung insbesondere dadurch angehoben werden kann, dass es an anderer Stelle Effizienzeinsparungen gibt.

6
3070 ist 50%+ schneller als die 5700XT mit der selben Bandbreite. :eek:

Der Cache ist vollkommen irrelevant und bringt exakt nüscht.
Ca. 70% mehr Transistoren, damit einhergehend eine deutlich höhere Rohleistung, u.a. mehr als doppelt so viele Shader sollten sich auch in der Performance zeigen. Bandbreite ist eine limitierende Größe, aber keine die die Performance an sich steigert.

Daneben ist Bandbreite nicht gleich Bandbreite, spätestens seit dem Einsatz von Kompressionsalgorithmen in Hardware.

Gast
2022-04-25, 20:44:23
Spielt keine Rolle. Das Hopper auf 4nm Lichtjahre besser ist als MI210 auf 6nm, wird ja auch gekonnt ignoriert.
Wieso sollte man das auch nicht ignorieren? Hopper vergleicht man mit MI250X. Wobei Hopper auch da gewinnen sollte.

Rabiata
2022-04-25, 22:41:11
Und jetzt meine Frage:
Wie sollen die oben aufgeführten Tatsachen im LowEnd und Midrange-Bereich dazu führen, dass Nvidias Produkte schlechter, langsamer, ineffizienter sein sollen als AMDs Produkte???

Den High-End Bereich nehme ich aus, da ist MCM das große Fragezeichen. Was wir da sehen werden, keine Ahnung.

Aber wo soll bei den "normalen" Karten, die keinen 4-stelligen Betrag kosten, die ach so miesen Lovelace-Produkte herkommen, die jeder - incl. Moore's Law, so herbeisehnt?

Das ist doch völlig absurd?


Damit will ich nicht sagen, dass AMDs Karten Preis-Leistungs-Technisch nicht besser sein können - wenn ich 15% langsamer bin, aber durch günstigere Fertigung 30% preiswerter, kann ich unterm Strich natürlich ein attraktiveres Produkt haben.
[...]
Was übersehe ich?
Wo ist meine Logik falsch?
Im Low-End und Midrange-Bereich geht es immer, einen größeren Chip zu nehmen und niedriger zu takten, das gibt bessere Effizienz als ein kleinerer, hochgetakteter. Nur im High End, wo schon die größten verfügbaren Chips verwendet werden, geht das nicht.

Rechenbeispiel mit erfundenen Zahlen:
Nvidia hat bei gleicher Chipgröße und gleichem Verbrauch einen 15% Performancevorsprung (100W Verbrauch, 115% Performance).
AMD kann zum selben Preis 30% größere Chips bauen, Performance und Verbrauch skalieren perfekt mit der Größe.

Jetzt geht das AMD Management her und läßt den den 30% größeren Chip bauen. Der hat jetzt erst mal 130% Performance, 130W Verbrauch und kostet gleich viel wie der Nvidia Chip.
Das ist AMD aber zu viel Stromverbrauch, also opfern sie 10% der Performance für Einsparungen beim Verbrauch. Jetzt bleiben noch 130% Performance mal 0,9, also 117%.
Beim Stromverbrauch bringt der kleinere Takt aber mehr als 10% Einsparung. Ein reales Beispiel aus der CPU-Welt. (https://wccftech.com/amd-ryzen-threadripper-3970x-32-core-efficient-monster-cpu-eco-mode-tests/) Man vergleiche den Threadripper 3970X auf 280W mit derselben CPU gedrosselt auf 180W.
Auf 180W läuft er 10% langsamer, braucht aber 35% weniger Leistung.

Das übertragen wir jetzt auf unser Rechenbeispiel zurück:
Der gedrosselte AMD-Chip braucht jetzt noch 130W mal 0,65, macht 85W.
Die AMD-GPU ist jetzt etwa gleich schnell wie die Nvidia, aber verbraucht 15W weniger.

Damit ist die GPU aus der "schlechteren" Fertigung letztlich effektiver, weil der Hersteller die klügeren Kompromisse beim Design gemacht hat. Ich hoffe, der Rechenweg war nachvollziehbar.

Convertible
2022-04-25, 23:19:39
nVidia verkauft derzeit weiterhin viele teure Karten, während AMD (nur mit Ausnahme der Radeon RX 6900 XT) eher stark im mittleren wie "unterem" Preissegment ist.

Um so etwas zu sagen, muss man den ASP, den Nvidia bei der Quartalszahlen sagt mit dem ASP, den AMD bei den Quartahlszahlen nennt, mit einander vergleichen.

Mindfactory ist ein Laden und wenn Mindfactory sich verkalkuliert hat und "zu viele" RTX 3070TI geordert hat, dann reduziert Mindfactory den Preis für seine RTX3070TI und steht bei Geizhals damit an erster Stelle, entsprechend werden sehr viele RTX3070TI bei Mindfactory gekauft:

https://geizhals.de/?cat=gra16_512&xf=9816_03+05+16+-+RTX+3070+Ti

3070TI, niedriegster Preis kommt von Mindfactory

Nun hat sich Mindfactory aber zu wenige RTX3070 geholt und will dort den Preis nicht entsprechend senken, also kommt bei Geizhals Mindfactory erst auf Platz 8, wenn man nach Bestpreis sortiert:

https://geizhals.de/?cat=gra16_512&xf=9816_03+05+16+-+RTX+3070

Entsprechend verkauft sich die RTX3070 bei Mindfactory nicht so gut. Es steht 315 TIs vs. 40 Non-Tis.

Das heißt aber nicht, dass sich das im Gesamtmarkt so verteilt. Nein, die Non-Tis werden einfach bei notebooksbilliger.de und anderen 7 Läden, die vor Mindfactory im Preisvergleich stehen verkauft.

Das heißt, ohne die anderen Läden miteinzubeziehen, kann man gar nicht sagen, wie die Verteilung auf einzelne Modelle bei Verkaufszahlen bei Nvidia und AMD ist, wenn man nur einen Laden betrachtet.

Damit folgt auch, dass man nichts über die ASP von Nvidia und AMD sagen kann, nur weil man Mindfactory betrachtet. Man kann nur sagen, dass Mindfactory bei den höherpreisigen Nvidia-Karten sich gut eingedeckt hat und gute Preise anbietet und daher mehr höherpreisige Nvidia-Karten verkauft.

iamthebear
2022-04-25, 23:53:17
4N ist ein weiter N5 Node, mit etwas höherer Leistung und Dichte. Also keine echten 4nm, was immer auch Nvidia selbst darüber schreibt. Würde ja zu der Energiedichte und Verlustleistung passen. Die Angabe der FP32 Einheiten ist schon bei Ampere ein Witz und reines Marketing.

https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm

Was verstehst du unter "echten 4nm"? Seit Finfet ist die Gatelänge als objektives Größenmerkmal hinfällig und es sind generell alle nm Angaben nur mehr Marketingbezeichnungen.
Was den originalen TSMC 5nm (N5) bzw. 4nm (N4) angeht: Hier ist der Unterschied nicht groß. Bei N4 werden lediglich ein paar Layer mehr mit EUV belichtet. Ob das bei 4N auch der Fall ist wissen wir Stand heute nicht. Ich würde allerdings davon ausgehen, dass Nvidia bei einem neuen Design die beste Fertigung aus der 5nm Klasse nutzt, genauso wie AMD die beste Fertigung aus der 7nm Klasse nutzt (N6).

Was die FP32 Einheiten angeht: Ampere hat 128 vollwertige FP32 Einheiten. Das was Gaming Ampere nicht kann ist die FP32 und INT Einheiten gleichzeitig auslasten. Vom Gaming Lineup war Turing übrigens die einzige Karte, die das konnte. Pascal konnte es nicht, Maxwell konnte es nicht und was zu Kepler oder Fermi Zeiten einmal war, das interessiert glaube ich niemanden mehr wenn er sich jetzt eine neue GPU kaufen will.

Ich kapiere es nicht.

Der TSMC 4 Prozess dürfte vermutlich einen Ticken besser als der "normale" TSMC 5nm Prozess sein. Wieviel sei dahingestellt, ob das jetzt 5%, 10% oder sonstwas ist.
Soweit habe ich recht, oder?

Was ich im Kopf habe sind es 6% Density und in der Größenordnung von 10% Power/5% Performance.

Der Samsung 8nm Prozess ist etwas schlechter, als der TSMC 7nm Prozess.
Wieviel sei dahingestellt, aber das er schlechter ist, gilt als gesichert.
Habe ich immer noch recht?

Hier gibt es zwar keine herstellerübergreifenden Zahlen aber man kann es sich in etwa zusammenreimen:
Laut TSMC Angaben ist N7 ca. 2.5x so sparsam wie 16FF+ (was wohl in etwa den 12FF von Turing entsprechen sollte). Ist Ampere 2.5x so sparsam wie Turing oder Pascal bei selber Transistoranzahl? Ich denke eher nicht. Nunja das was noch fehlt dürfte wohl der Unterschied zwischen Samsungs 8LPP und N7 sein.

AMD setzt das neue MCM Design nur bei den High-End Produkten ein.
Die "normalen" Produkte kommen im herkömmlichen Verfahren.
Für die High-Tech Produkte nutzt AMD TSMCs 5nm.
Für die "normalen" Produkte TSMCs 6nm.

Navi33 ist knapp 1/4 von Navi31 und braucht nur 200W. Da dürfte es egal sein ob nun in N6 oder N5(P) gefertigt. Was zählt ist Navi31/32 und die haben alle relevanten Teile in 5nm.

Also springt Nvidias GPUs vom Samsungs 8nm auf TSMCs 4 (oder nennen wir es "TSMCs leicht verbesserten 5nm Prozess)
AMD springt von TSMCs 7nm auf 5nm (HighEnd) bzw. 6nm ("normale" Produkte)

Ja ich würde sagen bei Nvidia ist es ein 2 Node Sprung im Highend Bereich, bei AMD ist es nur einer.

aber dafür hat AMD hier das neue MCM Design, das ggf. eine Menge bringt.

MCM steigert weder die Perfoemance noch senkt es den Verbrauch. Die Vorteile von MCM sind:
.) Die Yieldraten sind etwas höher und man kann größere Chips bauen als es monolithisch möglich wäre aber mehr als 800mm² in 4nm will ich sowieso nicht mehr bezahlen.
.) AMD kann Dual Sourcing betreiben und muss so nicht überall die knappe 4/5nm Fertigung einsetzen. Nvidia hat das Problem nicht. Die haben bei TSMC knapp 10 Mrd. Vorauszahlung für die 4nm Fertigung geleistet. Das dürfte schon eine eigene Fab sein, die da nur für Nvidia steht.

Und jetzt meine Frage:
Wie sollen die oben aufgeführten Tatsachen im LowEnd und Midrange-Bereich dazu führen, dass Nvidias Produkte schlechter, langsamer, ineffizienter sein sollen als AMDs Produkte???

Es gibt hier mehrere Möglichkeiten:
.) Nvidia hat mit AD104/106 den kleineren Die und kompensiert das. indem sie ihre GPUs sinnlos hochprügeln für die letzten paar Prozent (siehe 3070 Ti).
.) Nvidia hat den L2 verbockt (ähnlich wie damals beim GA100) und bekommt nicht annähernd die Dichte von AMDs Infinity Cache hin.
.) AMD hat es geschafft die restlichen Probleme von RDNA 2 zu beseitigen (ähnlich wie Zen3 vs. Zen2, da gab es auch keinen Shrink aber mehr Performance)
.) Höchstwarscheinlich hat Nvidia sein Driver Overhead Problem unter DX12 immer noch nicht gelöst. Wenn die neuen Karten alle 2x+ schneller sind und Vergleichsbenchmarks unter 4K ohne RT gemacht werden dann wird da die CPU bei Nvidia schon heftig bremsen.

Den High-End Bereich nehme ich aus, da ist MCM das große Fragezeichen. Was wir da sehen werden, keine Ahnung.

MCM sehe ich nicht so sehr als Unbekannte. Eher den L2 von Lovelace bzw. die Frage was in deren SMs wirklich steckt.
Bei RDNA3 ist die Frage, ob die Navi31/32 WGPs dieselben sind wie Navi33. Wenn ja wäre es 3.75x bzw. wenn man den Takt berücksichtigt ca. 3.3x, was deutlich über den Prognosen liegen würde.

Aber wo soll bei den "normalen" Karten, die keinen 4-stelligen Betrag kosten, die ach so miesen Lovelace-Produkte herkommen, die jeder - incl. Moore's Law, so herbeisehnt?

MLID ist ein AMD Fanboy. Er hat zwar gute Quellen aber sein eigenes technisches Verständnis ist bestenfalls mittelmäßig und er zieht oft komplett falsche Schlüsse auch wenn er sich sehr bemüht seine Meinung und die Leaks zu trennen.
Aber ja es kann natürlich sein, dass Nvidia etwas gröber verbockt hat aber nach dem Hinweis von kopite auf die 128FP32 denke ich das nicht mehr.

Aber der gesunde Menschenverstand muss einem doch zeigen, dass man bei einem erheblich größeren Sprung im Fertigungsverfahren wohl kaum plötzlich technisch deutlich hinten liegen kann?

Ganz ausgeschließen würde ich es nicht. Bei Ampere in 8nm dachte am Anfang auch jeder, dass AMD da nie mithalten kann aber die hatten anscheinend doch noch etwas mehr Optimierungspotential als gedacht.

Spielt keine Rolle. Das Hopper auf 4nm Lichtjahre besser ist als MI210 auf 6nm, wird ja auch gekonnt ignoriert. So liefert die 350W PCIe Hopper Karte 600 TFLOPs Matrix FP16 Leistung, AMD steht bei 300W bei 181 TFLOPs. Da Hopper auch die Lichtjahre bessere Architektur hat (50MB L2 Cache gegen 6MB L2 Cache!), reden wir von einer Effizienz von ca. 4x. :eek:

Lässt sich schwer beurteil inwieweit sich die reine Rohleistung in Real World Performance übertragen lässt. Da es in der Richtung auch wenig Reviews bzw. aussagekräftige Benchmarks gibt lässt sich das auch nicht wirklich klären.

Welchen "Impact" hatte bitte der Cache? Die 6700XT mit deutlich besserem Bandbreitenverhältnis hat keine Chance gegen die 3070, die mit 4MB L2 Cache und 256bit Interface daher kommt. Die Mehrbandbreite der großen Ampere Karten ist einzig wegen Raytracing relevant.

Der Impact ist, dass AMD so endlich einmal ihr massives Bandbreitenproblem gelöst haben, das sie schon mindestens seit Vega mitschleppen. Ohne Cache hätte die 6900 XT wohl ähnlich wie die Radeon VII mit sauteurem HBM oder einem 512 Bit Interface kommen müssen.
Dass die 6700 XT gegen die 3070 Ti verliert ist auch relativ klar. Die hat ja auch nur 50% der Shader einer 6900 XT, die 3070 Ti noch 55% einer 3090. Das sind genau die 10% die fehlen.

Gast
2022-04-26, 01:51:43
Kaisers Bart?

Ernsthaft sind die meisten Diskussionen über ungelegte Eier hier irgendwo zwischen absurd und lächerlich.
Konkrete und korrekte Infos oder zumindest fundierte Vorhersagen sind gut und wichtig, weil man damit ggf. Investition abschätzen kann. Aber z.B. ist völlig Banane, was 4N genau ist. Und vieles andere ist genauso wayne.

Leonidas
2022-04-26, 03:51:35
Mindfactory ist ein Laden und wenn Mindfactory sich verkalkuliert hat und "zu viele" RTX 3070TI geordert hat, dann reduziert Mindfactory den Preis für seine RTX3070TI und steht bei Geizhals damit an erster Stelle, entsprechend werden sehr viele RTX3070TI bei Mindfactory gekauft:

Stimmt, an der Stelle kann man sich durchaus (mit der Aussage) irren. Allerdings ist der Zustand bei AMD/NV nunmehr seit mehreren Wochen derselbe. Die Chance auf Irrtum schwindet damit.

WedgeAntilles
2022-04-26, 10:31:11
Danke an rabiata + iamthebear für die Erläuterungen!!

bad_sign
2022-04-26, 13:23:34
Welchen "Impact" hatte bitte der Cache? Die 6700XT mit deutlich besserem Bandbreitenverhältnis hat keine Chance gegen die 3070, die mit 4MB L2 Cache und 256bit Interface daher kommt. Die Mehrbandbreite der großen Ampere Karten ist einzig wegen Raytracing relevant.
Und eine 6900XT mit der gleichen Bandbreite schafft 44% (CB WQHD) mehr Leistung, als die 3070. Der Impact ist ziemlich groß würde ich sagen.
Wenn man mit 3070TI vergleicht, hat man sogar den selben Verbrauch

Gast Ritis
2022-04-26, 13:27:42
MCM steigert weder die Perfoemance noch senkt es den Verbrauch. Die Vorteile von MCM sind:
.) Die Yieldraten sind etwas höher und man kann größere Chips bauen als es monolithisch möglich wäre aber mehr als 800mm² in 4nm will ich sowieso nicht mehr bezahlen.
.) AMD kann Dual Sourcing betreiben und muss so nicht überall die knappe 4/5nm Fertigung einsetzen. Nvidia hat das Problem nicht. Die haben bei TSMC knapp 10 Mrd. Vorauszahlung für die 4nm Fertigung geleistet. Das dürfte schon eine eigene Fab sein, die da nur für Nvidia steht.

Das ist falsch - weil unvollständig.
Der Spannungsbedarf im Verhältnis zum Takt steigt mit der Chipfläche exponentiell an, bzw. der Maximaltakt bei gleicher Voltzahl fällt exponentiell ab mit steigender Fläche.
Deshalb kann trotz schlechterem Design oder Fertigung ein kleinerers Chiplet im MCM höher Takten. Bei geringem Overhead in Chiplet2Chiplet Kommunikation bleibt ein Effizienzgewinn.


MLID ist ein AMD Fanboy. Er hat zwar gute Quellen aber sein eigenes technisches Verständnis ist bestenfalls mittelmäßig und er zieht oft komplett falsche Schlüsse auch wenn er sich sehr bemüht seine Meinung und die Leaks zu trennen.

Auch wenn Du das wiederholst wird es nicht richtig.
Er ist definitiv kein FirmaXY Fanboy und versteht unterm Strich von der Technik offensichtlich auch nicht weniger als Du.

Er kennt sich mit Technologien >10 Jahre nicht aus. Aber sonst ist er offen dazuzulernen. Er hat oft gute Diskutanten, die ihm das ermöglichen.


Der Impact ist, dass AMD so endlich einmal ihr massives Bandbreitenproblem gelöst haben, das sie schon mindestens seit Vega mitschleppen. Ohne Cache hätte die 6900 XT wohl ähnlich wie die Radeon VII mit sauteurem HBM oder einem 512 Bit Interface kommen müssen.

Das ist falsch. Vega hatte kein Bandbreitenproblem wie die Radeon VII gezeigt hatte. Bei der R-VII wurde hauptsächlich von der Latenz profitiert.

Die GCN-Architektur hatte im Vergleich zu Nvidia-Designs lange im L1/L2 Cache zu wenig und die Entwickler hatten zu selten für 64er Wavefronts mit 4xSIMD optimiert, der Overhead bei 4-Takt Verarbeitung ging immer mit verzweigtem Code verloren. Das GCN Design konnte nicht hoch Takten. Taktbereinigt ist man mit Nvidia aber schon auf Augenhöhe gewesen, nur nicht in Effizienz.
RDNA hat genau das beseigtigt. Flexiblere 32er Wavefront für 32SIMD und hoher Takt. Mehr Shared Cache (Skalar Data und Shader Instruction) durch WGP CU-Gruppierung.

Der IF-Cache kam erst mit RDNA2 und kompensiert vor allem den günstigen GDDR, senkt aber auch noch einmal die Latenzen enorm.

Merke: GPU hat den Trend generisches Compute. Shader-Code in Games ist zunehmend "chaotisch" verzweigt. Latenzen werden immer wichtiger.
Bei Shader bzw. Compute Code für HPC ist das nicht der Fall. Da bleibt AMD der GCN-Philosophie bislang treu, breitere SIMD über Takte verteilt. Weniger Aufwand bei Shared Caches. Instruktionen und Daten, die einmal geladen sind, bleiben eher für viele Sekunden gleich.

Gast
2022-04-27, 08:25:26
Es gibt keinen "echten" 4nm, weil N4 keine 4nm ist. Daraus einen Vorteil abzuleiten ist dumm. Kapiert das doch endlich mal, Nvidia ging es darum den Energiebedarf und den Flachenzuwachs geringer zu halten. Das muss nicht immer positiv sein, da grosse Chips eben viel Energie kosten und zusätzliche Leitungwege einen Teil dieses Einheitenzuwachs fressen, stetig ausgelastet sein müssen und dabei viel zusätzliche Verlustleistung erzeugen können, die Leistungszuwachse damit förmlich verpuffen können, was diese Zuwächse dann faktisch wieder egalisiert. Was soll das mit echten 4nm in der Fertigung zu tun haben, den gibt es überhaupt nicht. TSMC wäre auch schon blöd da nun nochmal einen extra Node aufzulegen, für 3% Volumen das Nvidia ausmacht, wo man schon in 3nm fertigen will. Das ist doch kompletter Schwachsinn, was sich die übliche Fanbase wieder aus der Nase zieht.

Was dabei die Leistung angeht, gehen Gerüchte um Ada sei doppelt so schnell, was faktisch der nächste Unsinn ist, nur weil er doppelt so viele FP32 Ausführungseinheiten besitzt, aber deshalb wohl auch doppelt soviel elektrische Leistung aufnehmen muss, aber das SI und dessen Bandbreite nur minimal anwächst. Nvidia bekommt es dann mit dem zusätzlichen Cache gebacken, dies zu kompensieren aber AMD ist mal wieder zu dumm dafür. Er wird wohl bestenfalls bei max +60 liegen und alles andere wird mit massiver Leistungsaufnahme erkauft, wobei das SI limitierten wird, so wie unter RDNA2 in höheren Auflösungen. Man vergleicht sich dabei zu aller erst mal mit sich selbst und nicht, wie das hier ständig getan wird, immer sofort mit der Konkurrenz.

Warum sollte dann Nvidia doppelt so schnell herauskommen und AMD nicht? Das RDNA2 beim Rastern gleichschnell ist, dürfe jedem bekannt sein. RT liegen sie bei 60-80% und in Spielen wo eben nicht massiv auf RTX optimiert wird auch höher, in wenigen Spiele, sind sie sogar schneller.

Ich glaube nicht das RDNA3 schneller wird, eher gleich schnell aber effizienter und auf längere Sicht mit mehr Potential was auch die Entwicklung angeht. Nvidia liefert seit Ewigkeiten nur was müssen mit geringsten Aufwand und sonst nix, für viel Geld. Das hat zumindest bis heute jeder kapiert und schlägt sich mittlerweile auch in deren Absatz nieder. Schneller muss nicht immer besser sein und Mininghardware muss sich nicht maximal für Gamer lohnen. Das ist Nvidia doch mittlerweile auch egal. Gamer ist schon lange nicht mehr deren Standbein. Das man GH202 gestrichen hat bedeutet gleichfalls nichts gutes, zudem muss man sich bei TSMC teuer einkaufen und diesmal gibt es keinerlei Vorschusslorbeeren von Seiten TSMC für Nvidia, was seine Gründe hat. Noch in der letzten Gen platzten die Verträge und schrieb TSMC wegen Nvidia rote Zahlen in die Bücher. ADA wird vor allem eins, energiehungrig und teuer.

AMD zeigte schon mit RDNA2 das es auch anders geht. Mit schnödem gddr6. Was letztlich auch dazu führt das sie mehr Marge generieren als je zuvor, was sie sicher in die Fortentwicklung stecken. Blödsinnige UVPs zu denen man Hardware gar nicht fertigen kann, helfen da wenig. Wenn NVidia das über deren Knebelvertragsmodell in homöopathischen Dosen bei der FE Referenz so auslebt, gilt das noch lange nicht für ihre Partner.

Ada wird dies alles auf die Spitze treiben, weil man AMD massiv unterschätzt hat. Hochmut kommt vor dem Fall. Ob dabei ein Gh100 eine MI oder Arcturus+ schlägt ist doch völlig Wurscht. Beide eigenen sich nicht zum Spielen und damit auch deren Architekturansatz nicht.

Mich erinnert Ada daher eher an einen Supergau.

Gast
2022-04-27, 12:15:38
AMD forscht nun seit Jahren an IF Caches, begonnen mit Vega und Zen, aber na klar - sie sind zu blöd das unter RDNA3 sinnvoll weiterzuentwickeln. Das kann nur Nvidia (was für eine Lachnummer). Eher wird es umgekehrt sein. Nvidia muss das erstmalig implementieren, weil sonst der Energieverbrauch explodiert (arroganterweise behaupteten sie noch vor Kurzem, sie brauchen es nicht und kupfern es nun ab! - wie immer übrigens [ala DX12], wo sie sich überall einkaufen um die eigene Hardware supporten zu lassen, anfänglich aber behaupteten man braucht kein DX12, oder schlichtweg kopieren weil von denen selbst nicht viel kommt) und wieviel schrottiges Zeugs sie von RTX (ala DXR) und DLSS veröffentlich veröffentlich haben - seit Turing und angefangen bei BF5, also auf den Markt geworfen haben um es immer wieder abzuändern - ist eigentlich ein komplettes Desaster.

Die dürfen das zig mal anpassen und AMD muss dann gleich in erster Iteration schneller sein als Nvidia, weniger verbrauchen, mehr Speicher bieten, es muss besser aussehen und vor allem billiger sein. AMD ist ja eh nur so eine Hinterhofbude, wo alle keine Ahnung haben was sie da gerade machen. Sonst kauft man lieber diesen grünen R*tz, an dem sie jahrelang umher doktern, ohnen Ergebnis, keine wirkliche Lösung für viele Probleme findend und die Spieler mit Gequatsche hinhalten... vor allem bei absoluten Mondpreisen, in ihrem proprietären grün beleuchteten Glashaus. Teurer ist ja wegen des Alleinstellungsmerkmal immer besser ist. Doppelmoral vom Feinsten!

Ich bin ja gespannt was passiert wenn herauskommt das DLSS auch nur eine Deeplearningseifenblase ist, die niemand braucht, weil es spatial über die Shader genausogut möglich wäre und es auf älterer Hardware ausreichend lauffähig ist (Hinweise gibt es ja genug). So wie eben schon GSync und PhysX nur firmeninternes Geblubber war, weil es schon open source Konkurrenzprodukte gab und gibt, die Entwickler auch immer mehr annehmen. Dabei fegt Nividia auch liebendgerne skrupellos durch die eigenen Reihen, um zu verhindern das Vorgängergens eben diese Vorteile nutzen können und zwingt damit seine Kundschaft zum immerwährenden Neukauf. Oder aber benennt es, wenn es nicht mehr anders geht, weil man es implementierten muss und open source Technologie der Konkurrnez gut funktioniert, bereits erfolgreich über existierende Standards angenommen wird - mit grünen Phantasieeigennamen wie Gsync Compatible oder NIS (ein Witz ist das). Dr*cksladen...bleibt mir mit dieser grünen Zecke weg, die eigentlich kein Mensch braucht!:freak:

WedgeAntilles
2022-04-27, 15:34:28
Dr*cksladen...bleibt mir mit dieser grünen Zecke weg, die eigentlich kein Mensch braucht!:freak:

Du solltest dir IMO ernsthaft überlegen, ob du nicht professionelle Hilfe brauchst.