PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erster Überblick zur 5nm Grafikchip-Generation


Leonidas
2021-07-26, 20:18:35
Link zum Artikel:
https://www.3dcenter.org/artikel/erster-ueberblick-zur-5nm-grafikchip-generation

Gast
2021-07-26, 20:58:53
Mir egal.
Ich möchte erstmal im August endlich eine PS5 kaufen, ohne Tage F5-drückend vorm PC hocken zu müssen und ein Gaming-Notebook (3060 wäre schon ausreichend) ohne Mining-Aufpreis zu zahlen. Von größerem NAS habe ich mich erstmal verabschiedet und statt dessen alte HDDs reaktiviert. Absurd, wie auch da nur wegen spekulativem Mining die Preise explodiert sind.

Thomas Gräf
2021-07-27, 01:26:33
Schöner Artikel, danke. Schön zu sehen das es weitergeht mit der Hardware Entwicklung.
Müsste nur die Software Entwicklung wenigstens halbwegs hinterherkommen.
Wieauchimmer, Weihnachten 2022 wird es dann wohl viele nette Grakas geben.

Platos
2021-07-27, 01:49:11
Kann mir das alles kein bsschen vorstellen. Die Zuwächse sind zu absurd hoch (bezogen auf Perfomance). Der Stromverbrauch wäre es im übrigen auch. Und die Leistungsunterschiede von AMD und nvidia wären auch völlig absurd unterschiedlich. Im besten Fall für nvidia (2.0x) und im schlechtesten für AMD (2.5x) würde AMD immer noch +15.7% besser dahstehen. Im besten Fall für AMD (2.7x) und schlechtesten für nvidia (1.9x) würde AMD sogar +31.5% besser dastehen. (laut UHD Perfomance Index).

Das wird so niemals passieren.

Und selbst wenn man das mal missachtet, dann wird man die Perfomance (wie schon im Artikel erwähnt) nur durch extremst hohe Stromverbräuche erreichen können... Und Ampere brachte/bringt ja jetzt schon viele PCs zum Absturz, weil deren Netzteile nicht gross genug dimensioniert sind.

Also entweder es handelt sich hier um 2-3k$ Karten, oder es ist schlicht total unrealistisch. Was werden denn eine 4060 und eine 7600xt an Mehrperfomance haben? Und Stromverbrauch dann 250W? :D

Die Perfomanceprognosen sind aus meiner Sicht viel zu viel hypetrain und dazu auch noch unrealistisch unterschiedlich zwischen AMD und nvidia.

Also ich glaube das erst, wenn ich es sehe.

Orko
2021-07-27, 02:42:50
Eine schöne Zusammenfassung.

Die Gerüchte brodeln, täglich gibt es neue Leaks, und sowohl die Grünen als auch die Roten scheinen mit allem was sie aufbieten können in die Vollen zu gehen. Beste Vorzeichen also.

Ich schätze, die 2022 Generation an Graphikkarten wird auch ein Belastungstest für die Käuferschichten aller Segmente (Mainstream bis Enthusiast), bis zu welchen Limits diese bereit sind bei steigenden Preisen und steigender Leistungsaufnahme mitzugehen.

Nur bei den Blauen ist es momentan viel zu still. Leider. Wenn die Ende 2022 irgendwo bei diskreten Graphikkarten ausser low-cost mitmischen wollen, sollten da doch auch ein paar zeitnahe Leaks auftauchen.

Leonidas
2021-07-27, 06:31:16
Bei Team Blau kann es auch einfach sein, dass die noch zu frisch sind, es daher keine üblichen Leaker-Wege gibt. Spätestens wenn Intel mit den Grafikkarten-Herstellern in Kontakt tritt, wird sich das zeigen, was die zu bieten haben.

Aber ja: Langsam müsste bei Intel DG2 mal was passieren.

The_Invisible
2021-07-27, 09:50:18
Kann mir das alles kein bsschen vorstellen.

Bei mir auch so, da tuckert man die letzten Jahre immer mit mittleren zweistelligen Prozentzuwächsen herum, Releasezeiträume werden länger und auf einmal kommt der Hammer mit 2-3 mal mehr Performance? :freak:

Lasse mich aber gerne überraschen, glaub aber eher dann wird mein 800W Netzteil auch nicht mehr reichen...

WedgeAntilles
2021-07-27, 09:58:36
Kann mir das alles kein bsschen vorstellen. Die Zuwächse sind zu absurd hoch (bezogen auf Perfomance). Der Stromverbrauch wäre es im übrigen auch. Und die Leistungsunterschiede von AMD und nvidia wären auch völlig absurd unterschiedlich. Im besten Fall für nvidia (2.0x) und im schlechtesten für AMD (2.5x) würde AMD immer noch +15.7% besser dahstehen. Im besten Fall für AMD (2.7x) und schlechtesten für nvidia (1.9x) würde AMD sogar +31.5% besser dastehen. (laut UHD Perfomance Index).

Das wird so niemals passieren.

Und selbst wenn man das mal missachtet, dann wird man die Perfomance (wie schon im Artikel erwähnt) nur durch extremst hohe Stromverbräuche erreichen können... Und Ampere brachte/bringt ja jetzt schon viele PCs zum Absturz, weil deren Netzteile nicht gross genug dimensioniert sind.

Also entweder es handelt sich hier um 2-3k$ Karten, oder es ist schlicht total unrealistisch. Was werden denn eine 4060 und eine 7600xt an Mehrperfomance haben? Und Stromverbrauch dann 250W? :D

Die Perfomanceprognosen sind aus meiner Sicht viel zu viel hypetrain und dazu auch noch unrealistisch unterschiedlich zwischen AMD und nvidia.

Also ich glaube das erst, wenn ich es sehe.

Schön zusammengefasst.

Auch "New World" zeigte ja recht eindrucksvoll, was man sich für Probleme einhandeln kann, wenn die Karten völlig am Anschlag sind. Also da, wo sie früher Übertakter hingetrieben haben.

Und das soll noch weiter getrieben werden auf was? 450W? 500W? Noch mehr? Das die Karten dann bei jedem Furz abrauchen?
Systemabsturz / defekte Karten weil bei irgend einem Bauteil auf der GraKa, dem Board, dem Netzteil ein winzig kleines Problem ist und das Bauteil nicht mit 99,9% funktioniert sondern etwas unter Peak-Performance arbeitet?

Die 3090 brauchte nach Release erstmal einen Patch weil es massiv Probleme gab.
New World hat EVGA Karten verrecken lassen.

Wenn die 4090 eines definitiv NICHT braucht, dann ist es noch mehr "auf Kante" nähen.

Ja, ich kenne mich in diesem Bereich 0 aus - aber ich vermute einfach mal, dass noch mal 100 oder 150 Watt mehr die Situation nicht verbessert sondern eben noch mal verschlechtert.

Gast Ritis
2021-07-27, 10:50:42
ihr habt da eine völlig falsche Vorstellung von den Leaks.

Auch Ampere hat mal locker die FP Leistung verdoppelt, nur kommt davon in Gaming FPS nichts an, vermutlich sogar noch schlechter ausgelastet als Vega-FP.

Natürlich können AMD und Nvidia die FP Leistung weiter in die Höhe schrauben, das kostet wenig Energie. Hier ist eher die Chipgrösse limitierend und damit steigender Spannungsbedarf je Takt.

Die Frage ist ob die Daten beim Gaming entsprechend verarbeitet werden können, das ist Software getrieben die Einheiten auslasten zu können. Das Verschieben der Daten on Chip kostet dabei die Energie. Simple Algos mit wenig Nutzdaten schaffen auch die Peak FP Leistung zu demonstrieren.

Die RDNA Dual CU mit shared L1 Cache ist ein gelungener HW-Ansatz die Auslastung zu erhöhen ohne mehr Daten schieben zu müssen, eine triple oder quad CU als WGP liegt da nahe, je nachdem ob der Cache noch schnell genug arbeiten kann und ob dieses im Shader Code honoriert wird. Bei Pixel sollte das mehrheitlich der Fall sein, bei Geometrie weniger. Statt vollwertige CUs könnten das auch wie bei CPUs differenzierte LogikEinheiten je Core werden.

Seit dem IF Cache sollte auch klar sein, dass rd 70% der Datenzugriffe mit den 128MB Cache abgefangen werden können. Wahrscheinlich sind im Gaming bis zu 90% mit grösseren Caches möglich.

basix
2021-07-27, 11:08:51
Zu Alderbaran: Laut Gerüchten sind es FP64 Einheiten (Full Rate FP64) und nicht FP32. Könntest du das in der Tabelle bitte korrigieren?

Leonidas
2021-07-27, 11:42:10
Sind es in voller Menge FP64? Sprich 16384 FP64?

Aus Vergleichbarkeitsgründen wäre dann eher eine Formulierung gut wie:
"16384 FP32-Einheiten (Fullrate-FP64)"

Gast
2021-07-27, 14:43:40
Zu den Leaks: Erstmal sehen, was in Games davon ankommt. Ich hab' die Ampere-Ankündigungen kein Stück mehr geglaubt, nachdem klar war, wie die Steigerung erreicht wurde und habe recht behalten. Irgendwann sind Programmierer vielleicht so weit, dass nutzen zu können.


Lassen wir mal die Spezialfälle mit mutmaßlich zu hohen fps außen vor. Davon sollte eh keine Karte kaputt gehen.

Das Problem sind weder die Grafikkarten oder CPUs an sich, noch die Netzteile an sich.
Das Problem sind die völlig unbrauchbaren Verbrauchsangaben.

Früher war ein Problem, dass kein Hersteller oder Test angab, wie viel Watt man aus dem Slot zog und bei Multi-Rail-Netzteilen ohne brauchbare Beschriftung konnte das daneben gehen.

Heute bekommt man irgendwelche für die PSU-Auslegung völlig sinnfreien 'Typical'-Angaben und wenn man dann GPU-Peak und PL2 gleichzeitig hat, macht es fump. Oder '850W PSU' aufm GPU-Karton, obwohl woanders 1/3 an Verbrauch angegeben ist. Und anderen Bockmist.
Ich habe keinerlei Hoffnung, dass AMD, Intel und Nvidia da jemals wieder hin kommen, dass man Werte im Datenblatt findet, nach welchen man ein Netzteil ernsthaft dimensionieren kann. Bei den PSU steht zumindest bei, wie viel auf 12V statt nur summiert.

Leonidas
2021-07-27, 16:42:43
Zu den Leaks: Erstmal sehen, was in Games davon ankommt. Ich hab' die Ampere-Ankündigungen kein Stück mehr geglaubt, nachdem klar war, wie die Steigerung erreicht wurde und habe recht behalten.

Unbedingt. Gerade bei RDNA3 darf man sich da große Fragezeichen denken.

Gast
2021-07-27, 18:53:33
ihr habt da eine völlig falsche Vorstellung von den Leaks.

Auch Ampere hat mal locker die FP Leistung verdoppelt, nur kommt davon in Gaming FPS nichts an, vermutlich sogar noch schlechter ausgelastet als Vega-FP.

Natürlich können AMD und Nvidia die FP Leistung weiter in die Höhe schrauben, das kostet wenig Energie. Hier ist eher die Chipgrösse limitierend und damit steigender Spannungsbedarf je Takt.

Die Frage ist ob die Daten beim Gaming entsprechend verarbeitet werden können, das ist Software getrieben die Einheiten auslasten zu können. Das Verschieben der Daten on Chip kostet dabei die Energie. Simple Algos mit wenig Nutzdaten schaffen auch die Peak FP Leistung zu demonstrieren.
Naja, AMD könnte das besser Nutzen als NVidia, da RT ja teilweise in den Shadern läuft. Aber ich sehe das ähnlich:
3x so viele Shader als der Vorgänger halte ich schon für sehr viel, aber dann noch zusätzliche Leistung? Woher? Durch höheren Takt? Das würde alles den Verbrauch treiben, und der wird bei 3x Shadern sicher nicht gering sein. Das Ganze muss ja auch irgendwie kühlbar sein und man muss es auch versorgen können... Mehr als 400W wird selbst mit hoher Leistungssteigerung schwierig werden.

Gast
2021-07-27, 19:52:21
Laut TSMC sind mit DWC über 2000W möglich. :uup:

https://www.hardwareluxx.de/images/cdn01/76B48805D0C74EF5B2106935CDB5905C/img/C6970441EC484E48A934116BE303CDEA/TSMC-Si-Watercooling-00007_C6970441EC484E48A934116BE303CDEA.jpg

Gast
2021-07-28, 07:19:16
Naja, AMD könnte das besser Nutzen als NVidia, da RT ja teilweise in den Shadern läuft.


RT läuft bei beiden zu einem signifikanten Anteil in den Shadern. Shader casten Rays, und die Rays starten wiederum weitere Shader.

Ein signifikanter Unterschied ist, dass AMD nicht parallel RT + TEX abarbeiten kann, das eine blockiert das jeweils andere.

Bei Ampere kann alles gleichzeitig arbeiten, bei Turing gibt es auch kleinere Einschränkungen, allerdings nicht mit TEX, sondern aus FP16 + FP32/INT32 + RT kann immer nur jeweils 2 aus 3 gleichzeitig aktiv sein.

Gast
2021-07-28, 08:01:58
Laut TSMC sind mit DWC über 2000W möglich. :uup:

https://www.hardwareluxx.de/images/cdn01/76B48805D0C74EF5B2106935CDB5905C/img/C6970441EC484E48A934116BE303CDEA/TSMC-Si-Watercooling-00007_C6970441EC484E48A934116BE303CDEA.jpg

Haha!

Aber mal ernst, wie will mann diese potenziellen 350/400w+ Karten kühlen? Gibt es noch größere Kühler wie bei der 3090 fe, oder einfach nur noch Wasserkühlung ab Werk mit einem zumindest 360 Rad? Das wird sowohl sehr teuer, wie auch recht umständlich...
Vielleicht wird an sich auf die 4070/7700 konzentrieren müssen.

Gast
2021-07-28, 08:05:46
Die Kühler der meisten hochwertigen rtx 3080/3090 AIB-Grafikkarten können ja bereits 400 W abführen und bleiben dabei noch unterhalb von 80 °C.
Wird bei amd dann halt auch bei 350 - 400 W hinauslaufen.
MCM-Design mit mehreren Dies heißt dann doch dass diese mit Abstand voneinander platziert werden? Ähnlich der zwei Chiplets der Ryzen 5000 Prozessoren?
Sollte somit auch nicht so heiß werden.

Gast
2021-07-28, 13:02:55
Wird bei amd dann halt auch bei 350 - 400 W hinauslaufen.
MCM-Design mit mehreren Dies heißt dann doch dass diese mit Abstand voneinander platziert werden? Ähnlich der zwei Chiplets der Ryzen 5000 Prozessoren?


Wenn uns Ryzen eins gelehrt hat dann das genaue Gegenteil, die CPUs sind extrem schwer zu Kühlen, selbst mit Wasser.
Mit Ryzen ist es kaum möglich ein ∆t unter 50K zu erreichen, während beispielsweise mit einer 2080Ti in ∆t unter 10K überhaupt kein Problem ist, obwohl der Verbrauch der 2080Ti dabei wesentlich höher ist.

Wobei sich das bei den Zukünftigen Grafikkarten doch etwas anders verhalten könnte, weil hier dürfte es sich ja nicht um Minichiplets wie beim Ryzen handeln, sondern durchaus noch um einzelne DIEs von stattlicher Größe.

Gast
2021-07-28, 17:06:21
Haha!

Aber mal ernst, wie will mann diese potenziellen 350/400w+ Karten kühlen?

Mit LN2 natürlich:
https://hexus.net/tech/news/cooling/118817-the-evga-roboclocker-closed-loop-ln2-cooling-system/

Gast
2021-07-29, 17:28:36
Mit LN2 natürlich:
https://hexus.net/tech/news/cooling/118817-the-evga-roboclocker-closed-loop-ln2-cooling-system/

Excellent, dann kann man den alten Gastank im Garten (wenn doch jetzt alles weg von fosillen Brennstoffen weg soll) für ln2 benutzen.