PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13. Juni 2025


Leonidas
2025-06-14, 09:40:38
Link zur News:
https://www.3dcenter.org/news/news-des-13-juni-2025

Dorn
2025-06-14, 10:19:57
PCI Express 4 war gefühlt nur ein Wimpernschlag für mich auf dem Markt und jetzt bleibt es erstmal bei PCI Express 5.
Ich finde Software Seitig aus Spieler Sicht sollte sich jetzt endlich mal was mit Direct Storage tun.
https://steamdb.info/tech/SDK/DirectStorage/

stinki
2025-06-14, 10:31:24
Wenn man sich die aktuelle TSMC Roadmap anschaut, dann kann Zen7 niemals A14 sein.
A14 steht momentan für Ende 2028 auf der Roadmap. Wenn man Ende 2026 ein Tape-Out macht dann ist das bestenfalls A16 oder N2X.
https://semiwiki.com/semiconductor-manufacturers/tsmc/355121-tsmc-2025-technical-symposium-briefing/

FrozenPie
2025-06-14, 10:43:42
So geht man bei Rechenzentren-SSDs zwar von einem Marktstart von PCIe 6.0 im Jahr 2026 aus, bei entsprechender PC-Hardware soll es allerdings erst im Jahr 2023 (!) so weit sein – lange nachdem PCIe 6.0 spezifziert, validiert und einsatzbereit ist.

Ist das Jahr "2023" hier korrekt? Der Satz liest sich eher so als ob es "2033" lauten sollte. Besonders wenn das nachfolgende Zitat von "2030" spricht.

Leonidas
2025-06-14, 11:33:05
Ist das Jahr "2023" hier korrekt? Der Satz liest sich eher so als ob es "2033" lauten sollte. Besonders wenn das nachfolgende Zitat von "2030" spricht.

Typo, korrigiert zu 2030.


Wenn man sich die aktuelle TSMC Roadmap anschaut, dann kann Zen7 niemals A14 sein.

Wo Du Recht hast ... ich habe zumindest ein paar Fragezeichen drangesetzt.

MD_Enigma
2025-06-14, 13:12:26
Das HBM wird echt spannend, was die Kühlung angeht:
https://wccftech.com/next-gen-hbm-architecture-detailed-hbm4-hbm5-hbm6-hbm7-hbm8-up-to-64-tbps-bandwidth-240-gb-capacity-per-24-hi-stack-embedded-cooling/
https://cdn.wccftech.com/wp-content/uploads/2025/06/2025-06-14_15-24-56-728x546.png

Platos
2025-06-14, 14:14:33
Wird sich aber niemals in Consumerhardware befinden. Es gibt ja immer noch keine neue HBM-Karten für Consumer seit 6? Jahren.

Aber technisch natürlich interessant.

Leonidas
2025-06-14, 17:06:51
HBM war teuer von Anfang an - und ist danach nur noch teurer geworden. Das wird in der Tat nie wieder in Consumer-Hardware kommen.

Platos
2025-06-14, 22:35:10
Der Artikel ist aber sehr interessant.

Bei Rubin geht man also von 2 GPU-DIEs aus, bei "Feynman" schon von 4 und 2035 dann von 8 GPU-DIEs (Da man sich vorher auf nvidia bezieht, kann man spekulieren, dass es sich danach auch um nvidia handelt). Dazu bis zu 32 HBM-DIEs, was dann bis zu ~6TB Grafikspeicher ist :D (Ist schon klar, dass das nicht ao bei den Gamingkarten kommt). Die Bandbreite ist auch absurd :D

Auch interessant finde ich die Zeiträume. Feynman ist 3 Jahre nach Rubin angesetzt (2029). Die Generation danach auch 3 Jahre später und die danach auch 3 Jahre später. Ist das ein neuer Zyklus ? Gilt das evtl. auch für GeForce ?

Der Stromverbrauch ist aber auch absurd. Für 2035 wird dieser pro Modul mit 15kW angegeben. Miami Nice' feuchter Traum :D

Aber die Profikarten entfernen sich immer weiter von den Consumerkarte. Leider ist der Speicher auch ein anderer. In ein paar Jahren wird der Anteil am produzierten Grafikspeicher für Consumergrafikkarten nur noch ein Tropfen auf dem heissen Stein sein. Und da dieser ja nicht mal der gleiche ist und knapp verfügbar, würde es sowieso nichts bringen. Also es scheint nicht wie bei HDDs zu sein, dass man mitprofitiert vom hohen Speicherbedarf.

Wahrscheinlich werden wir in dann 2038 mit 128GB beim Topmodell dastehen, während dem die Profikarten schon 10'000x mehr Speicher haben. Vor 10 Jahren hatten die Profikarten noch 2x so viel oder gar nicht mal das.

Wir als Consumer kriegen hald echt nur noch den Abfall :D

Duran05
2025-06-14, 22:42:32
HBM war teuer von Anfang an - und ist danach nur noch teurer geworden. Das wird in der Tat nie wieder in Consumer-Hardware kommen.

HBM ist genau wie BTX eine Todgeburt im Privatsektor.
Es gab ja damals bezahlbare Karten damit und jetzt wären die nicht mehr interessant für den Konsumenten.

Gegenfrage: Warum dann HBM?
Wenn Geld nicht wichtig ist und ich 50000 Euro abdrücken kann dann ist auch ein special selektierter GDDR7 möglich oder 1024 interface! Warum daran sparen??
Wenn Geld keine Ressource ist dann braucht es auch kein 384bit Billiginterface sein.

Die Techniker von heute sind regelrecht - seltsam. Hast du bei Intel schon festgestellt.

iamthebear
2025-06-15, 02:35:56
Wenn man sich die aktuelle TSMC Roadmap anschaut, dann kann Zen7 niemals A14 sein.
A14 steht momentan für Ende 2028 auf der Roadmap. Wenn man Ende 2026 ein Tape-Out macht dann ist das bestenfalls A16 oder N2X.
https://semiwiki.com/semiconductor-manufacturers/tsmc/355121-tsmc-2025-technical-symposium-briefing/

Die Roadmap bezieht sich auf die Massenfertigung. Ein Tape out auf einem Prozess wo noch die Yields getuned werden sollte aber möglich sein.
Die Voraussetzungen dafür sind:
.) AMD arbeitet wie früher apple eng mit TSMC zusammen und bekommt frühzeitig Infos über den neuen Prozess und wartet nicht bis alles fertig ist.
.) AMD entwickelt seine Kerne immer parallel sowohl für den alten als auch den neuen Node und teilt so die Produktion auf. Falls ein Node Schwierigkeiten hat so kann man rechtzeitig die jeweiligen Produkte wechseln.

basix
2025-06-15, 08:31:25
@Leo:
Zen 6 ist definitiv bereits N2(P). Das ist noch falsch in der Tabelle ;)

Bei PCIe kannst du auch gleich 5.0 ranschreiben bei Zen 6 und Zen 7. Gibt mehrere Industriestimmen, die für Consumer erst ~2030 für PCIe 6.0 ins Auge fassen (schreibst du ja auch im Text). Also wohl erst Zen 8 und AM6. Und das ist für mich auch ein Hinweis, dass Zen 7 noch nicht auf AM6 setzen wird. Für was AM6 launchen, wenn kein PCIe 6.0 dabei ist? Um es 2 Jahre später doch zu bringen? DDR6 ist wohl auch nur interessant, wenn man 24+ Cores verwendet und auch dort nur für relativ wenige Anwendungsfälle. Also nur für eine sehr geringe Minderheit interessant. USB4 und Co. wird auch relativ lange leben, und das werden wir mit Zen 6 und dessen Plattform Refresh (IOD, vielleicht auch Chipset) eh bekommen.

Leonidas
2025-06-15, 09:07:19
@Leo:
Zen 6 ist definitiv bereits N2(P). Das ist noch falsch in der Tabelle ;)

Tabelle ist bezogen auf Consumer-Modelle. Und da dürfte Zen 6 noch 3nm sein.

dildo4u
2025-06-15, 09:08:37
@Leo:
Zen 6 ist definitiv bereits N2(P). Das ist noch falsch in der Tabelle ;)


Der 2nm TSMC Teaser kann auch ein Dense Modell sein Zen 5C Epyc wird aktuell mit 3nm gefertigt Consumer 4nm.

https://www.computerbase.de/news/prozessoren/amd-epyc-9005-turin-die-cpus-mit-8-bis-192-starken-zen-5-c-kernen-sind-los.89923/

Platos
2025-06-15, 09:40:11
PCI-E 6.0 brauchts nun aber wirklich kein bisschen im Consumermarkt. Wie schon gesagt wurde, hebt das nur den Stromverbrauch an beim Mainboard. Es gibt ja noch nicht mal einen Unterschied bei PCI-E 4.0 und 5.0 bei grafikkarten, wenn genügend Speicher da ist (und das sollte wohl eher angegangen werden). Bis PCI-E 5.0 bei genügend Grafikspeicher was bringt, wirds wahrscheinlich mindestens 2032 sein und bis PCI-E 6.0 was bringt, wirds wahrscheinlich mindestens 2038 sein.

Leonidas
2025-06-15, 09:55:09
Hebt auch den Stromverbrauch in den CPUs und GPUs an! Das ist dort noch kritischer, weil dort TDP-Limits existieren und somit weniger für die eigentlichen Rechenwerke übrig bleibt.

Rabiata
2025-06-15, 11:31:04
Der Stromverbrauch ist aber auch absurd. Für 2035 wird dieser pro Modul mit 15kW angegeben. Miami Nice' feuchter Traum :D

Aber die Profikarten entfernen sich immer weiter von den Consumerkarte. Leider ist der Speicher auch ein anderer. In ein paar Jahren wird der Anteil am produzierten Grafikspeicher für Consumergrafikkarten nur noch ein Tropfen auf dem heissen Stein sein. Und da dieser ja nicht mal der gleiche ist und knapp verfügbar, würde es sowieso nichts bringen. Also es scheint nicht wie bei HDDs zu sein, dass man mitprofitiert vom hohen Speicherbedarf.

Wahrscheinlich werden wir in dann 2038 mit 128GB beim Topmodell dastehen, während dem die Profikarten schon 10'000x mehr Speicher haben. Vor 10 Jahren hatten die Profikarten noch 2x so viel oder gar nicht mal das.

Wir als Consumer kriegen halt echt nur noch den Abfall :D
Ich denke, wir werden noch erleben daß die "größeren" Profikarten auf Effizienz getrimmt werden und trotzdem 1000W brauchen. Schlicht weil mehrere kW nicht handhabbar sind, die 15 kW erscheinen mir unrealistisch. An anderer Stelle lese ich auch immer wieder, daß die Kühlung einen erheblichen Teil der Kosten von Serverfarmen ausmacht. Noch ein Grund, da sparsamer zu werden.

Und das mit dem Abfall hat der 8auer (sinngemäß) schön gesagt, als er die Pro 6000 reviewt hat: "Sorry 5090-Besitzer, Eure Karte ist der Abfall"

Leonidas
2025-06-15, 13:19:08
Rein psychologischer Punkt. Eine RTX Pro 6000 würde sich nicht rechnen, gäbe es nicht die 5090, womit man die Chipausbeute hochhalten kann. Bei den echten AI-Beschleunigern arbeitet NV nur noch mit abgespeckten Lösungen, da gibt es nirgendwo Vollausbau. Und ich meine damit nicht 2 fehlende CU, sondern gut 10-15% des Chips. Das geht gar nicht anders, wenn man 800mm² Chips verbaut, die auf Power & Performance getrimmt ausgeliefert werden.

Gast Ritis
2025-06-15, 14:09:27
Verona war noch kein öffentlich gemachter Projektname?
Dann wird es wohl jetzt bei Verano bleiben 😄

Leonidas
2025-06-15, 15:46:10
... und dabei hatte der Azubi beim Schreiben der Folie einfach nur an nVidias CPU gedacht: "Vera - no!"

Platos
2025-06-16, 13:11:23
Rein psychologischer Punkt. Eine RTX Pro 6000 würde sich nicht rechnen, gäbe es nicht die 5090, womit man die Chipausbeute hochhalten kann. Bei den echten AI-Beschleunigern arbeitet NV nur noch mit abgespeckten Lösungen, da gibt es nirgendwo Vollausbau. Und ich meine damit nicht 2 fehlende CU, sondern gut 10-15% des Chips. Das geht gar nicht anders, wenn man 800mm² Chips verbaut, die auf Power & Performance getrimmt ausgeliefert werden.

Ich meinte Abfall nicht, weil ein paar Einheiten deaktiviert sind, sondern weil wir die total verkrüpelten/abgespeckten Speichermengen kriegen etc.

Ich denke, wir werden noch erleben daß die "größeren" Profikarten auf Effizienz getrimmt werden und trotzdem 1000W brauchen. Schlicht weil mehrere kW nicht handhabbar sind, die 15 kW erscheinen mir unrealistisch. An anderer Stelle lese ich auch immer wieder, daß die Kühlung einen erheblichen Teil der Kosten von Serverfarmen ausmacht. Noch ein Grund, da sparsamer zu werden.

Und das mit dem Abfall hat der 8auer (sinngemäß) schön gesagt, als er die Pro 6000 reviewt hat: "Sorry 5090-Besitzer, Eure Karte ist der Abfall"

Wenn die Kühlung ja in den Chip wandert, kann man auch besser Kühlen und somit auch deutlich einfacher so viel wärme abführen.

Habs mir mal ausgerechnet: Verglichen mit Rubin (2200Watt bei 21cm2) hat Feynman-next-next dann mit 15360Watt bei 93cm2 ca. 160Watt/cm2 und somit eine 1.6x höhere Energiedichte als Rubin mit 103Watt/cm2.

Also ich halte das schon für möglich, wenn man quasi "Wasserkühlung" IM DIE drinn hat.

Gast
2025-06-17, 09:33:15
PCI-E 6.0 brauchts nun aber wirklich kein bisschen im Consumermarkt. Wie schon gesagt wurde, hebt das nur den Stromverbrauch an beim Mainboard. Es gibt ja noch nicht mal einen Unterschied bei PCI-E 4.0 und 5.0 bei grafikkarten, wenn genügend Speicher da ist (und das sollte wohl eher angegangen werden). Bis PCI-E 5.0 bei genügend Grafikspeicher was bringt, wirds wahrscheinlich mindestens 2032 sein und bis PCI-E 6.0 was bringt, wirds wahrscheinlich mindestens 2038 sein.
Falsch.
Zum einen spielt der Stromverbrauch bei Gaming-Desktops eine untergeordnete Rolle. Zum anderen sind SSDs schon jetzt am Anschlag.
Dass man bei dGPUs besser auf höhere lokale Ausstattung mit RAM setzen sollte, um schwächere Anbindung auszugleichen, ist richtig, gilt aber nicht erst mit PCIe 7.0

Leonidas
2025-06-17, 10:49:50
Zum einen spielt der Stromverbrauch bei Gaming-Desktops eine untergeordnete Rolle

Rein theoretisch ja. Aber bei CPUs & GPUs geht es immer gegen ein festgesetztes Powerlimit. Höhere PCIe-Norm bedeutet weniger Power für die eigentlichen Recheneinheiten. Deswegen will das wohlüberlegt sein. Auf CPU-Seite geht das wohl in Ordnung, auf GPU-Seite weniger.

Rabiata
2025-06-17, 17:27:42
... und dabei hatte der Azubi beim Schreiben der Folie einfach nur an nVidias CPU gedacht: "Vera - no!"
Hätte schlimmer kommen können. Er hätte an Verena denken können :freak:
:weg:

Platos
2025-06-17, 19:47:47
Falsch.
Zum einen spielt der Stromverbrauch bei Gaming-Desktops eine untergeordnete Rolle. Zum anderen sind SSDs schon jetzt am Anschlag.
Dass man bei dGPUs besser auf höhere lokale Ausstattung mit RAM setzen sollte, um schwächere Anbindung auszugleichen, ist richtig, gilt aber nicht erst mit PCIe 7.0

Sagt wer, du? Stromverbrauch am Dekstop ist definitiv nicht irrelevant. Hier gibt es immer wieder Leute, die gerne einen Effizienten PC haben. Bei OEMs ist übrigens Effizienz auch wichtig, da es in Kalifornien Vorgaben dazu gibt

Und bezüglich SSD: Am Limit :D ? Wo ist denn bitte eine PCI-E 5.0 SSD beim Consumer am Limit ? Einerseits davon reden, dass Stromverbrauch unwichtig ist am Desktop, dann aber im gleichen Atemzug davon schreiben, dass PCI-E 5.0 SSDs am Limit sind beim Consumer.

Gast
2025-06-17, 23:48:35
Höhere PCIe-Norm bedeutet weniger Power für die eigentlichen Recheneinheiten.


Das Stromverbrauchsargument ist vollkommen an den Haaren herbeigezogen.
Jede neue PCIe-Norm hat bisher den Verbrauch pro übertragenem Bit gesenkt.
Nicht um die Hälfte, weshalb bei voller Auslastung das Interface durch die doppelte Bandbreite mehr braucht. Nur werden durch ein neues Interface mit mehr Bandbreite nicht automatisch mehr Daten übertragen, und wenn das nicht der Fall ist braucht das neuere Interface auch nicht mehr.

Es macht natürlich auch nicht großartig Sinn viel mehr Bandbreite zur Verfügung zu stellen als überhaupt gebraucht wird, weshalb man es nicht machen wird, schließlich steigen die Herstellungskosten. Für den Verbrauch ist es aber irrelevant.

Leonidas
2025-06-18, 04:01:12
Jede neue PCIe-Norm hat bisher den Verbrauch pro übertragenem Bit gesenkt.

Das ist eine rein theoretische Größe, die rein Interface-bezogen ist. In der Realität läuft das Interface auf vollen Touren, verbraucht (grob) doppelt so viel Saft, trägt aber zur Gesamtperformance der GPU fast nix bei, nimmt aber TDP-Budget mit.

Gast
2025-06-18, 20:22:35
Das ist eine rein theoretische Größe, die rein Interface-bezogen ist.


Nein, keine übertragenen Bits befeuern auch keinen Stromverbrauch, und es werden nicht Random leerbits übertragen nur um das Interface auszulasten.


In der Realität läuft das Interface auf vollen Touren, verbraucht (grob) doppelt so viel Saft, trägt aber zur Gesamtperformance der GPU fast nix bei, nimmt aber TDP-Budget mit.

Erstens ist doppelt so viel Saft eine starke Übertreibung, und zweitens hat PCIe Funktionen um sowohl Datenrate als auch Lanes zu reduzieren wenn nicht die gesamte Bandbreite benötigt wird.

Man baut kein größeres Interface bzw. einen neuen Standard ein, weil es nichts bringt, aber kostet.

Wenn das PCIe-Inferface bzw. genauer der verwendete Standard so böse für den Stromverbrauch wäre, müssten wir regelmäßig PCIe-Skalierungstests sehen in denen Karten Performance gewinnen wenn man den Standard zurückschraubt, und das gab es noch nie.

Leonidas
2025-06-19, 04:37:39
Vielleicht irre ich mich hier tatsächlich. Es läßt sich schwer beurteilen, weil nur wenige harte Fakten vorliegen. Ich muß das ganze offenlassen, bis dazu bessere, genauere Infos vorliegen.

Danke für die Hinweise @ Gast.

greeny
2025-06-20, 22:35:00
Hintertürpflicht für britische Lauscher: WhatsApp will Apple helfe [Heise]
... helfen ;)

Leonidas
2025-06-21, 06:31:46
Danke für die Hilfe!