Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 12. September 2025
Leonidas
2025-09-13, 08:44:24
Link zur News:
https://www.3dcenter.org/news/news-des-12-september-2025
stinki
2025-09-13, 10:09:48
Zum PS6 Chip:
Er soll 160-bit Interface haben, nicht 192-bit.
Dann kommt das auch mit 30GB (10x3GB) oder 40GB (10x4GB) Speicher hin.
160x32Gbps/8 = 640GB/sec
Leonidas
2025-09-13, 10:14:02
Sorry, meinerseits einfach falsch abgeschrieben. Zu sehr geeicht auf die 192-Bit-Interfaces des PC-Bereichs. Gefixt.
Gast Ritis
2025-09-14, 06:25:09
Also RDNA4 hat grob das 2-2.5 fache an RT Berechnungen von RDNA2, mit Windows. Erwartet werden darf mehr als eine Verdopplung von RDNA5 RT Performance bei PS6. Nur ist zum einen die PS5 ohnehin in RT deutlich performanter als RDNA2 unter Windows und man kann schlecht einschätzen ob AMDs und Sonys Ziele dort mit oder ohne Redstone Kniffe angepeilt werden.
Es ist aber auch egal wie viele Cores oder CUs am Ende für die Ausbeute geopfert werden. Die Richtung und Gewichtung ist erkennbar genug.
ZenC ist deutlich anders als ZenP, nir die ISA ist gleich so wie die Caches bis L2.
Aber man muss halbe AVX512 Leistung erwarten, höhere Dichte bzw kleinere Fläche und viel bessere Performance/Watt zu Lasten möglicher Takt- und FPS-Rekorde, die auf Konsole eh nun wirklich niemand braucht.
Viel wichtiger ist aber der Leak unter Berücksichtigung des PS6 Handheld Leaks. Hier werden für FullHD und 4k Gaming neue Leitplanken gesetzt.
nagus
2025-09-14, 08:15:59
sehe ich das richig, dass dieser nVidia Rubin CPX nichts anderes ist als der Rubin Gaming Chip? Also eine 6090er quasi der Ende 2026 kommen soll? Warum wird in der KI-Welt gerade so ein "Theater" gemacht wegen dem Chip? Ist ja nicht so, dass ein AT0 (RDNA5) auch mit 128BG kommen soll laut Gerüchteküche: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RDNA-5-Monster-mit-128-GiByte-GDDR7-1478240/
dildo4u
2025-09-14, 08:27:24
Das Problem ist der Software Stack nicht die Hardware 355X Konkuriert z.b mit Last Gen Nvidia.
https://www.computerbase.de/news/grafikkarten/neue-mlc-inference-benchmarks-nvidia-gb300-uebernimmt-und-auch-amds-mi355x-debuetiert.94242
Daher gibt es mher Hype für Nvidia bis sich das Grundlegend ändert.
ENKORE
2025-09-14, 10:03:57
sehe ich das richig, dass dieser nVidia Rubin CPX nichts anderes ist als der Rubin Gaming Chip? Also eine 6090er quasi der Ende 2026 kommen soll? Warum wird in der KI-Welt gerade so ein "Theater" gemacht wegen dem Chip? Ist ja nicht so, dass ein AT0 (RDNA5) auch mit 128BG kommen soll laut Gerüchteküche: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RDNA-5-Monster-mit-128-GiByte-GDDR7-1478240/
Weil's bei AIAIAI für alles nen Hype gibt.
Platos
2025-09-14, 10:24:03
Na hoffentlich kommen dann 40GB Speicher bei der PS6.
Leonidas
2025-09-14, 10:24:52
sehe ich das richig, dass dieser nVidia Rubin CPX nichts anderes ist als der Rubin Gaming Chip?
Vermutlich geht Rubin CPX ganz nahe dran an einen Gaming-Chip, wird dafür aber dennoch nicht verwendet. Primäre Gründe:
- vielleicht nicht sichtbare Anpassungen an die gestellte Aufgabe (KI-Inference, nicht Gaming)
- mit 192 SM nicht dicker als GB202
Das Ballyhoo kommt aber primär wegen "AIAIAIAI" ;)
basix
2025-09-15, 11:51:45
Ob GR202 nur wenig auf GB202 drauflegt hängt von vielen Faktoren ab:
IPC? z.B. wie schlagen die 1.33x ROPs durch? Mit so stark erhöhter Tensor-Core Performance sowie HPC Use-Case wird man TMEM (Tensor Memory), TMA (Tensor Memory Accelerator) sowie vermutlich verdoppelten L1-Cache (256kByte anstatt 128kByte) einführen. Insbesondere ein grösserer L1$ würde auch für Gaming und Raytracing von Vorteil sein
Takt? N3P dürfte gut was bringen
Doppelt so breite SM (Vektor-Units)? Nicht sehr wahrscheinlich, in N3P aber evtl. machbar
Ich würde da noch nicht viel reinlesen, auch wenn die Anzahl SMs nicht steigen sollte und der Fokus KI nochmals verstärkt wird. So Dinge wie DLSS (SR, FG, RR) dürften mit erhöhter Inferencing-Performance auch beschleunigt werden. Aber wenn man noch weiter schaut kommt mit Neural Rendering in der Tat noch deutlich mehr auf uns zu, wo primär KI relevant ist (NTC, NRC, GATE, ...) und nicht FP32 Vektor-FLOPS.
Dass man 16 Raster-Engines verbaut, hat mMn schon einen Gaming Chip zum Ziel. Evtl. nicht primär, aber man kann darauf Spielen. Rasterizer braucht es wegen folgendem Thema: 2D/3D Gaussian-Splatting. Mehr Rasterizer heisst mehr Acceleration :)
Nvidia integriert mMn vermutlich neu Gaussian-Splatting Acceleration in ihren Rasterizer https://research.nvidia.com/publication/2025-06_gaurast-enhancing-gpu-triangle-rasterizers-accelerate-3d-gaussian-splatting
Intel Paper, welches 2D-Gaussian Splatting enorm vorwärts bringt https://www.sdiolatz.info/publications/00ImageGS.html
Allgemein werden sehr viele Paper rund um Gaussian-Splatting veröffentlicht
Hat man hier einen Chip mit Gaussian-Splatting Acceleration, gäbe das nochmals einen enormen Schub in Richtung Neural Rendering (wo Nvidia eh hin will)
Man muss sich schon im Hinterkopf behalten, dass insbesondere der grösste Gaming-Chip auch viele professionelle Anwendungen abdecken wird und eine Erweiterung der Tensor-Cores eine relativ kleine Sache ist, verglichen mit dem restlichen Chipdesign.
ML/AI (lokal oder PCIe Server)
ML/AI (NVLxxx HPC)
Render-Farmen (Pathtracing)
Neural Rendering generell (z.B. 2D/3D Gaussian-Splatting)
CAD & Workstations
Mit Ozaki Scheme 1/2 könnte man evtl. sogar Scientific Computing massiv beschleunigen (FP64 DGEMM Emulation via INT8 Tensor Cores). Nvidia baut gerade Libraries dafür: https://developer.nvidia.com/blog/nvidia-top500-supercomputers-isc-2025/#tensor_cores_for_science%C2%A0. Sehr interessant für alle, welche FP64 benötigen aber CPUs zu langsam & teuer sind und sich auch A100/H100/B100/R100 mit HBM nicht leisten können.
Robotics
AR/VR/Digital-Twin Visualization
...
Last but not least Gaming Top Dog als einer der vielen Use Cases
Edit:
Ach ja, bei ~2.5 GHz und der Tensor-Core-Breite von Datacenter Blackwell (20 PFLOPS FP4 bei 148 SM und ~2.1 GHz Takt) erreicht man ziemlich genau 30 PFLOPS FP4 (1.5x von B200). Da haben wir also schon mal die Blaupause für den SM-Aufbau (Tensor-Core Breite und Caches). Evtl. sind die 2.5 / 2.1 GHz Takt auch ein Indiz für die Taktratensteigerung beim Gaming Chip (~1.2x).
reaperrr
2025-09-15, 15:56:24
Vermutlich geht Rubin CPX ganz nahe dran an einen Gaming-Chip, wird dafür aber dennoch nicht verwendet. Primäre Gründe:
- vielleicht nicht sichtbare Anpassungen an die gestellte Aufgabe (KI-Inference, nicht Gaming)
- mit 192 SM nicht dicker als GB202
Auch Nvidia verbrät ungern zwei Mal hunderte Millionen (oder gar ein paar Milliarden) für Design, Tape-Out, Masken usw., nur um nen extra Gaming-Chip aufzulegen.
Das ist zu 99.99999999% schlicht der GR202, den wir auch in der 6090 sehen werden.
Zu bedenken, warum es nicht mehr SM gibt:
Nvidia macht VIEL mehr Geld mit AI, Gaming-Varianten sind nur noch Zubrot, und die neuen SM werden sicher einige low-precision Formate jetzt mit doppelter Rate beschleunigen, oder TensorCores wurden schlicht verdoppelt
33% mehr GPCs bedeutet auch 33% mehr Primitive Pipes/Geometrie-Durchsatz, 33% mehr ROPs (inkl. Z/Stencil-Test-Rate), potentiell bessere Auslastung duch weniger SM je GPC, also potentiell merkliche pro-Takt Leistungssteigerung in Games selbst wenn die SM unverändert blieben.
wir wissen nicht, welche IPC-Verbesserungen an den SM vorgenommen wurden, aber mindestens mehr L1 Cache und schnelleres RT kann man sicherlich erwarten
bei der 6090 könnten ja mehr als 170 SM aktiv sein (obwohl ich nicht mit mehr als 176 rechne)
Takt skaliert allgemein besser als mehr Einheiten, ~15-20% mehr Takt könnten ähnlich viel bringen, wie 25-33% mehr SM gebracht hätten.
selbst N3P bringt nicht soooo viel Platzersparnis oder elektrische Verbesserung ggü. N4. Kann sein, dass der Prozess für z.B. 256 SM schlicht nicht genug Spielraum bringt, zumal mehr SM dann auch schlechtere Ausbeute und weniger Takt bedeuten würden.
5090 ist eh schon selbst mit nem 9800X3D nicht selten teils ordentlich CPU-limitiert, solange NV dahingehend nichts gravierendes verbessert hat, bringt sehr viel mehr Gaming-Leistung eh nur noch am allerobersten Ende (RT, PT, >4K) entscheidend was.
AMD wird zumindest nichts Größeres haben, und selbst wenn AT0 irgendwie ca. Gleichstand schaffen sollte, kaufen die meisten doch eh wieder Nvidia.
Leonidas
2025-09-16, 07:25:14
Diese Möglichkeit ist nach wie vor nicht von der Hand zu weisen.
@basix: Das Thema kann echt interessant zu sein/werden!
Die sehr starren Ansätze von reinem Ray Tracing oder Rasterization verschwimmen ja eh schon aber mit AI wird sich da noch einiges ändern können/müssen. Aktuell wird es ja "nur" nachgeschaltet", aber theoretisch bräuchte man ja "nur" per Ray Tracing die korrekte Geometrie bestimmen und daziwschen mit "Leben füllen".
Alos so in der Art: Zeichne Auge
- linke Ecke bei Pixel (457/1023)
- rechte Ecke bei Pixel (4937/1021)
- Farbe blau
- 53 % geöffnet
Und die KI "zeichnet" das eigentliche Auge dazwischen. Die Genauigkeit, die KI bei Bildern jetzt schon liefern kann ist erstaunlich, es fehlt halt noch die Möglichkeit das gezielt mit korrekter Geometrie zu koppeln, um live bewegte korrekte Bilder zu erzeugen.
Und die KI "zeichnet" das eigentliche Auge dazwischen. Die Genauigkeit, die KI bei Bildern jetzt schon liefern kann ist erstaunlich, es fehlt halt noch die Möglichkeit das gezielt mit korrekter Geometrie zu koppeln, um live bewegte korrekte Bilder zu erzeugen.
Das wäre aktuell sinnbefreit, die KI könnte das machen, würde aber dabei ein Vielfaches an Ressourcen benötigen als einfach das Auge herkömmlich zu rendern.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.