PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zur GTC 2026


Daredevil
2026-03-15, 12:30:35
Moin!

Morgen startet die GTC, die führende globale KI-Konferenz für Entwickler, Forscher und führende Wirtschaftsvertreter, um die nächste Welle der KI-Innovationen zu erkunden. Von physischer KI und KI-Fabriken bis hin zu agentischer KI und Inferenz wird die GTC 2026 die Durchbrüche präsentieren, die jede Branche prägen.

Ich habe Claude mal bemüht, dass er eine Übersicht über die Erwartungen des Inhalts zusammen fassen soll, was es dann tatsächlich wird, werden wir Morgen Abend ab 19 Uhr live erwarten. Habe mir Popkorn geholt und freue mich extremst drauf, wie die Halle wieder beben wird. :D

https://s1.directupload.eu/images/260315/ct76ztwy.png

Mfg DD

Daredevil
2026-03-16, 18:59:42
Geht gleich los! :popcorn:
jw_o0xr8MWU

Daredevil
2026-03-16, 19:31:46
DLSS 5 Infuses Pixels With Photoreal Lighting and Materials to Bridge the Gap Between Rendering and Reality
https://nvidianews.nvidia.com/news/nvidia-dlss-5-delivers-ai-powered-breakthrough-in-visual-fidelity-for-games

https://s1.directupload.eu/images/260316/x93vy8zs.png

https://s1.directupload.eu/images/260316/45ycwrav.png

https://s1.directupload.eu/images/260316/9ru8euby.png

https://s1.directupload.eu/images/260316/nvuevken.png

https://s1.directupload.eu/images/260316/ranjx48q.png

https://s1.directupload.eu/images/260316/u6ikr6bk.png

Daredevil
2026-03-16, 20:22:59
The more you buy, the more you save

https://s1.directupload.eu/images/260316/dx435siw.jpg

mocad_tom
2026-03-16, 20:24:26
Was für eine Shitshow

Lyka
2026-03-16, 20:27:01
ja geil, die photorealistischen Bilder sehen nun genauso aus wie Sora-basierter AI-Slop :uup:

mocad_tom
2026-03-16, 20:33:14
Er will übers Netzwerk so schnell von SRAM zu entferntes SRAM zugreifen, dass das schneller ist als der Zugriff auf lokales HBM.

Was für eine Shitshow auf der Bühne.

Der will gar nicht, dass die Leute im Publikum ein bisschen Peil von den Latenzen auf HBM und Netzwerk haben.

Exxtreme
2026-03-16, 20:39:46
ja geil, die photorealistischen Bilder sehen nun genauso aus wie Sora-basierter AI-Slop :uup:

Das ist eine sehr frühe Preview. Kann sein, dass das noch besser wird.

ChaosTM
2026-03-16, 20:43:59
ja geil, die photorealistischen Bilder sehen nun genauso aus wie Sora-basierter AI-Slop :uup:


tun sie zwar noch nicht, aber wir kommen dem immer näher..


Das ganze DLLS Zeugs ist nur eine schnellere Subform..

Daredevil
2026-03-16, 20:44:45
KI Bildgeneration wird mit drei wichtigen Faktoren verbessert. Daten - Performance - Modelle. Alle drei Fakten werden enorm beschleunigt, das "AI Jahr" ist nur wenige Monate lang, da gibt es dann schon den nächsten Meilenstein.
Das was wir dort sehen und was nicht komplett beschissen aussieht, sondern in Realtime sehr beeindruckend, ist das schlechteste Neural Rendering, was wir jemals sehen werden.
Die Richtung war schon seit Jahren klar, jetzt sieht man die Zukunft des Gamings halt zum ersten mal in richtigen Spielen zu sehen und die Beschleunigung an Qualität wird Genaus so enorm sein, wie es DLSS 1-4 gezeigt hat.

GXpTyq-YbPM

t50AdVMuxZE

https://s1.directupload.eu/images/260316/fjqqt26g.png

https://s1.directupload.eu/images/260316/ofo5men4.png

Daredevil
2026-03-16, 20:53:34
Nicht mehr nur GPUs: Nvidia Groq 3 LPU erhöht Inference-Durchsatz massiv
https://www.computerbase.de/news/grafikkarten/nicht-mehr-nur-gpus-nvidia-groq-3-lpu-erhoeht-inference-durchsatz-massiv.96549/

GPU + LPU
https://s1.directupload.eu/images/260316/c4z9fr7j.png

Daredevil
2026-03-16, 21:03:20
AI Datacenter in Space

https://s1.directupload.eu/images/260316/poqgu5zi.png

Daredevil
2026-03-16, 21:05:13
OpenClaw for Nvidia = NemoClaw

https://s1.directupload.eu/images/260316/egplmz9q.png

Troyan
2026-03-16, 21:11:02
Samsung produziert Groq. Hoffentlicht ein gutes Zeichen, dass nVidia in Zukunft wieder mehr andere Hersteller nimmt als nur TSMC.

Daredevil
2026-03-16, 21:17:42
Nemotron 3 Super in OpenClaw :eek:

https://s1.directupload.eu/images/260316/7nfj4hpc.png

ChaosTM
2026-03-16, 21:17:45
Data Center in Space ist natürlich völliger Unsinn

Daredevil
2026-03-16, 21:19:42
Nvidia and Partners build World Class Open Source Models

https://s1.directupload.eu/images/260316/ctnvh3y5.png

Sonyfreak
2026-03-16, 21:33:22
DLSS 5 Infuses Pixels With Photoreal Lighting and Materials to Bridge the Gap Between Rendering and Reality
https://nvidianews.nvidia.com/news/nvidia-dlss-5-delivers-ai-powered-breakthrough-in-visual-fidelity-for-games

https://s1.directupload.eu/images/260316/x93vy8zs.png

https://s1.directupload.eu/images/260316/45ycwrav.png

https://s1.directupload.eu/images/260316/9ru8euby.png

https://s1.directupload.eu/images/260316/nvuevken.png

https://s1.directupload.eu/images/260316/ranjx48q.png

https://s1.directupload.eu/images/260316/u6ikr6bk.pngSieht aus meiner Sicht absolut beeindruckend aus. Ich bin gespannt was die fertige Version von DLSS5 leisten kann und wie gut das auf aktuellen Grafikkarten läuft.

mfg.

Sonyfreak

Daredevil
2026-03-16, 21:35:30
Nvidia Keynotes ohne Cringe Momente wären halt auch Unsinn. ;D

https://s1.directupload.eu/images/260316/8i2684b9.png

https://s1.directupload.eu/images/260316/62ooe848.png


btw.

Hands-On With DLSS 5: Our First Look At Nvidia's Next-Gen Photo-Realistic Lighting
4ZlwTtgbgVA

crux2005
2026-03-16, 21:41:37
Ich würde mich so weit auf dem Fenster lehnen und sagen DLSS5+ wird der Hauptgrund um die nächste RTX Gen. zu kaufen. Das wird auf RTX 6000 deutlich schneller und effektiver laufen als auf RTX 5000. In der Hinsicht ist DLSS5 ~so ein Sprung wie DLSS/2 vor Jahren.

Daredevil
2026-03-16, 21:50:30
Neural Shader sind erstmals in Blackwell verbaut worden und diese wurden soweit ich weiß noch überhaupt gar nicht genutzt. Das hat jeder Blackwell Käufer mitgezahlt, insofern ist es natürlich auch ein Ankerfeature dieser Generation. Wie ich ja bereits im Blackwell 5090 Thread sagte, sind nicht die +30% Mehr Leistung entscheidend, sondern die AI Leistung und die AI Features und deswegen wird Blackwell ziemlich gut reifen, auch wenn eine 5090 "nur" 30% schneller war als eine 4090. AI/Software > Hardware. Wir sind in 2026 und Nvidia ist eine AI Company.

Neural Shader sollen übrigens nicht nur toll aussehen, sondern laut Nvidia auch die Performance boosten und Speicher sparen. :)

NVIDIA RTX Neural Shaders sind eine neue Grafiktechnologie, die kleine KI-Netzwerke direkt in programmierbare Shader integriert – also in die Programme, die auf der GPU laufen und bestimmen, wie Pixel, Licht und Materialien gerendert werden.

Was steckt dahinter?
Im Kern bedeutet „Neural Shading", dass Teile der Grafik-Pipeline trainierbar gemacht werden. Dabei werden kleine neuronale Netzwerke direkt in Shadern ausgeführt, parallel zur restlichen Rendering-Pipeline. Die Technologie ist Teil des NVIDIA RTX Kits, das mit den GeForce RTX 50-Series-GPUs (Blackwell-Architektur) eingeführt wurde, und nutzt die Tensor Cores der GPU für KI-Berechnungen.

Wofür werden sie eingesetzt?
RTX Neural Texture Compression – KI komprimiert Tausende von Texturen in weniger als einer Minute und reduziert den Textur-Speicherbedarf um bis zu 8x gegenüber herkömmlicher Kompression.

RTX Neural Materials – KI komprimiert komplexen Shader-Code für mehrschichtige Materialien (z. B. Porzellan, Seide) und macht die Materialverarbeitung bis zu 5x schneller, sodass filmartige Assets in Echtzeit gerendert werden können.

RTX Neural Radiance Cache (NRC) – KI lernt indirektes Mehrfach-Lichtstreuen und kann dadurch unendlich viele Lichtsprünge simulieren, was bessere Path-Tracing-Beleuchtung bei höherer Performance liefert.

Wie funktioniert das technisch?
Neuronale Netzwerke eignen sich besonders gut für Kompression, Approximation und Generalisierung – einmal trainiert, handeln sie auch unvorhergesehene Variationen ab. Ermöglicht wird das durch sogenannte Cooperative Vectors – ein neues GPU-Feature, das Tensor Core-Beschleunigung für KI-Berechnungen direkt innerhalb von Game-Shadern bereitstellt.

crux2005
2026-03-16, 21:58:15
Aber wir wissen doch sehr gut wie solchen 1. Gen. Implementierung sind = meistens nur etwas mehr als proof of concept und erst die 2. Gen ist zu gebrauchen. Wird DLSS5 auf Blackwell laufen? Sicher. Wie gut/schnell etc. ist eben die Frage. Bei flüssigen Bildern/s IMHO nicht so "hübsch" wie auf den Vergleichsbildern. Dafür wird die nächste RTX Gen. nötig sein.

Relex
2026-03-16, 23:10:52
Neural Shader sind erstmals in Blackwell verbaut worden und diese wurden soweit ich weiß noch überhaupt gar nicht genutzt. Das hat jeder Blackwell Käufer mitgezahlt, insofern ist es natürlich auch ein Ankerfeature dieser Generation. Wie ich ja bereits im Blackwell 5090 Thread sagte, sind nicht die +30% Mehr Leistung entscheidend, sondern die AI Leistung und die AI Features und deswegen wird Blackwell ziemlich gut reifen, auch wenn eine 5090 "nur" 30% schneller war als eine 4090. AI/Software > Hardware. Wir sind in 2026 und Nvidia ist eine AI Company.

Neural Shader sollen übrigens nicht nur toll aussehen, sondern laut Nvidia auch die Performance boosten und Speicher sparen. :)


Nein, sowas wie "Neural Shader" gibt es auf Hardware Ebene nicht.

https://images.nvidia.com/aem-dam/Solutions/geforce/blackwell/nvidia-rtx-blackwell-gpu-architecture.pdf

Neural Shader bezeichnet einfach alles was im 3D Rendering mit AI Modellen bzw. über die Tensor Cores berechnet wird. Blackwell ist darauf natürlich nochmals stärker optimiert, unterstützt dann auch FP4 und hat allgemein mehr Tensor performance.

Aber rein was die Kompatibilität angeht ist Blackwell da nach allen bisherigen Informationen kein krasser umbruch oder irgend was besonders neues, wie es z.B. Turing war.

Eigentlich müsste alles was auf Blackwell läuft mindestens auch auf Ada laufen.
Einzig bei der Performance könnte es dann Unterschiede geben, wenn dann eben z.B. FP4 genutzt werden sollte oder wenn tatsächlich die Pipeline bei Blackwell viel schneller und besser damit umgehen kann.

Bisher hat sich das aber bei den bisherigen Neural Shader Features nicht gezeigt. NRC, NTC, Mega Geometry und DLSS laufen auf Ada und Blackwell gleich schnell. Die Performance unterscheidet sich in etwa in dem maße wie auch die Rohleistung der GPUs gestiegen ist. Architektur Änderungen schlagen bisher nicht durch.

Mit DLSS5 könnte sich das freilich ändern, viele Gründe gäbe es dafür aber momentan nicht.

Daredevil
2026-03-16, 23:26:59
Ich bezog mich auf den CB Test:

„Neural Shader“: Eine Wette auf die Gaming-Zukunft

Eine Fähigkeit ist gänzlich neu in den ALUs. Sie wird laut Nvidia zu einem großen Ding werden, gesichert, dass es so kommt, ist das aber nicht.

Und zwar können bei Blackwell in gewöhnlichem Shader Code nun auch AI-Programme integriert werden, die dann von den Tensor-Kernen beschleunigt werden. Nvidia nennt sie „Neural Shader“. Mit ihnen soll AI auch abseits von DLSS den Weg in Spiele finden, zum Beispiel indem besonders realistische Texturen oder Gesichter nicht vom Entwickler vorgehalten, sondern auf Basis der notwendigen „Prompts“ in Echtzeit mit AI erstellt werden. Die Funktion soll den Weg in DirectX finden und dort unter der Bezeichnung „Cooperative Vectors“ laufen – wann, ist unbekannt.

ALUs die Grafik in Spielen verschönern und den Speicherbedarf reduzieren, RTX Neural Materials, RTX Skin und RTX Neural Faces sind ein paar Stichpunkte. Stand jetzt ist es aber unmöglich abzusehen, wann oder ob überhaupt Neural Shader in Spielen großflächig zum Einsatz kommen. Erfahrungsgemäß kann es mehrere Jahre dauern, bis neue Technologien in breiterem Ausmaß von Spieleentwicklern angenommen werden.


Aber stimmt. Neu muss nicht nicht exklusiv heißen.

basix
2026-03-18, 12:19:42
Bisher hat sich das aber bei den bisherigen Neural Shader Features nicht gezeigt. NRC, NTC, Mega Geometry und DLSS laufen auf Ada und Blackwell gleich schnell. Die Performance unterscheidet sich in etwa in dem maße wie auch die Rohleistung der GPUs gestiegen ist. Architektur Änderungen schlagen bisher nicht durch.

Blackwell hat folgende Verbesserungen:
- Doppelte INT32 Rate pro SM
- FP4 Support
- AMP (AI Management Processor)
- SER 2.0 (wo man z.B. Shader und Tensor Workloads effizienter re-ordern kann als bei Lovelace)

Momentan sieht man aber wirklich noch nichts von den Verbesserungen ausser wenn FP4 im Spiel ist. AMP ist hier eigentlich noch ein spannendes Feature.

Ich nehme an, Rubin wir hier dann aber schon den Boden mit Blackwell und Lovelace aufwischen. Mögliche Gründe:
- Mehr Tensor-Core Throughput pro SM
- Mehr L1-Cache pro SM
- Aufgebohrte SFU in den SM (für beschleunigte EXP Berechnungen in Transformer-Modellen)
- SMs erhalten neu auch TMEM & TMA