Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 1. September 2025
Leonidas
2025-09-02, 10:03:27
Link zur News:
https://www.3dcenter.org/news/news-des-1-september-2025
Exxtreme
2025-09-02, 10:47:32
An ein Produkt extra für's Cloud gaming glaube ich nicht. Das Thema ist komplett durch. Nur GeforceNow lebt so halbwegs. Nur glaube ich nicht, dass Nvidia AMD GPUs für's Cloud gaming kaufen wird. Die haben eigene Produkte für sowas.
An ein Produkt extra für's Cloud gaming glaube ich nicht. Das Thema ist komplett durch. Nur GeforceNow lebt so halbwegs. Nur glaube ich nicht, dass Nvidia AMD GPUs für's Cloud gaming kaufen wird. Die haben eigene Produkte für sowas.
Vor allem: Warum nur dafür aufsetzen? Wie viel zusätzlicher Aufwand wäre es, eine Gaming-GPU rauszubringen? Das dürfte ziemlich überschaubar sein, denke ich.
Leonidas
2025-09-02, 10:57:25
Der Chip ist erst einmal unbestimmt, kann für alles genutzt werden. Die Frage ist, wo AMD Marktchancen sieht. Bei HighEnd-Grafikkarten augenscheinlich nicht. Ob es Cloudgaming wird, bleibt abzuwarten, aber Prosumer ist wegen lokaler KI inzwischen ein gutes Marktfeld.
Was ist bei AMD eigentlich der Status von multichip GPUs?
Kann es sein das AMD die Lücke zwischen AT2 und AT0 mit zwei AT2 in einer graphikkarte schließen will?
Leonidas
2025-09-02, 12:05:39
Man scheint die multiplen GPUs weiterhin nicht zu bauen, jedenfalls nicht für Consumer-Hardware. Wenn man es könnte/wollte, würde man auch AT0 damit ersetzen.
DozerDave
2025-09-02, 12:41:06
Das der US-Dollar gegenüber dem Taiwanesischen Dollar abwertet ist etwas sperrig geschrieben.
Exxtreme
2025-09-02, 12:59:01
Was ist bei AMD eigentlich der Status von multichip GPUs?
Kann es sein das AMD die Lücke zwischen AT2 und AT0 mit zwei AT2 in einer graphikkarte schließen will?
Multichip-Grafikkarten oder GPUs kann man wohl vergessen. Denn damit bekommt man wieder Mikroruckler. Das würde niemand kaufen.
Leonidas
2025-09-02, 13:14:40
Das der US-Dollar gegenüber dem Taiwanesischen Dollar abwertet ist etwas sperrig geschrieben.
Hast Recht. Habe es leicht verbessert.
Der Chip ist erst einmal unbestimmt, kann für alles genutzt werden. Die Frage ist, wo AMD Marktchancen sieht. Bei HighEnd-Grafikkarten augenscheinlich nicht. Ob es Cloudgaming wird, bleibt abzuwarten, aber Prosumer ist wegen lokaler KI inzwischen ein gutes Marktfeld.
Aber wie kommst du von Cloud-Gaming auf KI? Das Ding wird in erster Linie für KI sein, irgend etwas im Bereich einer RadeonPro W... Vielleicht mit anderem Namen, aber bei 512Bit SI kann man davon ausgehen, dass die Kiste 128GB VRam haben wird, um mit lokalen Modellen zu hantieren.
Cloud-Gaming kann wenn dann nur von Microsoft oder Sony als Anbieter kommen, alle anderen haben es probiert und sind - mit Ausnahme von NVidia, die ihre eigenen Karten dafür verwenden und damit eine Sonderstellung haben - gescheitert. Das ist einfach zu teuer in Anschaffung & Betrieb, das rechnet sich nicht.
Das selbe Schicksal dürfte auch neue Anbieter treffen. Lediglich Microsoft und Sony könnten hier mit einer Art "light" Variante einer Konsole und ihrem Ökosystem genug Gewicht in den Markt werfen, um ausreichend viele Kunden zu erreichen.
AMD hat zwar gute Beziehungen zu beiden, aber ob man extra für die ein Produkt entwickelt hat? Glaube ich eher nicht. Ich kann mir da eher vorstellen, dass man das Ding mit 64GB VRam zwischen einer 6090 und 6080 platziert und dann halt 1800€ dafür verlangt. Und mit 128GB VRam heißt das Produkt halt dann RadeonPro KI 10900 oder irgend so etwas in der Art.
Multichip-Grafikkarten oder GPUs kann man wohl vergessen. Denn damit bekommt man wieder Mikroruckler. Das würde niemand kaufen.
Ich könnte mir vorstellen, dass man das Thema Microruckler beim richtigen "Schnitt" der Chiplets umschifft, dann aber vermutlich auf Kosten der Effizienz (vermutlich sowohl Flächen- als auch Stromverbrauchs-Effizienz). Letztendlich rentiert sich das Ganze mit aktueller Technik wohl einfach nicht, da hat man mit den klassischen Konstruktionen einfach noch zu viele Vorteile und zu wenig Nachteile.
Multichip-Grafikkarten oder GPUs kann man wohl vergessen. Denn damit bekommt man wieder Mikroruckler. Das würde niemand kaufen.
Wenn Multichip kommt, dann sicher nicht wie früher mit 2 unabhängigen Grafikkarten, sondern mit einem breiten Interface on Package wie bei Apples Ultra Chips oder auch beim Datacenter Blackwell.
Jene Portfolio-These würde damit auch die Möglichkeit offenlassen, dass von AT0 am Ende gar keine Gaming-Lösung erscheint – einfach weil der Chip primär für andere Zwecke gedacht ist und zugleich AMD sowieso wieder "nur" einen Midrange-Ansatz verfolgt.
Das würd ich mal als glatten Unsinn beschreiben. Wenn die den haben, werden die den auch in möglichst vielen Märkten verkaufen, die Entwicklung muss sich ja auch lohnen.
Die Tape Outs von AT0 und AT1 werden schon lange gelaufen sein mMn, ich denke nicht, dass wir dazu Leaks bekommen. AMD braucht deutlich mehr Zeit für eine GPU vom Tape Out zum fertigen Produkt, das war bisher bei allen vorhergehenden Generationen so. Bei RDNA2 und 3 waren das etwas über ein Jahr, bei RDNA4 fast 1 1/2 Jahre.
Exxtreme
2025-09-02, 15:48:19
Wenn Multichip kommt, dann sicher nicht wie früher mit 2 unabhängigen Grafikkarten, sondern mit einem breiten Interface on Package wie bei Apples Ultra Chips oder auch beim Datacenter Blackwell.
Nein, auch nicht. Die Mikroruckler-Problematik kommt daher, dass eine GPU schlicht nicht weiss was die andere tut. Und deshalb kann sie nicht wissen wie lange die andere GPU zum Zeichnen eines Bildes brauchen wird. Und ohne dieses Wissen kann man beide GPUs nicht so koordinieren, dass sie gleichmässig Bilder ausspucken. Und da ist es völlig egal wie man die GPUs verschaltet, das ist ein elementares Problem. Und deswegen gibt es auch jetzt Frame Generation, die dieses Problem prinzipiell nicht hat.
Leonidas
2025-09-02, 17:23:26
Aber wie kommst du von Cloud-Gaming auf KI?
Cloud-Gaming hatten die Quellen geschrieben, war nicht meine Idee. Ich würde ja eher auf Prosumer tippen.
AMD braucht deutlich mehr Zeit für eine GPU vom Tape Out zum fertigen Produkt, das war bisher bei allen vorhergehenden Generationen so. Bei RDNA2 und 3 waren das etwas über ein Jahr, bei RDNA4 fast 1 1/2 Jahre.
Die Zeiträume erscheinen mir als zu lang. Man sagt 2-3Q für eine GPU. Beziehst Du Dich vielleicht auf CPUs (4-5Q)?
Spezifiziert ist LPDDR5X aktuell bis 8533.
Für Äquivalent zu 18Gbps/64Bit bräuchte man ~9000.
GDDR6 geht inzwischen schon höher, X nochmal oben drauf.
greeny
2025-09-02, 18:11:48
pinne nutzt Glühwürmchen als Lockmittel [Scinexx]
Ein "S" für die arme Spinne ;)
Booby
2025-09-02, 18:26:42
Multichip-Grafikkarten oder GPUs kann man wohl vergessen. Denn damit bekommt man wieder Mikroruckler. Das würde niemand kaufen.
Nein, auch nicht. Die Mikroruckler-Problematik kommt daher, dass eine GPU schlicht nicht weiss was die andere tut. Und deshalb kann sie nicht wissen wie lange die andere GPU zum Zeichnen eines Bildes brauchen wird. Und ohne dieses Wissen kann man beide GPUs nicht so koordinieren, dass sie gleichmässig Bilder ausspucken. Und da ist es völlig egal wie man die GPUs verschaltet, das ist ein elementares Problem. Und deswegen gibt es auch jetzt Frame Generation, die dieses Problem prinzipiell nicht hat.
Dir ist aber schon klar, dass die größeren RDNA3 Karten Chiplets benutzen?
Ganz ohne Mikroruckler
Leonidas
2025-09-02, 18:29:41
Ein "S" für die arme Spinne ;)
SDanke.
Dir ist aber schon klar, dass die größeren RDNA3 Karten Chiplets benutzen?
Ganz ohne Mikroruckler
In den Chiplets sind keine Rechenwerke, sondern nur Speicherinterface und Cache. Aus Sicht der geschildeteren Problematik ist dies problemfrei.
crnkoj
2025-09-02, 22:29:42
SDanke.
In den Chiplets sind keine Rechenwerke, sondern nur Speicherinterface und Cache. Aus Sicht der geschildeteren Problematik ist dies problemfrei.
Könnte man nicht eine Art ringbus bauen der die zwei chiplets mit den shader clustern verbindet und zu so zu sagen einem Chip macht? So ähnlich wie es schon gesagt wurde bei compute blackwell?
Leonidas
2025-09-03, 05:04:19
Die Frage ist, wieviel voneinander abhängende Rechenaufgaben existieren und ob der Bus dafür nicht unendlich breit sein müsste. Selbst im HPC-Bereich benutzt NV bei GB100 ja 10 TB/sec Interconnect zwischen 2x GB102. Aber diese Rechenaufgaben sind meist nicht voneinander abhängig.
Nein, auch nicht. Die Mikroruckler-Problematik kommt daher, dass eine GPU schlicht nicht weiss was die andere tut. Und deshalb kann sie nicht wissen wie lange die andere GPU zum Zeichnen eines Bildes brauchen wird.
Selbstverständlich weiß eine GPU "was die andere tut" wenn die direkt miteinander "reden" können.
Und ohne dieses Wissen kann man beide GPUs nicht so koordinieren, dass sie gleichmässig Bilder ausspucken. Und da ist es völlig egal wie man die GPUs verschaltet, das ist ein elementares Problem. Und deswegen gibt es auch jetzt Frame Generation, die dieses Problem prinzipiell nicht hat.
Framegeneration hat prinzipiell das ähnliche Problem, Nvidia hat nicht aus Spaß in Blackwell extra Hardware für die Synchronisation verbaut und speziell FSR-FG hat sehr lange gebraucht bis es halbwegs flüssig läuft.
Dass es vielleicht den Eindruck macht, dass FG davon weniger betroffen ist liegt hauptsächlich daran dass FG bei Frameraten eingesetzt wird in denen solche Inkonsistenzen nicht mehr so auffallen.
Zossel
2025-09-03, 07:41:42
Die Frage ist, wieviel voneinander abhängende Rechenaufgaben existieren und ob der Bus dafür nicht unendlich breit sein müsste. Selbst im HPC-Bereich benutzt NV bei GB100 ja 10 TB/sec Interconnect zwischen 2x GB102. Aber diese Rechenaufgaben sind meist nicht voneinander abhängig.
Wenn man den Bildschirm in der Mitte teilt hat man schon mal zwei Aufgaben die nicht voneinander abhängig sind.
Leonidas
2025-09-03, 07:51:20
Ist halt nicht besonders effektiv, weil Du bekommst es nie hin, das die Teilung dort stattfindet, wo die Hälfte der benötigten Rechenleistung liegt. Wegen diversen Effekten gibt es dann sogar überlappende Bereiche oder auch eine Phase, wo das komplette Bild bearbeitet werden muß (after-rendering-Effekte).
Aber dennoch erstaunlich, dass niemand diesen einfachen Ansatz weiterverfolgt hat. Könnten da noch andere Dinge dagegensprechen?
Die Frage ist, wieviel voneinander abhängende Rechenaufgaben existieren und ob der Bus dafür nicht unendlich breit sein müsste.
Grafikkarten "leben" davon, dass sie sehr viele voneinander unabhängige Aufgaben gleichzeitig bearbeiten. Jeder Pixel der berechnet wird ist unabhängig von allen anderen Pixeln.
Sobald GPUs voneinander abhängige Aufgaben berechnen müssen werden sie lahm wie eine Schnecke. Wenn sie das auch noch könnten bräuchte es ja gar keine CPUs mehr.
Jeder GPC in einer Nvidia-GPU ist im Grunde sowas wie eine eigene GPU die ihre Aufgaben unabhängig vom Rest erledigen kann.
Fisch
2025-09-03, 16:28:05
Wenn man den Bildschirm in der Mitte teilt hat man schon mal zwei Aufgaben die nicht voneinander abhängig sind.
Aber höchstens so lange bis RT ins Spiel kommt.
Lichtquelle links im Bild, 20 Spiegel rechts im Bild und schon tut das nicht mehr mit dem teilen.
Würde da nicht eher Scan Line Interleave was bringen was 3Dfx damals entwickelt hatte?
Exxtreme
2025-09-03, 22:38:08
Selbstverständlich weiß eine GPU "was die andere tut" wenn die direkt miteinander "reden" können.
Nein, das funktioniert so nicht.
Framegeneration hat prinzipiell das ähnliche Problem, Nvidia hat nicht aus Spaß in Blackwell extra Hardware für die Synchronisation verbaut und speziell FSR-FG hat sehr lange gebraucht bis es halbwegs flüssig läuft.
Dass es vielleicht den Eindruck macht, dass FG davon weniger betroffen ist liegt hauptsächlich daran dass FG bei Frameraten eingesetzt wird in denen solche Inkonsistenzen nicht mehr so auffallen.
Nein, FG hat dieses Problem prinzipiell nicht. Denn FG basiert auf Bildern, die bereits fertig berechnet sind. Und ist auch der Grund warum FG immer eine zusätzliche Eingabelatenz hinzufügt. Und die GPU hat die Informationen wie lange das erste Bild berechnet wurde und das zweite. Und da kann sie punktgenau ein Zwischenbild einfügen solange die Bildwiederholfrequenz nicht zu hoch ist.
Bei Multi-GPU funktioniert das nicht. Denn eine GPU muss anfangen mit der Berechnung während die andere noch rechnet. Und wie lange die GPU jeweils für ein Bildbrauchen werden, das ist zu dem Zeitpunkt unbekannt. Man kann zwar versuchen das aus den vergangenen Renderzeiten zu extrapolieren. Nur ist das auch ungenau. Und wenn das gut funktionieren würde dann hätte man es längst gemacht.
Für das Mikroruckel-Problem gibt es längst eine Lösung.
Nennt sich Raytracing:
https://www.youtube.com/watch?v=Vg4MH-Vt2Kw
Das skaliert auch besser. Falls NV und AMD wieder Multi-GPUs an Gamer verkaufen wollen, muss nur Raytracing entsprechend unterstützt werden.:)
Infos zum Technik:
Q2RTX uses a novel rendering algorithm for reflections and refractions,
and for splitting the workload between two GPUs in an SLI configuration.
The frame is separated into two checkerboard fields, one with even pixels
and another with odd pixels, like this:
eoeoeoeo
oeoeoeoe
eoeoeoeo
oeoeoeoe
The pixels from the whole frame are then moved to either left and right parts
of the frame (single-GPU case) or processed by separate GPUs (dual-GPU case).
Each half is a dense image containing only one checkerboard field, like so:
eeee oooo
eeee oooo
eeee oooo
eeee oooo
The benefits of separating the frame like this are:
1. In the dual-GPU case, each GPU has information about the entire image,
albeit a bit low-res. That makes it possible to run spatial filters,
in particular the denoisers, on each GPU separately, and then combine
the final colors after compositing. This helps us distribute a very
large part of the frame workload between the GPUs, and minimize
cross-GPU data transfers - compared to a case when we would transfer
all the lighting channels before denoising and run denoising in full
resolution on a single GPU.
2. We can split the reflection and refraction light paths between the fields.
For example, the even field traces only the reflection rays, and replaces
the parameters of the primary surface (normal, albedo) with the parameters
of the reflected surface. The odd field traces only the refraction rays
and does the same with surface parameters. As a result, the denoisers
on each field only see one "primary" surface - either reflected or
refracted, and that surface is continuous, so it can be efficiently
filtered across. Later, the checkerboard fields are interleaved and
slightly blurred to remove the visible checkerboard pattern (this shader).
To get a more complete sampling of the reflection and refraction light
paths, the assignment of fields to left and right half-frames (or GPUs)
is flipped on every frame. This also makes the reference mode converge
on a complete, non-checkerboarded image without spatial filtering.
This shader takes the input images (color and motion vectors) that contain
de-interleaved checkerboard fields in the left and right parts and interleaves
them into "flat" images. In dual-GPU case, there is a cross-GPU copy happening
right before this shader is invoked, see function `vkpt_interleave`.
- Color is either passed through or blurred with a cross-shaped 3x3 filter,
depending on whether the material in that pixel is checkerboarded (water
or glass)
- Motion vectors are passed through and are necessary for temporal AA
https://github.com/NVIDIA/Q2RTX/blob/master/src/refresh/vkpt/shader/checkerboard_interleave.comp
Bei Multi-GPU funktioniert das nicht. Denn eine GPU muss anfangen mit der Berechnung während die andere noch rechnet.
Multi-GPU muss nicht an unterschiedlichen Bildern rechnen 🤦
Iterator
2025-09-06, 13:51:41
AMD könnte das Problem vielleicht irgendwann in der Zukunft lösen. Laut einem AMD-Patent (https://hothardware.com/news/rdna-3-chiplet-patent-details-cutting-edge-architecture) namens „Systems and Methods for Distributed Rendering Using Two-Level Binning“ arbeitet ein Chiplet (vermutlich der GCD) als Master und kann Aufgaben basierend auf VRAM-Screen-Segmenten („Bins“) auf andere GPU-Chiplets verteilen, effizient abhängig vom Rendering-Workload.
ChaosTM
2025-09-06, 14:09:21
AMD könnte das Problem vielleicht irgendwann in der Zukunft lösen. Laut einem AMD-Patent (https://hothardware.com/news/rdna-3-chiplet-patent-details-cutting-edge-architecture) namens „Systems and Methods for Distributed Rendering Using Two-Level Binning“ arbeitet ein Chiplet (vermutlich der GCD) als Master und kann Aufgaben basierend auf VRAM-Screen-Segmenten („Bins“) auf andere GPU-Chiplets verteilen, effizient abhängig vom Rendering-Workload.
Als finanzieller Underdog kann man das nicht.
NV macht das seit 20+ Jahren und es bringt uns zwar weiter, hält aber die Konkurrenz genau dort wo sie sein soll. Unter Kontrolle--
AMD kann immer nur hinterherhecheln
Außer Lisa beschließt einen Angriff, währen NV mit AI Beschäftigt ist.
Mit Intel hast es funktioniert, aber Jensen is klüger als all die INTEL CEOs
Exxtreme
2025-09-06, 14:52:32
Multi-GPU muss nicht an unterschiedlichen Bildern rechnen 🤦
Heutzutage zwangsläufig ja. Deswegen war das Vorgehen von 3dfx eine Sackgasse, es hätte irgenwannmal nicht mehr funktioniert.
Iterator
2025-09-06, 14:54:41
Als finanzieller Underdog kann man das nicht.
Im PC Markt wird es vermutlich schwer werden. Im Konsolen Bereich aber nicht.Wenn AMD dort GPU Chiplets einführt, werden Millionen Geräte ausgeliefert, faktisch ein Zwangsstandard.
Heutzutage zwangsläufig ja.
Nicht wenn man die einzelnen GPUs zusammenbaut.
Heutzutage zwangsläufig ja. Deswegen war das Vorgehen von 3dfx eine Sackgasse, es hätte irgenwannmal nicht mehr funktioniert.
3dfx hätte in Glide ebenfalls so ein Checkerboard-Rendering wie bei Q2RTX implementieren können.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.