Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2024/25)


Seiten : 1 [2] 3 4 5

Troyan
2023-08-12, 09:49:53
Edit: Eine dual chip Lösung, wo jede Hälfte seinen on-chip L2 cache hat, ist aber wieder ok. Bei A100 sieht man zwar ein bisschen Verlust durch die Duplikation, aber das ist schon ok.

HPC-Ampere und Hopper sind intern ja wie Chiplets aufgebaut - der L2 Cache ist physikalisch getrennt und per Crossbar verbunden.

Daher könnte nVidia beim Gaming es wie Apple machen: Interconnect an L2 Cache angebunden und zwei Chips verbinden. Oder sie gehen den Weg über einen verbesserten Interconnect wie NVLink C2C mit vielleicht 1,8TB/s (900GB/s in eine Richtung). Das wäre zwar immer noch nicht in der Nähe vom L2 Cache (der liegt bei Lovelace ja irgendwo bei 5TB/s), aber es wäre kostengünstig.

OgrEGT
2023-08-12, 12:13:54
Es gab hier mal vor einiger Zeit einen Link zu einer Betrachtung der Komplexizität bei der Verbindung von 2 GPUs C2C. Das Ganze ist bislang aufgrund der riesigen Anzahl an notwendigen Interconnects derzeit nicht möglich...
Verbindung von 2 GPUs über Cache bspw hinterlässt wieder das Problem wie 2 Commandprozessoren die Arbeit aufteilen...

Troyan
2023-08-12, 14:00:25
Effizienz wird leiden, aber wenn man flächenmäßig beschränkt ist, ist es am Ende trotzdem vorteilshaft.

Man müsste A100 mal durch Gaming-Benchmarks schieben. Immerhin hat HPC-Ampere im Gegensatz zu Hopper alle Grafik-Funktionen pro ComputeUnit.

OgrEGT
2023-08-12, 14:09:36
Effizienz ist das eine... die unregelmäßige Lastaufteilung über die Renderingpipeline ohne Synchronisation wird eher das Problem sein... beide GPUs können zwar auf den gleichen Cache und somit auf die gleichen Daten zurückgreifen es gibt aber keine Synchronisation zwischen den GPUs dadurch... eine starre Verteilung wie bei AFR geht nicht... es muss einen "Ober" Commandprozessor geben für den die Ressourcen beider GPUs transparent sind...

HOT
2023-08-13, 09:20:02
Die tatsächliche Codenamen sind bekannt geworden:
GB202, 203 und 205, 206, 207, kein 204

https://videocardz.com/newz/nvidia-next-gen-geforce-rtx-50-gb20x-gpu-lineup-to-feature-gb205-gpu-but-no-x04-part

Es gibt noch weitere Informationen:

GB202 -> 512Bit GDDR6X (müssen 32GB sein) (ich nehme an wegen Verbrauch oder Platinendesign gibts nur 6X)
GB203 -> 384Bit GDDR6X (müssen 24GB sein)
GB205 -> 256Bit GDDR7 (16 bis 24GB möglich)
GB206 -> 192Bit GDDR7 (12 bis 18GB möglich)
GB207 -> 128Bit GDDR7 (8 bis 12GB möglich)

Also totale Kehrtwende bei den Speicherinterfaces. Vielleicht MCDs? 512Bit GDDR6x deutet auf ein extrem großes Package hin, da die Module ja sehr nah am Package sitzen müssen. Knapp 800mm² in 4nm? Gibt viele Fragezeichen. Das PCB für so ein Ding muss ein absoluter Albtraum sein...

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Geforce-RTX-5000-Blackwell-Geruechte-eingeordnet-1426560/

Leonidas
2023-08-13, 12:44:28
Die Angaben zum Speicherinterface sind lt. PCGH Spekulationen aus dem Chiphell-Forum, ergo nicht bindend. Im Gegensatz zu den Grafikchip-Codenamen.

NV sagt hiermit: GB205 geht mehr in Richtung Midrange, wird nicht mehr nahe der Leistungsspitze sein. Die zwischenliegenden Leistungspositionen dürfte dann GB203 (mit Salvage-Lösungen) besetzen.

The_Invisible
2023-08-13, 13:15:16
Wird G6X noch weiterentwickelt?

Wär ja sonst sehr merkwürdig wenn die großen Chips nur G6X aber breiteres Speicherinterface bekommen sollen aber ab GB205 G7, da würde sich ja aufheben...

w0mbat
2023-08-13, 14:06:41
Also wenn, dann haben alle chips GDDR7. Macht keinen Sinn, dass die high-end chips den alten Speicher bekommen.

HOT
2023-08-13, 14:09:02
evtl. doch, wenn GDDR7 mehr Saft braucht und man aber die zusätzliche GT/s nicht benötigt, oder auch wenn das die PCB-Entwicklung sehr stark erleichtert. Ich würd das nicht sofort verurteilen, sowas kann immer passieren.

PHuV
2023-08-14, 16:41:28
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Nvidia-Geforce-RTX-5000-Blackwell-Geruechte-eingeordnet-1426560/
Dank einer Fertigung in 3 Nanometern und GDDR7 soll eine Geforce RTX 4090 angeblich um bis zu 250 Prozent übertroffen werden.

Wie zuverlässig waren denn bisher die Prognosen von kopite7kimi? Hat das mal jemand rückwirkend evaluiert?

davidzo
2023-08-14, 20:14:54
GDDR7 ist ja auch nur eine Suggestion, afaik kein richtiger leak.

Aber GDDR7 + 512bit macht imo keinen Sinn. Eines von beiden dürfte nicht korrekt sein, denn die 2,3fache Bandbreite wäre eine bisher nie dagewesene Steigerung innerhalb einer Generation. Und zwar völlig ohne Not, denn man hat doch gerade den Cache eingeführt und die 4090 ist alles andere als Bandbreitenlimitiert.

24Gbit GDDR6X an 512bit ergeben schon 1,5tb/s. Das wäre ein +50% Bandbreitenzuwachs und würde eher zu einem üblichen Generationensprung passen. Wenn etwas mehr gebraucht wird, dann würde man schon eher den Cache vergrößern imo.

GDDR7 startet mit 32gt/s, es sind aber auch schon 36gt/s angekündigt der bis 2025 wohl verfügbar ist.
Das wären 2,3gb/s an 512bit.

Es wird ja gemunkelt dass es bei 144SMs bleibt für den xx2er Chip. Selbst wenn die Blackwell Shader dann doppelten Int32/FP32 Durchsatz bekommen wie aus der Mai-These, wäre das wohl noch zu viel Bandbreite.

Sunrise
2023-08-14, 23:01:32
Wie zuverlässig waren denn bisher die Prognosen von kopite7kimi? Hat das mal jemand rückwirkend evaluiert?
Kimi is the goat

iamthebear
2023-08-14, 23:13:09
Er hat schon einige Mal korrekte Infos lange lange vor allen anderen geleaked.

Gelegentlich liegt er aber auch mal etwas daneben.

HOT
2023-08-15, 15:10:04
Kann es sein, dass BW völlig anders wird als gedacht? Vielleicht ist GB2xx was völlig anderes als von Anfang an geplant war. NV war ja schon länger klar, dass man für GB100 extem viel N3 Kapazität brauchen wird. Ich halte es daher für wahrscheinlich, dass die ursprünglichen GB102-107-Planungen (in N3) in der Tonne gelandet sind und durch eine N4-Variante ersetzt wurden. Damit ergäben plötzlich 144SM+512Bit sehr viel Sinn, denn der Chip hätte dann >750mm² (GB203 dann >500mm², GB205 nur noch 300 bis 350mm² - GB204 wäre 400mm²+ geworden, den spart man sich). Ich fürchte, dass das so ähnlich gelaufen sein könnte. Auffällig ist, dass die Specs ähnlich sind wie bei Ada, wenn man von den 512Bit absieht.
Also:

GB102 (N3, ca. 200SM, x2 Leistung) -> GB202 (N4, 144SMs, ca. x1,4 Leistung)

MMn rettet das BW auch den Zeitplan, weil die Produkte dann sicherlich zur CES25 vorgestellt werden. Die beiden großen Chips könnten deshalb nur 6x haben, weil bei der Entwicklung 7 schlicht noch nicht verfügbar war.

basix
2023-08-17, 18:29:35
512bit sind mMn Blödsinn. Schaut euch mal die PCBs und die GDDR-Anordung bei 384bit an...

Und 1.4x Leistung könntest du mit 24 Gbps GDDR6 und den vollen 96MByte L2-Cache befeuern. 512bit sind da unnütz.
Bei 2x Leistung würde 32 Gbps GDDR7 inkl. 96MByte L2$ vermutlich auch reichen.

iamthebear
2023-08-17, 22:15:26
Also ich sehe ehrlich gesagt nur 2 Alternativen:
a) 384Bit GDDR7
b) 512Bit GDDR6W (bedeutet doppelte Anbindung pro Speicherchip)

512Bit GDDR7 wird kaum umsetzbar sein bzw. auch nicht notwendig

basix
2023-08-17, 22:35:01
Stimmt, GDDR6W gibt es noch. Da würde zumindest der Platz auf dem PCB für die Packages kein Problem darstellen. Routing usw. wird sicher aufwändig und beim Chip wird das Interface sehr gross werden. Mal schauen.

AffenJack
2023-08-18, 15:25:55
512bit sind mMn Blödsinn. Schaut euch mal die PCBs und die GDDR-Anordung bei 384bit an...

Und 1.4x Leistung könntest du mit 24 Gbps GDDR6 und den vollen 96MByte L2-Cache befeuern. 512bit sind da unnütz.
Bei 2x Leistung würde 32 Gbps GDDR7 inkl. 96MByte L2$ vermutlich auch reichen.

In meinen Augen sind 512 Bit auch Blödsinn. GDDR7 macht einfach viel mehr Sinn und passt zeitlich perfekt. Nvidia hat die letzten Jahre immer sehr früh auf die schnellsten GDDR Chips gesetzt, wieso sollte das jetzt anders sein, daher würde mich nichtmal 36 Gbps wundern, wenn verfügbar. Außerdem hat Micron zuletzt praktisch für Nvidia entwickelt und deren Pipeline passt mit GDDR7 perfekt für Blackwell.

Der einzig plausible Grund für 512 Bit wäre, wenn man auf eine Multichip GPU setzt und dann evtl 2x256 Bit hat.

Qubit
2023-09-18, 09:52:00
Laut Kopite soll der GB100 MCM nutzen: https://twitter.com/kopite7kimi/status/1703608163201949996
Und die Architektur soll "signifikante Änderungen" in der Struktur haben: https://twitter.com/kopite7kimi/status/1703610903038685200

OgrEGT
2023-09-18, 17:30:56
https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache

Das wird nicht billig :X

aceCrasher
2023-09-18, 22:14:38
https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache

Das wird nicht billig :X
Klingt aber auch nach Specs die eine 4090 vor Neid erblassen lassen.

vinacis_vivids
2023-09-18, 22:45:16
Aber immer noch Singel-Chip? Frage mich was das dann kosten soll? 2499 - 2999 USD für die 24GB oder gar 3499 - 3999 USD für die 32GB?

Die Frage ist, wer sich überhaupt sowas leisten kann als Privat-User?

Habe selbst bei der ersten AMD-Karte mit >1000€ schon hart schlucken müssen...

Das, was Huang da per Brute-Force und "Ich habe den längsten Balken" betreibt, ist eine sehr schlechte (und zu teure) Entwicklung.

DrFreaK666
2023-09-18, 22:47:34
Das beste ist, dass AMD dieses Mal keinen 8900XT haben wird. Freie Fahrt nach oben, was Preise angeht

Linmoum
2023-09-18, 23:29:29
Aber immer noch Singel-Chip? Frage mich was das dann kosten soll? 2499 - 2999 USD für die 24GB oder gar 3499 - 3999 USD für die 32GB?Wie kommt man auf solche absurden Preise? Selbst AD102 mit >600mm² hat ggü. GA102 nur einen marginalen Preisaufschlag erhalten und das, obwohl der Chip in 4N gefertigt wird und in der Herstellung massiv teurer ist als noch Ampere zuvor in Samsungs 8nm.

Am Ende auch völlig latte, ob Monolith oder Chiplet. Chiplets wie bei RDNA3 braucht kein Mensch, völlige Fehlkonstruktion in dieser Art für Gaming-GPUs.

vinacis_vivids
2023-09-18, 23:51:23
Du laberst schon wieder Müll. Chiplet ist Gegenwart und Zukunft. Mit 192SM bin ich nur wenig von Blackwell beeindruckt. Vor allem sieht es nach einem ~700-750mm² Chip bei TSMC N3X aus. Die Ausbeute wird unter aller Sau sein und total überteuert.

iamthebear
2023-09-18, 23:55:40
Also wenn man mit AD102 vergleicht:
144SM => 192SM (+33,3%)
96MB L2 => 128MB L2 (+33,3%)
15% höhere Taktraten
Ergibt ca. 50% mehr Rohleistung

Weiterhein 384Bit SI
21gbit/s => 32gbit/s (GDDR7)
Auch ca. 50% mehr Speicherbandbreite

Wenn es sich hierbei um einen 3nm Chip handelt dann hören sich diese Daten sehr plausibel an und sich im Rahmen meiner Erwartungen.

Wie viel vom Chip dann weggeschnippselt wird muss man sehen.

Die Frage ist nur wie das Ganze preislich aussehen wird vor allem 1-2 Ebenen darunter. Ohne Mining und Lockdown ist der Markt der > 1K Karten ja eher überschaubar.

Slipknot79
2023-09-19, 01:44:33
Klingt aber auch nach Specs die eine 4090 vor Neid erblassen lassen.

1,7x haut wirklich nicht vom Hocker. Erst up 2,0x wird es interessant. Darunter gibt es keine Kohlen von mir.
Bei 1,7x wäre die 5090 immer noch keine 4k Graka. (y)
Naja, alles Theorie, ist ja noch 1,5 Jahre Zeit.

Nightspider
2023-09-19, 07:37:36
Bei 1,7x wäre die 5090 immer noch keine 4k Graka.

Und Andere spielen seit einer 1080ti in 4K. :ugly:

Jeder wie es braucht ^^

Kriegsgeier
2023-09-19, 08:27:36
manche Verstehen einfach nicht, dass man auch durch TETRIS in 1080p eine 4090 in den 2 FPS Bereich bringen kann!

Mit anderen Worten: es liegt immer an den Einstellungen des Spiels!

00-Schneider
2023-09-19, 08:40:32
Ergibt ca. 50% mehr Rohleistung


Das wäre so das Minimum, was ich von einer neuen GPU erwarten würde. Aber wirklich vom Hocker würde mich das nicht hauen, unter Berücksichtigung, dass zwischen der 4090 und der 5090 zwei Jahre liegen.

Immer noch zu langsam für Pathtracing in modernen Spielen, z.b. Cyberpunk.

Kriegsgeier
2023-09-19, 08:53:30
manche Verstehen einfach nicht, dass man auch durch TETRIS in 1080p eine 4090 in den 2 FPS Bereich bringen kann!

Mit anderen Worten: es liegt immer an den Einstellungen des Spiels!

The_Invisible
2023-09-19, 08:59:31
1,7x haut wirklich nicht vom Hocker. Erst up 2,0x wird es interessant. Darunter gibt es keine Kohlen von mir.
Bei 1,7x wäre die 5090 immer noch keine 4k Graka. (y)
Naja, alles Theorie, ist ja noch 1,5 Jahre Zeit.

Wenns nur 1,7x Raster währen und dafür >2x RT wäre ich sofort dabei, am besten CP2077 in 4k nativ Pathtracing 60fps.

Und du immer mit deiner "ist keine 4k Graka", ich zockte schon mit meiner alten 2070 damit

Linmoum
2023-09-19, 09:01:32
Wieso zu langsam? Eine 4090 schafft laut PCGH schon in UHD >45fps (P1) mit RT Overdrive und DLSS-P. Und ja, letzteres ist in UHD definitiv mehr als brauchbar. ;)

Wenn Nvidia weiterhin monolithisch fertigt, wären >50% schon bemerkenswert. Man sollte sich einfach davon verabschieden, dass Sprünge wie von Ampere auf Ada Normalität sind.

Platos
2023-09-19, 09:19:22
Und du immer mit deiner "ist keine 4k Graka", ich zockte schon mit meiner alten 2070 damit

Diese Art von Argument wirds immer geben.

Völliger Bödsinn.

Aber im 3D-Center sind die Leute ja sowieso Regler-behindert und alles, was nicht ulra ist, versteht man nicht.

Wieso zu langsam? Eine 4090 schafft laut PCGH schon in UHD >45fps (P1) mit RT Overdrive und DLSS-P. Und ja, letzteres ist in UHD definitiv mehr als brauchbar. ;)

Wenn Nvidia weiterhin monolithisch fertigt, wären >50% schon bemerkenswert. Man sollte sich einfach davon verabschieden, dass Sprünge wie von Ampere auf Ada Normalität sind.

Ich lehne mich jetzt mal aus dem Fenster und sage, du nutzt kein UHD ?

Weil ich schon und DLSS Perfomance ergibt deutliche Qualitätsverluste. Klar, wenn die Perfomance nicht reicht, kann man regler bedienen, aber ich würde dann eher die RT Settings runterschrauben, als dlss perf. zu nehmen.

Aber das ist halt das Selbe wie mit 60Hz vs 120Hz. Einer mit 60hz wird dann sagen, 90fps sind ja mehr als genug. Der mit 120hz sagt dann eben ne, 90fps ist deutlich schlechter wie 120fps.

Aquaschaf
2023-09-19, 09:52:58
Das wäre so das Minimum, was ich von einer neuen GPU erwarten würde. Aber wirklich vom Hocker würde mich das nicht hauen, unter Berücksichtigung, dass zwischen der 4090 und der 5090 zwei Jahre liegen.

Immer noch zu langsam für Pathtracing in modernen Spielen, z.b. Cyberpunk.

Riesige Sprünge bei der Rohleistung kann man denke ich nicht mehr erwarten, unter der Annahme man geht beim Powerbudget nicht noch weiter hoch. 50% wären schon gut.

Ich würde eher darauf setzen dass die Raytracing-Hardware besser wird, und/oder es in dem Bereich weitere Innovationen bei der Software gibt.

The_Invisible
2023-09-19, 09:57:36
Riesige Sprünge bei der Rohleistung kann man denke ich nicht mehr erwarten, unter der Annahme man geht beim Powerbudget nicht noch weiter hoch. 50% wären schon gut.

Ich würde eher darauf setzen dass die Raytracing-Hardware besser wird, und/oder es in dem Bereich weitere Innovationen bei der Software gibt.

So sehe ich das auch, Raster ist sicher schon totoptimiert, da kannst nur mehr Einheiten/Takt raufpacken. RT ist noch immer ziemlich neu und technologisch viel möglich, vor allem da Ada ja auch noch RT-Level 3,5 oder so ist (https://blog.imaginationtech.com/introducing-the-ray-tracing-levels-system-and-what-it-will-mean-for-gaming/)

Hypadaiper
2023-09-19, 10:06:19
Riesige Sprünge bei der Rohleistung kann man denke ich nicht mehr erwarten, unter der Annahme man geht beim Powerbudget nicht noch weiter hoch. 50% wären schon gut.

Ich würde eher darauf setzen dass die Raytracing-Hardware besser wird, und/oder es in dem Bereich weitere Innovationen bei der Software gibt.
Also Können wir uns schon auf die x20 Performance einer 5060 ggü. einer 4080 in den Folien freuen. Weil dlss4 und so

Dovregubben
2023-09-19, 14:20:11
Wenns nur 1,7x Raster währen und dafür >2x RT wäre ich sofort dabei, am besten CP2077 in 4k nativ Pathtracing 60fps
Natives Rendering ist für die meisten Use Cases tot. Da werden in 5-10 Jahren nur noch ein paar alte Menschen in Nostalgie davon träumen.

HOT
2023-09-19, 14:23:13
Natives Rendering ist für die meisten Use Cases tot. Da werden in 5-10 Jahren nur noch ein paar alte Menschen in Nostalgie davon träumen.
Meine Güte ist das übertrieben :freak:

Linmoum
2023-09-19, 14:42:10
Stimmt, wird vermutlich sogar schneller gehen als erst in 5-10 Jahren. ;)

The_Invisible
2023-09-19, 14:46:16
Natives Rendering ist für die meisten Use Cases tot. Da werden in 5-10 Jahren nur noch ein paar alte Menschen in Nostalgie davon träumen.

Damit habe ich eigentlich nur versucht die gewünschte Leistungssteigerung darzustellen mit RT... wär schon ein Brett, mit DLSS dann klar über 100 und mit DLSS3/4 an die 200, man darf ja noch träumen :D

Leonidas
2023-09-19, 14:47:54
Zu beachten wäre, dass dieses 1,7fache den Rohleistungssprung ergibt. Dies ergibt vermutlich eine reale Mehrperformance von +40%, etwas mehr bei internen Verbesserungen.

Und dies könnte zudem von RTX4090 auf GB202 Vollausbau gerechnet sein. Wenn die RTX5090 nicht den Vollausbau benutzt, wird es noch weniger. Ich sehe da vorerst eine weitere Turing-Generation daherkommen.

Slipknot79
2023-09-19, 14:49:00
Und du immer mit deiner "ist keine 4k Graka", ich zockte schon mit meiner alten 2070 damit


Klar, ich kann auch mit einer iGPU Quake aus 1996 ballern in 4k. (y)
Dass ich aber AAA games meine, sollte wohl klar sein.
Noch dazu kommen da noch dick fordernde AAA-games raus bis die 5090 auf den Markt geballert wird. Keine Ahnung, warum da immer Spiele ausgepackt werden, die bereits am Markt sind und gesagt wird "läuft in 4k" (y).

Bei 1,7x vs 4090 wird auch die 5090 zu langsam sein in 4k für jene AAA-Spiele, die während der 5000er Generation auf den Markt geballert werden. Einfach nen bounce dazuschalten in RT im "ultra über mode"-game setting, dann wars das mit 4k. :wink:

PHuV
2023-09-19, 16:47:43
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-Geruechte-zu-Spezifikationen-1429425/

https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache

https://www.pcgameshardware.de/screenshots/original/2023/09/Specs-pcgh.png

Sprich, sparen für 2025 ist schon angesagt?

Schnitzl
2023-09-19, 17:15:07
(...)

Aber im 3D-Center sind die Leute ja sowieso Regler-behindert und alles, was nicht ulra ist, versteht man nicht.
"behindert" ist inzwischen eine Beleidigung, also bitte ein wenig Gas wegnehmen.

Und dass du es besser kannst als stupide alle über einen Kamm zu scheren hast du im gleichen Post gezeigt:


Aber das ist halt das Selbe wie mit 60Hz vs 120Hz. Einer mit 60hz wird dann sagen, 90fps sind ja mehr als genug. Der mit 120hz sagt dann eben ne, 90fps ist deutlich schlechter wie 120fps.

Rampage 2
2023-09-19, 19:34:40
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-Geruechte-zu-Spezifikationen-1429425/

https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache

https://www.pcgameshardware.de/screenshots/original/2023/09/Specs-pcgh.png

Sprich, sparen für 2025 ist schon angesagt?

Wenn das mit dem 128MB L2-Cache stimmt, dann !kann! es nur ein 512Bit breites SI sein - 128 ist nicht durch 6 (384Bit) teilbar. Wenn dem wirklich so ist, dann bekommt der GB102-Chip wohl GDDR6X mit 24Gbps und alles darunter (xx103, xx104, etc.) wird dann erstmalig mit GDDR7 (32Gbps oder höher) ausgestattet.

Was mich aber viel mehr interessiert, ist, ob NV wieder die interne SM-Organisation umbaut zurück in Richtung Turing. Also etwa so:

[128 FP32 + 64 INT32] = 192 SPs/SM

oder

[64 FP32 + 32 INT32] = 96 SPs/SM

also ein 2:1-Verhältnis FP32:INT32, was fast ideal ist, wenn man der NV-Aussage (Turing-Präsentation) Glauben schenkt, dass INT32 durchschnittlich 36% des Workloads ausmachen:)

Also insgesamt 36864 Recheneinheiten (24576 FP32 + 12288 INT32) verteilt auf 12, 16 oder 24 GPCs. Dadurch könnte die IPC fast wieder Turing-Niveau erreichen:)

R2

Tesseract
2023-09-19, 19:50:01
die aktuelle variante deckt flexibel 50:50 bis 100:0 FP/INT ab, die ~1/3 für INT liegen da ziemlich genau in der mitte. warum sollten sie das ändern? mit einem festen verhältnis geht nur die auslastung des chips nach unten - nicht so tief wie bei turing aber schlechter als ampere/ada.

vielleicht kommt etwas wie FP + FP/INT + FP/INT aber FP + FP + INT kann ich mir nicht vorstellen.

Palpatin
2023-09-19, 19:55:33
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-Geruechte-zu-Spezifikationen-1429425/

https://videocardz.com/newz/nvidia-geforce-rtx-5090-rumors-2-9-ghz-boost-clock-1-5-tb-s-bandwidth-and-128mb-of-l2-cache

https://www.pcgameshardware.de/screenshots/original/2023/09/Specs-pcgh.png

Sprich, sparen für 2025 ist schon angesagt?
24 GB GDDR7 für 5090, vermutlich dann 16 GB für 5080 und 12 GB für die 5070. ;)

Rampage 2
2023-09-19, 20:03:32
die aktuelle variante deckt flexibel 50:50 bis 100:0 FP/INT ab, die ~1/3 für INT liegen da ziemlich genau in der mitte. warum sollten sie das ändern? mit einem festen verhältnis geht nur die auslastung des chips nach unten - nicht so tief wie bei turing aber schlechter als ampere/ada.

vielleicht kommt etwas wie FP + FP/INT + FP/INT aber FP + FP + INT kann ich mir nicht vorstellen.

Wenn von den 128 SPs bei Ampere/Lovelace 32 oder 64 (25-50%) für INT32-Operationen beansprucht werden, dann können sie logischerweise nicht im gleichen Takt für FP32-Operationen genutzt werden - d.h. im Worst-Case verhält sich GA102 dann ähnlich wie ein Turing-Chip @ 5376 FP32-SPs (RTX 3090 Ti) oder AD102 wie eine Turing @ 8192 FP32-SPs (RTX 4090). ;)

Das ist Eines der Gründe, warum Ampere zu Release den Eindruck einer "Luftpumpe" erweckt hat... (in Relation zu theoretischer Leistung vs. Realleistung)

R2

Tesseract
2023-09-19, 20:14:58
das ziel ist eine hohe auslastung bei geringem platzverbrauch und da ist turing schlechter als ampere/ada. turing hat keine "höhere IPC", turing zählt einfach die units anders und sieht dadurch am papier kleiner aus als er tatsächlich ist. die realität ist dass eine 2080Ti die eigentlich 8704 units hat oft von einer 3070 mit 5888 units geschlagen wird weil die weniger flexiblen units von turing viel idle sind.

Lurtz
2023-09-19, 21:14:41
Meine Güte ist das übertrieben :freak:
Stimmt, eigentlich ist es heute schon tot, wenn man nicht so ein ewiggestriger MSAA-Betrauernder ist.

basix
2023-09-19, 22:30:31
die aktuelle variante deckt flexibel 50:50 bis 100:0 FP/INT ab, die ~1/3 für INT liegen da ziemlich genau in der mitte. warum sollten sie das ändern? mit einem festen verhältnis geht nur die auslastung des chips nach unten - nicht so tief wie bei turing aber schlechter als ampere/ada.

vielleicht kommt etwas wie FP + FP/INT + FP/INT aber FP + FP + INT kann ich mir nicht vorstellen.

Ich habe hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13283461#post13283461) schon mal "vorgerechnet", dass bei gleicher Anzahl SM +50% FP32 mit einer neuen Aufteilung theoretisch fast 2x IPC ergeben (stur nacht dem FP + INT Ratio in Games gerechnet).
- 2x FP32 only
- 1x FP32 + INT32 (kaum grösser als FP32 only)
- 1x INT32 (relativ klein verglichen mit FP32)

Bei vielen Workloads hätte man idealerweise 2x IPC und nur bei extrem FP32-lastigem Code wäre man bei 1.5x verglichen mit Ampere & Lovelace. Und diese haben beileibe nicht wenig FP32-Performance.
Genau das könnte der ominöse Umbau der SMs sein, von dem geredet wird.

Mit +50% FP32 Die-Area und etwas weniges für eine reine INT32 Unit hören sich für mich nach einem guten Tradeoff an. Damit erreicht man einiges mehr FLOPS und IPC, ohne die Anzahl GPCs und SMs zu erhöhen. Ich spekuliere sogar 8x GPCs mit je 16x SMs und somit max. 128 SMs im Vollausbau. Zufällig wären das dann exakt +50% FP32 Units verglichen mit einer 4090 ;) Die 4090 skaliert verglichen mit der 4080 einfach nicht mehr gut, weniger GPCs wären mMn mehr. Bei den SMs sollte man dann sicher die Vektor-Register 1.5...2.0x grösser machen und beim L1$ allenfalls auf 1.5x gehen. Beim L2$ wären das dann 128MByte für 8x GPCs anstatt 96MByte für 12x GPCs, relativ somit 2x L2$ pro GPC. Dann sollte das eigentlich relativ gut auszulasten sein.

-> 1.5x FP32 / SM
-> 1.5x Register / SM
-> 1.5x L1$ / SM
-> 2x L2$ / GPC --> 2 / 16 * 12 = 1.5x L2$ / SM
-> 32Gbps / 21Gbps -> 1.5x VRAM Bandbreite
-> Alle Caches und die VRAM-Bandbreite skalieren relativ zur Anzahl FP32-Units linear mit --> ~1.5x IPC könnte man als Resultat erwarten, im Idealfall mehr (siehe den verlinkten Post)

Tesseract
2023-09-19, 23:26:49
warum sollten weniger GPC mit jeweils mehr SM besser skalieren?

die variante die du beschreibst braucht wahrscheinlich auch mehr als 1.5x register file und L1.

HPVD
2023-09-26, 12:43:02
B100 bei TMSC in N3E ab Ende 2024 produziert.
https://www.computerbase.de/2023-09/tsmcs-3-nm-fertigung-im-einsatz-von-nvidias-b100-bis-qualcomms-next-gen-soc/

Altehardware
2023-09-28, 03:38:15
So sieht es aus und da gibt es zwei Meinungen n3e blackwell hpc only was durchaus sinn ergibt da die Kapazitäten knapp sind
Und alles n n3 und desktop blackwell in q3 2025
Ich nehme aber an das nvidai die desktop blackwell in n4x designt was mich fragen lässt was ist blackwell
an hopper angelehnt benötigt man zwingend n3
An ada design angelehnt wäre mehr sm möglich und keine Änderung am design aber dann würde der name blackwell irreführend sein

Da es sich aber um david blackwell handelt wird man vermutlich hpc mit Vornamen und desktop ohne nehmen.
marketing as best

Nehme ich an das man das ada design beibehält und auf maxed 18 gpc geht was 216sm wären und die sku reihe so auflöst
gb207 2gpc 24sm 3,1ghz 88fp32 per sm +14%
gb206 4gpc 36sm +21%
gb205 6+gpc 60sm +14%
gb203 12gpc 142sm +26% 90er klasse
gb202 18gpc 216sm 2,8ghz quadro only

Mit geändertem design wird daraus 18sm per gpc
also so
gb207 1 gpc 18sm 2,8ghz 120fp32 per sm
gb206 2 gpc 36sm
gb205 4 gpc 60sm
gb203 6 gpc 108sm
gb202 8 gpc 144sm

Da es sich aber um 120 vs 88 handelt unterscheiden sich die Leistung dennoch
gb207 vs ad107 +2% (50er klasse ab 300€)
gb206 vs ad106 +44% (60er klasse)
gb205 vs ad104 +36% (70er)
gb203 vs ad103 +50% (80er)
gb202 vs ad102 +53% (90er)

beides wäre drin nur frage ich mich wie man mit weniger rt cores mehr dxr erreichen will da bisher die rt cores nur an der Anzahl und ipc besser wurden und der Takt quasi keine rolle spielte

Am ende kommt es drauf an wie teuer n4x wird wenn um die 12000$ wird man definitiv den ersten Weg gehen
Billigere chips und man kann den gb203 teurer verkaufen und der chip würde nur 136$ bis 236$ kosten statt wie bisher 200$ rtx4090 - 336$ (quadro a8000)
sku ab 999€ rtx5080 128sm möglich und 1499€ als rtx5090 142sm

Das zieht sich bis low end und ne rtx5050 (9gb) könnte ab 280€ und rtx5060 ab 349€ (12gb)geben amd konkurriert nicht bis n2 node mit rdna5
Dafür ist amd früher dran mit q3 2025 vs nvidia q1 2027 in n2x
Dafür spricht auch das nvidia alles in ai reinstecken will und da braucht es zwingend viel n3 Kapazität.
Womit blackwel q2 2024 kommen wird. angefangen mit dem ganzen lineup von rtx5050 bis rtx5090

horn 12
2023-09-28, 06:45:24
Wieviel Mehrleistung würde Variante 1 bringen zu den Aktuellen Modellen bitte ?

Altehardware
2023-09-28, 09:58:04
gb207 2gpc 24sm 3,1ghz 88fp32 per sm +14% vs rtx4060
gb206 4gpc 36sm +21% vs rtx4060ti
gb205 6+gpc 60sm +14% vs rtx4070ti
gb203 12gpc 142sm +26% 90er klasse vs rtx 4090
gb202 18gpc 216sm 2,8ghz quadro only

horn 12
2023-09-28, 20:23:51
https://videocardz.com/newz/nvidia-geforce-rtx-50-gb202-gpu-rumored-to-feature-192-sms-and-512-bit-memory-bus-according-to-kopite7kimi

@Was sagst nun AlteHardWare
Bitte :-)

Altehardware
2023-09-28, 22:53:14
habs grad gesehen nun das beduetet folgendes
16sm per gpc scheint eine Änderung an der Struktur aber wieviel alu per sm wird nicht erläutert
daraus schließe ich das amn 64+ 64 beibehält und lediglich die Aufteilung für die gpc ändert.
16sm mal 12gpc = 192 sm zu je 88 fp32 ergeben 104,7tf (152tf)
Zu vermutlich in n4x chipgröße von 653mm²
ich nehme an das man 384bit beibehält da der leak von 512bit ausgeht was unwahrscheinlich ist
Der leak meint ja auch das mcm wäre das sehr unwahrscheinlich ist Si schrinkt nicht
Da aber wieder 384bit anliegen wird entweder 32gb vram angedacht oder es wird vorerst nur 16gbit geben das aber wäre unwahrscheinlich
Unmöglich aber nicht eghe wir von 16gbit mit 32gbps aus
dannwären folgende sku drion
gb207 2gpc 32sm rtx5060 18tf 128bit 8-16gb
gfb206 4gpc 644sm rtx5070 36tf 192bit 12-24gb
gb205 6gpc 96sm rtx5080 52tf 256bit 16-32gb
gb203 8gpc 144sm 78,8tf
gb202 12gpc 192sm 104tf 256rop 768tmu
Die Taktrate dürfte um die 3,1gbz sein

Einen Änderung der tmu per sm und rop per gpc macht kein Sinn wäre aber möglich wenn man von 4 tmu auf 8 tmu wechselt und wenn man auf 8 rop auf 12 rop geht
12*16= 192 rop und 1536 tmu wären OP
Die tmu fasst amn aber nicht an sofgern amn nicht die alu per sm ändert wenn nein dürften die 4 tmu bleiben
Wenn ja dürfte sichda s auf 6 tmu erhöhen somit wären 12*6=72tmu per sm und im volem chip dann 864 tmu drin daraus folgt pro gpc dann 16 rop 192 rop
Demzufolge müssen die alu auf 96 +64 steigen damit die tmu steigen können das habe ich bisher nicht beachtet
Die rop dürfte i high end kein problem darstellen die tmu zu steigern dürfte der Grund bei pathtracing sein.
Folglich nehme ich wieder wie üblich die relevante sku 60er klasse. als bsp
rtx5060 gb207 32sm aktiv vermutlich 30sm 96 fp32 +16 +8fp32 =120fp32 maxed 2,7ghz oder altes design 3,1ghz 64 +24=88 fp32

chip vermutlich 140mm² waferkosten grob geschätzt n4x 14000$ =39$ sku ab 409€ 16gb
30*88*2*3,1=16,3tf
120tmu (372gtexel) 32 rop (86gpixel)

Das wäre stillstand mit 24gbit und geändertem sm wäre man bei 163mm²
30*120*2*2,7 =19,4tf (47$ sku ab 379€ 12gb)
192tmu (595 gtexel) 32 rop (99,2gpixel nur für 1080p Sinnvoll nutzbar)
Das wäre ein fortschritt wo vorher stagnation wäre

aktuell ist das 24*88*2*2,8=11,8tf für 299€ 8gb
Der echte vergleich ist aber rtx4060ti 16gb 469€
34*88*2*2,8=16,5tf

Mit 3ghz ist das sehr unwahrscheinlich und es dürfte das erste Szenario eintreten
Da muss gddr7 24gbit rein dann wäre die sku ab 349€ umsetzbar
rtx5060 12gb 349€ 120tmu 32 rop reale 88fp32 = fp32 per chip nvidia Angabe 3072
grob 16,3tf
Das passt

Was wichtig ist was macht amd mit rdna 4 32 cu chip n43
32*64*2,34*3,55=17tf an 128bit mit 12gb ab 389€
Der chip misst grob 154mm² das pcb ist etwas teurer wenn nicht ist der preis bei 359€
Das entspricht im groben der rx7700xt bei 2,1ghz

Nun zum warum n4x erlaubt es nicht in 3ghz zu Takten selbst wen man das hopper design anlehnt und die chiparea vergrößert das geht erst ab n3e
zwar steigt die Taktrate bei n4x vergleichbar an ist aber die bessere yield vom 5nm somit dürfte die Energieeinsparung nicht geben.
Womit dann die Effizienz gleich bleibt von 4n
aus 130w aktuell für den ad107 wird nicht mehr sondern lediglich der Takt steigt um 11%
also density Rechnung von hopper 128fp32 bei 1,8ghz wird 2,16ghz *1,11= 2,39ghz*1,1( 10% größere Fläche=10% Takt) ergeben 2,62ghz

Darum sehe ich wenn die 3,0ghz Stimmen maximal das ada design kommen mit geändertem gpc tpc Struktur Änderung der Sinn dahinter ist aber nicht klar.
Die arch zu ändern macht mehr Sinn
In n3 sieht die Sache anders aus.
Da wären 15% mehr drin plus den 11% von n4x also am ende 3,0ghz mit dem neuen design aber dagegen spricht das nvidia alles in ai chips braucht an Kapazität dann wäre ein release nicht vor ende 2025 drin.
es könnte sein das nvidia nächstes Jahr einfach ada auf n4x portiert das würde die Probleme lösen.
150mm ² mit nen 14000$ wafer sind angenehmer als mitn 4n mit 17000$

Badesalz
2023-09-28, 23:14:07
Wir leben grad in unspanend spannenden Zeiten irgendwie, wo sich vieles an Eletkronik wie "ausentwickelt" gibt.

HOT
2023-09-29, 07:45:38
Nur weil GB100 N3 ist, ist GB2xx noch lange nicht N3. Ich tippe immer noch auf Riesenchips in N4P, was NV wieder eigens benennen wird, in 3N(?) diesmal?
Die brauchen einfach N3 komplett für GB100, weil die Nachfrage so gigantisch sein wird...

Ich tippe auf
- Turing-like monolithische Riesenchips (500mm²+ für GB103 und 750mm²+ für GB202)
- N4P-Fertigung (hat bis auf Fläche und etwas Stromsparen am Sweetspot eigentlich keine großartigen Nachteile ggü. N3, ist aber viel billiger)
- bei knapp 800mm² und dazu passendem Riesenpackage dürfte ein 512Bit GDDR6X/7 (also 16 Module) problemlos konfigurierbar sein.

AffenJack
2023-09-29, 09:25:21
Ich denke schon, dass auch GB202 auf N3 ist. Die Shadervergrößerung wäre in N5 zu groß und ich glaube nicht an 750mm²+.

Ich tippe aber darauf, dass man auf 512 Bit gegangen ist, da man den Cache wieder reduziert. Mit 512 Bit plus GDDR7 hat man genug Bandbreite, dass man von 96mb auf 64mb runter gehen kann.

Damit umgeht man ein wenig das Problem, dass der Cache bei N3 nicht skaliert, indem man ihn einfach verringert.

Badesalz
2023-10-01, 10:29:35
Die brauchen einfach N3 komplett für GB100, weil die Nachfrage so gigantisch sein wird...
Eher nicht. Das wird imho nur MI30x entscheiden wie schnell GB20x kommt. Also, wie viel und wie lange man N3 für was brauchen wird ;)

Die Kosten der Kundschaft für größere Aufbauten steigen. Der 7nm Prozess der den WSE-2 betrifft läuft fast schon so rund wie der 16nm davor. Und der lief richtig gut. Gegenüber den CS-2 reden wir hier eigentlich über recht teure und aufwendige Spielzeuge für kleine Lösungen oder Übungen.

Der Hype wird imho soweit bleiben, aber nach den Leistungsgenerationen der GB20x-Ära wird allem Anschein nach eine andere Ära anfangen...

Bezogen auf KI. Nicht auf GFX ;)

basix
2023-10-01, 11:54:59
warum sollten weniger GPC mit jeweils mehr SM besser skalieren?

die variante die du beschreibst braucht wahrscheinlich auch mehr als 1.5x register file und L1.

8x Rasterizer vs. 12x Rasterizer. Scheint anscheinend sehr schwierig zu sein, das auszulasten. Aber Kopite schrieb letztens, dass es bei 12 GPCs bleiben soll. Dafür 16x SM pro GPC anstatt 12x. Falls das stimmt, scheinen mehr SM / GPC also besser zu skalieren als mehr GPCs ;)


Ich denke schon, dass auch GB202 auf N3 ist. Die Shadervergrößerung wäre in N5 zu groß und ich glaube nicht an 750mm²+.

Ich tippe aber darauf, dass man auf 512 Bit gegangen ist, da man den Cache wieder reduziert. Mit 512 Bit plus GDDR7 hat man genug Bandbreite, dass man von 96mb auf 64mb runter gehen kann.

Damit umgeht man ein wenig das Problem, dass der Cache bei N3 nicht skaliert, indem man ihn einfach verringert.

Die Gerüchte um 512bit sprechen für mich eher für N4 und einen grossen Chip. Die für so ein grosses Interface notwendige Chip-Beachfront ist enorm. AMD hat zwar schon öfters 2x 32bit SI hintereinander auf den Chip gepackt (1x Reihe nicht am Rand des Chips, siehe N10 und MCDs bei RDNA3), bei Nvidia habe ich das aber noch nie gesehen.

Generell:
Ich erwarte, dass es bei 384bit bleibt. 24GByte sind genug, ein Kostenfaktor (auch wenn ich auf 24Gbit Chips und somit 36GByte hoffe ;)) und aus PCB Designaspekten sind 512bit sehr schwierig umzusetzen (ausser evtl. es gäbe GDDR7W). 32Gbps GDDR7 & die vollen 96 MByte L2$ sind bereits genug, um 192 vs. 128 SMs zu füttern, auch bei erhöhtem Core Clock (ca. +80% effektive Bandbreite). Es scheint zudem auf 12 GPC mit 8x TPC / 16x SM anstatt 6x TPC / 12x SM rauszulaufen, anhand der letzten Gerüchte. Dann steigt die Chipfläche in Relation zu den Anzahl SMs nicht wahnsinnig an. Die TPCs machen insgesamt nur ca. 1/3 der Fläche von AD102 aus. Wird dieser 1/3 um +33% grösser (12 -> 16 SM) dann wären wir bei ca. +10% Chipfläche. 650-700mm2 für den ganzen Chip. Verglichen mit einem 3nm Chip wäre das vermutlich günstiger in der Herstellung.

Hübie
2023-10-01, 15:25:20
Aber immer noch Singel-Chip? Frage mich was das dann kosten soll? 2499 - 2999 USD für die 24GB oder gar 3499 - 3999 USD für die 32GB?

Die Frage ist, wer sich überhaupt sowas leisten kann als Privat-User?

Habe selbst bei der ersten AMD-Karte mit >1000€ schon hart schlucken müssen...

Das, was Huang da per Brute-Force und "Ich habe den längsten Balken" betreibt, ist eine sehr schlechte (und zu teure) Entwicklung.

Es geht weniger ums leisten können, als um das Wollen. Wer will schon so viel Geld ausgeben um ein paar mehr fps und Features zu bekommen?
Ich tue mich mit der 1000 Euro Marke schon sehr schwer...

=Floi=
2023-10-01, 16:15:53
ne nv karte würde auch mit 10 50€ chiplets 2500€ kosten. Wie er wieder nicht kapieren will, dass nv kein problem mit zu grossen chips hat, sondern nimmt was der markt hergibt und die top tier karten noch weiter oben positioniert werden. Die karten sind nicht für die masse. Hier nimmt man ganz bewusst noch mehr geld.
Das ist kein VW, sondern ein porsche. Dort passt das p/l auch nicht.

Tesseract
2023-10-01, 16:58:14
8x Rasterizer vs. 12x Rasterizer. Scheint anscheinend sehr schwierig zu sein, das auszulasten.

mehr shader sind in spielen generell schwieriger auszulasten, welche variante besser ist hängt wohl vom workload ab. ich würde vermuten mehr GPC lassen sich eher besser auslasten, mehr SM/GPC werden aber kompakter sein. was in summe schneller pro fläche ist entscheiden wohl die architektursimulationen.

reaperrr
2023-10-01, 22:36:49
8x Rasterizer vs. 12x Rasterizer. Scheint anscheinend sehr schwierig zu sein, das auszulasten. Aber Kopite schrieb letztens, dass es bei 12 GPCs bleiben soll. Dafür 16x SM pro GPC anstatt 12x. Falls das stimmt, scheinen mehr SM / GPC also besser zu skalieren als mehr GPCs ;)
Sorry, aber das ist mMn Quatsch.

Die GPCs sind bei NV das, was bei AMD die ShaderEngines sind.

16 GPCs mit je 12 SM wären grundsätzlich auch etwas schneller als 12 GPCs mit je 16 SM (bei gleichem Takt).

Es ist eher so, dass jeder zusätzliche GPC auch zusätzliche Transistoren bedeutet, für Elemente die abgesehen von den zusätzlichen Rasterizern und ROPs nichts für die Roh-Leistung bringen.
Außerdem liegen alle GPCs nebeneinander, das heißt, es kann auch schlicht und ergreifend Chip-Layout-Gründe dafür geben, bei 12 GPCs zu bleiben.

Das wird jedenfalls eher ne Kosten/Nutzen-Rechnung sein, aber dass mehr GPCs bei gleicher SM-Gesamtzahl zu weniger Leistung führen sollen, halte ich gelinde gesagt für ne sehr gewagte Theorie. "Zu wenig für den zusätzlichen Transistor-Aufwand/Stromverbrauch" vielleicht, aber nicht weniger.

HOT
2023-10-02, 08:06:15
Eher nicht. Das wird imho nur MI30x entscheiden wie schnell GB20x kommt. Also, wie viel und wie lange man N3 für was brauchen wird ;)

Die Kosten der Kundschaft für größere Aufbauten steigen. Der 7nm Prozess der den WSE-2 betrifft läuft fast schon so rund wie der 16nm davor. Und der lief richtig gut. Gegenüber den CS-2 reden wir hier eigentlich über recht teure und aufwendige Spielzeuge für kleine Lösungen oder Übungen.

Der Hype wird imho soweit bleiben, aber nach den Leistungsgenerationen der GB20x-Ära wird allem Anschein nach eine andere Ära anfangen...

Bezogen auf KI. Nicht auf GFX ;)
Was hat MI300 damit zu tun? :freak:
Die Hersteller sichern sich Kontingente und NV wird sein gesamtes Kontingent für GB100 reservieren. Man kann ja hoffen, dass NV N3 auch für Grafik nutzt, aber ich sehe es einfach nicht.

Badesalz
2023-10-02, 09:47:04
Was hat MI300 damit zu tun? :freak:Sorry, habs falsch verstanden.

Die Hersteller sichern sich Kontingente und NV wird sein gesamtes Kontingent für GB100 reservieren. Man kann ja hoffen, dass NV N3 auch für Grafik nutzt, aber ich sehe es einfach nicht.
Ich ehrlich gesagt auch nicht. Scheint aber auch irgendwie nicht nötig zu sein, wenn man für den Markt produzieren will und nicht für irgendwelche klitzekleinen Forenblasen mit ihren >120fps und >4k.

Edgecrusher86
2023-10-02, 12:34:53
Bei 512-bit würde ja 24 Gbps GDDR7 reichen, um eine 50% höhere Bandbreite als mit 21 Gbps GDDR6X @ 384-bit zu erreichen.

Wäre es vielleicht möglich, dass in dem Fall der Verbrauchsunterschied gar nicht so hoch wäre - ich gehe jetzt einfach mal davon aus, dass man locker 100-200mV weniger als für 32 Gbps benötigen würde (auch als GDDR7).

Ich würde auf 384/320-bit für GB103 spekulier

256-bit und 16GB für die 70er Karten und GB105 - Krumme Module wie 12/24 Gb dürften wir wohl nicht so schnell am Markt sehen - so etwas gab es ja auch bisher nicht, auch wenn machbar.

192-bit und 12GB für GB106 und die 60er- 128-bit plus 8GB langen im Grunde für GB107 - man könnte ja auch 16GB anbieten. Die OEMs würde es freuen.

Im Prinzip braucht es ja bei verbreiterten SI durch die Bank ja nur Low-Power GDDR7 bei 21-24 Gbps, um das gesamte Portfolio abzudecken, gerade wenn NV zudem den L2 auf bis zu 128MB aufbohrt.

30+ Gbps wäre dann im Grunde erst für die 60 Series nötig.

Bis zu 700-750mm2 und N4(x) wäre sicherlich deutlich günstiger bei besseren yields, als ein N3 - auch wenn ich denke, dass es 600W TGP und (somit 3,5-4 Slot Kühler) brauchen dürfte, um über 50% auf die 4090 zu landen.

GB103 dann 450W
GB105 bei 350W
GB106 bei 250W

geschätzt.

Aber wenn eine Firma für Überraschungen gut ist, dann NV - vielleicht steigert man die Effizienz nochmals enorm und es sieht am Ende ähnlich wie bei Ada aus.

basix
2023-10-02, 17:14:14
Sorry, aber das ist mMn Quatsch.

Die GPCs sind bei NV das, was bei AMD die ShaderEngines sind.

16 GPCs mit je 12 SM wären grundsätzlich auch etwas schneller als 12 GPCs mit je 16 SM (bei gleichem Takt).

Es ist eher so, dass jeder zusätzliche GPC auch zusätzliche Transistoren bedeutet, für Elemente die abgesehen von den zusätzlichen Rasterizern und ROPs nichts für die Roh-Leistung bringen.
Außerdem liegen alle GPCs nebeneinander, das heißt, es kann auch schlicht und ergreifend Chip-Layout-Gründe dafür geben, bei 12 GPCs zu bleiben.

Das wird jedenfalls eher ne Kosten/Nutzen-Rechnung sein, aber dass mehr GPCs bei gleicher SM-Gesamtzahl zu weniger Leistung führen sollen, halte ich gelinde gesagt für ne sehr gewagte Theorie. "Zu wenig für den zusätzlichen Transistor-Aufwand/Stromverbrauch" vielleicht, aber nicht weniger.

Keiner von uns hier ist Chiparchitekt. Und ob mehr GPCs besser skalieren, ist auch nur eine Theorie ;) Mehr GPCs bedeutet mehr Sychronisierungsaufwand und mehr Clients am L2$. Ist nicht zwingend, dass das besser skaliert. Und die "neuen SMs" sind da auch noch. Das kann komplett anders skalieren

Zum Thema nebeneinanderliegende GPC: Ist bei AD102 nicht so. Da gibt es 2 Reihen mit je 6 GPCs. Dazwischen liegt der L2$.

Hübie
2023-10-02, 23:25:42
ne nv karte würde auch mit 10 50€ chiplets 2500€ kosten. Wie er wieder nicht kapieren will, dass nv kein problem mit zu grossen chips hat, sondern nimmt was der markt hergibt und die top tier karten noch weiter oben positioniert werden. Die karten sind nicht für die masse. Hier nimmt man ganz bewusst noch mehr geld.
Das ist kein VW, sondern ein porsche. Dort passt das p/l auch nicht.

Dann bist du schlicht noch keinen Porsche gefahren... Der 718 fängt irgendwo bei 65.000 Euro an und hier stimmt Preis-/Leistungsrelation sicherlich. Mein Volvo ist da schon teurer gewesen. Die Analogie hinkt also.

Bei mir (und da bin ich garantiert nicht der einzige Zocker), ist es aber so, dass ich vielleicht ein mal pro Monat ein paar Stunden daddeln kann und dann überlegt man sich hart was man investieren möchte und was nicht. Leisten können es sich bestimmt viele anwesende Mitglieder, aber wer will das denn schon? Wenn ich mir jetzt eine 7900XTX kaufe, dann tut es schon echt weh. Erst recht bei einer 4090. Wo kommen wir da mit der 5090 hin? Ich empfehle da mal sich mit dem Cournot'schen Modell zu befassen: https://welt-der-bwl.de/Cournot-Modell

So kann man auch Märkte zerstören und so wie ich es sehe, wird der Personal Computer sukzessive abgeschafft...
Mich interessiert schon gar nicht mehr wie viel GPC, TMUs und ALUs etc. da drin sind, sondern nur noch: how much is the fish. :-D

iamthebear
2023-10-03, 00:25:15
https://x.com/XpeaGPU/status/1708966879669415955?s=20

Sieht so aus als hätte auch Nvidia sein High End Modell eingestampft. Macht ja auch Sinn wenn man mit AI Beschleunigern das 10 fache verlangen kann und die kleinen Gamer zahlen sicher auch ein Vermögen für eine monolithische 80er Karte.

reaperrr
2023-10-03, 04:27:10
https://x.com/XpeaGPU/status/1708966879669415955?s=20

Sieht so aus als hätte auch Nvidia sein High End Modell eingestampft. Macht ja auch Sinn wenn man mit AI Beschleunigern das 10 fache verlangen kann und die kleinen Gamer zahlen sicher auch ein Vermögen für eine monolithische 80er Karte.
So wie ich das lese, haben sie nur ein Ultra-HighEnd-MCM-Modell mit HBM eingestampft, das sie gebracht hätten, wenn AMD was Fettes auf die Beine gestellt hätte.

Heißt noch nicht, dass der größte noch kommende Blackwell nicht trotzdem einigermaßen groß wird.

=Floi=
2023-10-03, 05:00:12
Dann bist du schlicht noch keinen Porsche gefahren... Der 718 fängt irgendwo bei 65.000 Euro an und hier stimmt Preis-/Leistungsrelation sicherlich. Mein Volvo ist da schon teurer gewesen. Die Analogie hinkt also.

komme aus dem bmw lager und wenn porsche so hohe margen generieren kann, müssen sie irgendwo überteuert sein.
65k grundpreis! Da ist porsche mittlerweile schlimmer wie andere, was die aufpreisliste angeht. Der kleinste 718 hat nen 2l turbo.
Dafür finde ich den preis wieder zu hoch.

Ich hatte eigentlich den GT3RS im kopf. So gut das auto sein mag, 233k grundpreis und 70000€ austattung passen nicht zu sammen. Die meisten fahrzeuge werden bei 300000€ liegen und das ist einfach zu viel.


Früher hat man mal einen "fairen" aufschlag genommen und heute nimmt man überall, was der markt hergibt und kreiert darüber ein noch viel teureres produkt. Auch das ganze upselling ist eine absurde sache.
E Bikes könnte man hier auch als beispiel nehmen.

Der einzelne kunde ist auch nichts mehr wert, wenn man einfach die stückzahl x zum überteuerten preis weltweit absetzen kann. Auf den weltmarkt bezogen funktionieren die überteuerten produkte.
Eine 4090 soll auch nicht für den normalverbraucher da sein. Die zielgruppe ist eine ganz andere.

Edgecrusher86
2023-10-03, 11:33:54
Ich hätte auch nicht mit einem MCM Design für den 102er gerechnet. Für HPC, was ja schon 70% vom Kuchen aus macht, natürlich. Bei Desktop frühstens zur RTX 6090.

So ein Klopper ähnlich Turing dürfte sicherlich "relativ günstig" werden in 4N. Zudem kann man die Abwärme extrem gut abführen. Ich rechne mit grob 300-350W Chip only bei 100% PT.

Die Margen von Porsche gehen doch noch gegenüber denen von NV. Im Schnitt sollen es glaube 25-28% sein. ^^

Aber ja, das ist sehr ordentlich für den Sektor.

Ja, ist ist wie überall - so lange es die Kunden zahlen, kann sich ein Hersteller jede Form von zusätzlichen Ausstattungsmerkmalen oder Geschwindigkeit vergolden. Das Gleiche sieht man ja nun zum Beispiel auch bei Smartphones mit Top Kameras - unter vierstellig geht nichts mehr...und die Leute kaufen, vor allem wenn ein angeknabberter Apfel drauf ist.
Schon eine Frechheit, über 1400€ für nur 256GB ab zu rufen. Android Geräte sind auch nicht wirklich besser. Ich denke, die Entwicklung wird ähnlich sein wie bei den Enthusiasten- Karten - Richtung 3000€ in ein paar Jahren, wie schon bei den Fold-Modellen.

Spätestens aber wenn dann auch die 60er GeForce 999€/$ teuer wäre, wäre der Markt wohl komplett hinüber und die Mehrheit wird höchstens zur Konsole greifen - die ich dann als Pro/X aber auch vierstellig sehe.

Neurosphere
2023-10-03, 21:33:23
So wie ich das lese, haben sie nur ein Ultra-HighEnd-MCM-Modell mit HBM eingestampft, das sie gebracht hätten, wenn AMD was Fettes auf die Beine gestellt hätte.

Heißt noch nicht, dass der größte noch kommende Blackwell nicht trotzdem einigermaßen groß wird.

Ich könnte mir auch vorstellen das NV sowas macht wie damals beim G92. Neues Verfahren, kleinerer, günstiger Chip der eine 4090 vielleicht um 10-30% in Raster/RT schlägt.

Mit Arch-Verbesserungen dürfte man das evtl mit 400-450mm² hinbekommen im Gegensatz zu AD102 mit 609mm². Was nicht dazu passt ist das Gerücht um die Speicheranbindung mit 512 Bit. Mit GDDR7 in den Startlöchern vermutlich aber auch nicht nötig und statt HBM für den Top-Chip projiziert.

Leonidas
2023-10-04, 07:29:52
So wie ich das lese, haben sie nur ein Ultra-HighEnd-MCM-Modell mit HBM eingestampft, das sie gebracht hätten, wenn AMD was Fettes auf die Beine gestellt hätte.

Richtig. Das wäre dann was anderes als GB202 gewesen, möglicherweise GB104 oder GB200. Aber in jedem Fall ein extra Grafikchip, denn man klatscht nicht einfach mal HBM an den GB202 dran.



Man kann ja hoffen, dass NV N3 auch für Grafik nutzt, aber ich sehe es einfach nicht.

Das ist Preisfrage: Wie groß würde GB202 unter N4P angesichts der kolportierten Hardware werden - und wie groß unter N3? Und zu welchen Kostenlagen würde dies jeweils führen (unterschiedliche Yield-Raten einrechen)?

HOT
2023-10-04, 08:27:08
750-800mm² mMn. Trotzdem wird sich das für NV lohnen, da man mit GB100 das 10 bis 100-Fache verdient.

Thunder99
2023-10-04, 12:56:03
Für die Kühlung wäre das Vorteilhaft.

Ein simpler Refresh ist wohl nicht geplant da die Entwicklung ja schon viel früher begonnen hat und entsprechend paar Produkte released werden sollten. Wieso sie die Serie 2xx nennen und nicht wie Ampere 10x ist meiner Meinung nach nur passiert, da signifikante Änderungen notwendig waren.

Edgecrusher86
2023-10-05, 10:11:34
Ich könnte mir auch vorstellen das NV sowas macht wie damals beim G92. Neues Verfahren, kleinerer, günstiger Chip der eine 4090 vielleicht um 10-30% in Raster/RT schlägt.

Mit Arch-Verbesserungen dürfte man das evtl mit 400-450mm² hinbekommen im Gegensatz zu AD102 mit 609mm². Was nicht dazu passt ist das Gerücht um die Speicheranbindung mit 512 Bit. Mit GDDR7 in den Startlöchern vermutlich aber auch nicht nötig und statt HBM für den Top-Chip projiziert.

Dann aber als RTX 5080 mit 384/352/320-bit SI. Bei der RTX 5090 muss man liefern - ich denke nicht, dass man hier über den Preis kommen würde - bei 20/22/24GB würden wohl auch 3090 (Ti) Besitzer nicht so erpicht auf ein "Upgrade" sein, von der 4090 kommend erst Recht nicht. ;-)

E: Es ist denn schon sicher, dass die Desktop Chips GB20x heißen?

Ja, wenn man auf 32 Gbps GDDR7 setzt, wäre 384-bit und 48GB wahrscheinlicher, als 24 Gbps und 512-bit, um grob 52% oberhalb der 4090/3090 Ti bei dem Speicherdurchsatz zu liegen. Vielleicht waren die 512-bit auch für das MCM Design vorgesehen?!

00-Schneider
2023-10-05, 11:14:32
Ja, wenn man auf 32 Gbps GDDR7 setzt, wäre 384-bit und 48GB wahrscheinlicher, als 24 Gbps und 512-bit, um grob 52% oberhalb der 4090/3090 Ti bei dem Speicherdurchsatz zu liegen. Vielleicht waren die 512-bit auch für das MCM Design vorgesehen?!


Die doppelte Speichermenge wird es bei der 5090 aus dem (trivialen) Grund nicht geben, weil das absoluter Overkill wäre.

Bekommt man die 24GB der 4090 in einem realistischen Szenario(max 2160p-Auflösung) überhaupt voll?

Cubitus
2023-10-05, 11:19:23
Bekommt man die 24GB der 4090 in einem realistischen Szenario(max 2160p-Auflösung) überhaupt voll?

Cyberpunks mit 2-3 ausgewählten Texturmods, selbst mit DLSS unter 4K läuft mir bei den besseren NPCs + Faces der Speicher voll.

The_Invisible
2023-10-05, 11:24:57
Cyberpunks mit 2-3 ausgewählten Texturmods, selbst mit DLSS unter 4K läuft mir bei den besseren NPCs + Faces der Speicher voll.

Hast noch spielbare fps? Zumindest in 4k/DLSS-Q in PT Mode belegts "nur" so 15-16GB inkl. einen Texturmod.

Hängt halt auch vom Speicherinterface ab, bei 512bit gibts sicher 32GB Speicher, bei 384bit muss Nvidia wohl schon gut drauf sein für 48GB.

Das Problem ist eher das die Mittelklasse nicht nachkommt, bei einer 5070 darf man wohl auch nur mit 16-20GB rechnen.

00-Schneider
2023-10-05, 11:51:29
Cyberpunks mit 2-3 ausgewählten Texturmods, selbst mit DLSS unter 4K läuft mir bei den besseren NPCs + Faces der Speicher voll.


Das erachte ich imho als Nische.

Mit Texturmods bekommt man auch bei deutlich älteren Spielen den Speicher voll. Das wird jetzt kein Maßstab für die Speicherbestückung der 5090 werden. Zumal mehr Speicher nur die Herstellkosten und damit dem Preis hochschraubt.

Die 24GB der 4090 haben sehr gut gepasst, 48GB bei der 5090 wäre für mich Overkill.

Daredevil
2023-10-05, 13:56:10
Für KI Beschleunigung ( Stable Diffusion ect. ) ist RAM durchaus wertvoll, damit man nicht nur gamer, sondern eben auch Prosumer anspricht.
Ist sicherlich eine Nische, ein MacStudio kann hier halt mit 192GB aufwiegen, wobei es dort sehr an Leistung mangelt, das Problem hat NVIDIA nicht. :D

Aber ja, das ist eine Nische, die fürs Gaming kaum relevant ist.
Will man die KI Spitze aber bleiben, muss eben halt auch RAM her.

00-Schneider
2023-10-05, 14:21:21
Hat Nvidia für KI-Anwendungen etc. nicht eine eigene Produktlinie? Ich dachte, hier gehts nur um die "Gaming-Karten".

Daredevil
2023-10-05, 16:39:45
Es gibt Anwendungen, die skaliert man in der Cloud, es gibt aber auch "Studio" Anwendungen, die laufen im Office bzw. auf den Rechner/Notebooks selbst. Eine Quadro kann es am Ende sein, das muss es aber nicht.

Troyan
2023-10-10, 13:16:32
Roadmap von nVidia für die nächsten zwei Jahre:
https://cdn.videocardz.com/1/2023/10/NVIDIA-ROADMAP-1200x670.png
https://videocardz.com/newz/nvidia-2024-2025-data-center-roadmap-lists-gh200-gb200-and-gx200-next-gen-gpus

Interessant ist B40. Diese Inference-Karten wurden bis jetzt immer von den Gaming-GPUs besetzt.

=Floi=
2023-10-10, 15:46:56
jährlicher produktrythmus!
das wird heftig.

mksn7
2023-10-10, 16:19:18
Roadmap von nVidia für die nächsten zwei Jahre:
https://cdn.videocardz.com/1/2023/10/NVIDIA-ROADMAP-1200x670.png
https://videocardz.com/newz/nvidia-2024-2025-data-center-roadmap-lists-gh200-gb200-and-gx200-next-gen-gpus

Interessant ist B40. Diese Inference-Karten wurden bis jetzt immer von den Gaming-GPUs besetzt.

Gibt ja jetzt schon die A40 und die L40, Serverauskopplungen der Gaming GPUs. B40 wird wohl genauso sein.

AffenJack
2023-10-10, 17:58:54
Gibt ja jetzt schon die A40 und die L40, Serverauskopplungen der Gaming GPUs. B40 wird wohl genauso sein.

Möglich, kann aber durchaus auch sein, dass Nvidia mittlerweile genug Umsatz mit AI macht, dass B40 usw separate AI Chips werden.

Hatstick
2023-10-10, 18:16:45
Sind Gaming GPUs eigentlich eher ein Nebenprodukt der großen KI Chips mit wenig Aufwand entwickelt oder kann man das so nicht sagen?

davidzo
2023-10-10, 18:43:13
Möglich, kann aber durchaus auch sein, dass Nvidia mittlerweile genug Umsatz mit AI macht, dass B40 usw separate AI Chips werden.

Die Folie zeigt aber Namen von SKUs und keine codenamen von Chips. Der Eindruck dass es sich dabei um neue Chipdesigns handelt entsteht schnell weil H100 eben sehr ähnlich klingt wie der Chip Codename GH100 (intern NV180, aber drauf stehen tut sowieso nichts mehr sinnvolles im Gegensatz zu den gaming-chips). Auch H800 ist eben ein GH100 basiertes Produkt, genau wie L40 nur ein produktname in der Teslaserie ist und kein GPU Codename.

GH200 ist ja auch nur H100 + Grace. Mal sehen was H200 bei Nvidia wird, vermutlich immer noch GH100 oder eben ein refresh. Es gab ja schon einige Analysten die vorrausgesagt haben das nvidia unter der hyperscaler Nachfrage und dem Eindruck von Mi-300x und Intel bald H100 mit schnellerem HBM und doppelt so hohen Stacks bringen wird.

Thunder99
2023-10-10, 19:35:13
Sind Gaming GPUs eigentlich eher ein Nebenprodukt der großen KI Chips mit wenig Aufwand entwickelt oder kann man das so nicht sagen?

Net das ich wüsste. Sie sind ein Nebenprodukt der eigentlichen Server GPUs. Damals gab es nur ein Produkt für alles. Dann Split zu Server und Gaming. Könnte mir vorstellen, dass nun Server, KI und Gaming jeweils separate also angepasste Chipa bekommen.

iamthebear
2023-10-10, 21:41:41
Die AI Workloads sind mittlerweile so verschieden, dass es Sinn machen würde diese generell unabhängig voneinander zu entwickeln.

Die klassischen Multimediakarten zum Rendern wird man wohl wieder von den Gaming GPUs nehmen. Hier sind die Workloads ja relativ ähnlich und der Markt eher klein.

Es ist jedoch fraglich, ob es bei Gaming GPUs überhaupt noch größere Neuentwicklungen geben wird. Nvidia hat hier anscheinend die Einstellung, dass man ab jetzt sämtliche Performance/Fläche Verbesserungen neuer Nodes dafür verwenden will um die Marge weiter aufzupolieren.

Edgecrusher86
2023-10-15, 15:05:34
WCCFTech News: NVIDIA Blackwell B100 GPUs To Feature SK Hynix HBM3e Memory, Launches In Q2 2024 Due To Rise In AI Demand (https://wccftech.com/nvidia-blackwell-b100-gpus-sk-hynix-hbm3e-memory-launches-q2-2024-rise-in-ai/)

HBM3E is included in B100, the next-generation AI flagship graphics processing unit (GPU) that NVIDIA plans to release around the second quarter of next year. The market predicts that B100 will be a more powerful AI game changer than H100, Nvidia's current highest-spec GPU.
This product is mainly used in AI cloud and supercomputing. NVIDIA accounts for more than 90% of the AI ​​GPU market share.

NVIDIA originally planned to release the B100 in the fourth quarter of next year, but is said to have moved up the release date to the end of the second quarter due to a rapid increase in demand. As the B100 release date was pushed forward, SK Hynix also became busy.
As the quality test schedule, which was originally expected to be in the beginning of the second quarter, has been pushed back to the first quarter, we are focusing on increasing yield. It is expected that the quantity for quality testing will be transferred to NVIDIA as early as January.

MT.co.kr (Machine Translated)

An official in the semiconductor industry said, “Without HBM3E, NVIDIA cannot sell B100,” and added, “Once the quality is met, a contract is only a matter of time.”

MT.co.kr (Machine Translated)

Blackwell 100 soll wohl seinen Launch schon in Q2/2024 statt Q4/2024 sehen, sofern die HBM3e rechtzeitig validiert und entsprechend produziert werden kann. Ich könnte mir vorstellen, dass man dann auch GB202/203 in Q4 marktreif bekommen könnte - in Form der RTX 5090 und 5080.
GB205 wird sicherlich wieder mindestens ein Quartal später erscheinen.

basix
2023-10-15, 15:47:15
2J nach H100 kann schon sein, obwohl H100 ja erst gegen Herbst 2022 wirklich verfügbar war.

Und Ende 2024 für Gaming Blackwell war für mich schon immer "klar". Gerüchte zu 2025 klangen nie wirklich vernünftig.

Fragman
2023-10-23, 13:37:06
dass man dann auch GB202/203 in Q4 marktreif bekommen könnte - in Form der RTX 5090 und 5080.


Das Gerücht kam ja direkt nach den neuen nv Plänen auf.
Kurz danach wurden aber die Super Karten angekündigt.
Die müssten dann recht zeitnah kommen, damit das so Sinn machen würde.

HOT
2023-10-23, 14:16:32
Sind GB20x N3 dann kommen die weit in 25, sind sie N4, könnten sie noch dieses Jahr erscheinen. GB20x in N3 dieses Jahr ist unmöglich.

Ich bin mittlerweile weg von GB2xx in N4, hab ich ja ne Weile geglaubt, aber ich denke jetzt eher, dass wir die in N3P sehen werden Richtung Ende 25. Die Gerüchte tendieren auch in diese Richtung.

Edgecrusher86
2023-11-11, 11:28:39
https://abload.de/img/screenshot2023-11-111uuclu.png

24Gb GDDR7 eröffnet NV natürlich ordentliche Möglichkeiten.
Es würde mich nicht wundern, wenn es fast durch die Bank käme - abseits einiger (zusätzlicher) Spar-Versionen. Mal mit 32 Gbps gerechnet, auch wenn ich eher davon ausgehe, dass wir des Öfteren weniger sehen werden.
Habe auch nochmal mehrere theoretische GB202 Cuts hinzugefügt.

GB202 - 32 Gbps G7 - 512-bit @ 48GB - 2048 GB/s [+103%]
GB202 - 32 Gbps G7 - 448-bit @ 42GB - 1792 GB/s [+78%]
GB202 - 32 Gbps G7 - 384-bit @ 36GB - 1536 GB/s [+52%]
GB202 - 32 Gbps G7 - 320-bit @ 30GB - 1280 GB/s [+27%]
GB203 - 32 Gbps G7 - 256-bit @ 24GB - 1052 GB/s [+43%]
GB205 - 32 Gbps G7 - 192-bit @ 18GB - 768 GB/s [+52%]
GB205 - 32 Gbps G7 - 160-bit @ 15GB - 640 GB/s [+27%]
GB206 - 32 Gbps G7 - 128-bit @ 12GB - 512 GB/s [+78%]
GB207 - 32 Gbps G7 - 96-bit @ 9GB - 384 GB/s [+78%]

Ich vermute, dass die Speicherbandbreite zu Ampere aber eher maximal um 50% ansteigen wird - ähnlich Turing auf Ampere [RTX TITAN vs. RTX 3090 Ti: 672GB/s zu 1008GB/s] und man darüber hinaus eher den L2 Cache auf bis zu 128MB steigert.

Hier mal das Ganze mit zumeist jeweils ca. 50% Bandbreitenplus auf Ada:

GB202 - 24 Gbps G7 - 512-bit @ 48GB - 1536 GB/s [+52%]
GB202 - 27,4 Gbps G7 - 448-bit @ 42GB - 1536 GB/s [+52%]
GB202 - 32 Gbps G7 - 384-bit @ 36GB - 1536 GB/s [+52%]
GB202 - 32 Gbps G7 - 320-bit @ 30GB - 1280 GB/s [+27%]
GB203 - 32 Gbps G7 - 256-bit @ 24GB - 1052 GB/s [+43%]
GB205 - 32 Gbps G7 - 192-bit @ 18GB - 768 GB/s [+52%]
GB205 - 32 Gbps G7 - 160-bit @ 15GB - 640 GB/s [+27%]
GB206 - 27 Gbps G7 - 128-bit @ 12GB - 432 GB/s [+50%]
GB207 - 27 Gbps G7 - 96-bit @ 9GB - 324 GB/s [+50%]

horn 12
2023-11-11, 11:57:57
GDDR7 Anfang 2025 frühestens, also Bleibt die Super Generation ein weiteres Jahr aktuell und falls der Top-Dog kommt,- nicht vor Cebit 2025
Mit dem Hauch einer Chance kurz vor Weihnachten 2024

Edgecrusher86
2023-11-11, 12:24:25
Also H2/2024 sagt die Micron Roadmap für GDDR7.

N3P, scheduled to enter production in the second half of 2024, offers an additional boost to N3E with 5% more speed at the same leakage, 5-10% power reduction at the same speed, and 1.04X more chip density.

N3X, which prioritizes performance and maximum clock frequencies for HPC applications, provides 5% more speed versus N3P at drive voltage of 1.2V, with the same improved chip density as N3P, and will enter volume production in 2025.

https://pr.tsmc.com/english/news/3021


Also kleinere Stückzahlen von GB202 + GB203 in Form der RTX 5090 und RTX 5080 sollten bis Dezember 2024 sicherlich möglich sein. Paperlaunch+ sozusagen.
Von Volume-Production für N3P sollte man wohl in der Tat erst ab 2025 ausgehen, ansonsten wäre es in dem Pressebericht erwähnt worden.

Gegenüber N5 sollte man für N3P wohl grob -37 bis -47% Leistungsaufnahme oder aber +23% Performance (bei selbiger) sehen.

basix
2023-11-11, 13:59:26
Anhand der Infos tippe ich auch auf Ende 2024 für einen möglichen Produktstart mit GDDR7. Würde für eine Einführung auf einer 5090 ja passen. BL103 allenfalls auch noch. BL105 und kleiner folgen später (bis Ende H1/2025).

An >384bit bei BL202 glaube ich immer noch nicht. Man hat bei AD102 ja noch nichtmal den ganzen L2$ aktiviert. Zusammen mit dem schnelleren GDDR7 hat man bereits ~1.7x mehr Bandbreite. Falls man die Caching Effizienz noch erhöht (Umbau SMs, Optimierungen am L2$) allenfalls noch mehr. Ich glaube das reicht.

24Gbit Chips gleich zum Start wäre schon genial. Sagen wir mal 1.7x Performance bei gleichen Preisen wie bei Ada, dazu jeweils 1.5x Speicher. Wäre mal ein fühlbarer Fortschritt bei P/L. Und so Rohrkrepierer wie die 4060 8GB würden von einem sinnvollen 12GB Nachfolger abgelöst.

Leonidas
2023-11-11, 14:24:33
Eigentlich hätten AMD/NV die 3-GByte-Chips schon diese HW-Gen benötigt. 12 GB für Mainstream in 2025 ist auch schon wieder recht knapp. Da liegen noch 1,5 Spiele-Gens dazwischen, die die Anforderungen weiter hochreißen können.

basix
2023-11-11, 14:36:30
18 GByte für 70er Klasse GPUs ist doch gut genug? Und 12 GByte für 1080...1440p dann hoffentlich auch. Muss man halt RT-GI nicht voll aufreissen und z.B. UE5 ist generell speichereffizient.

Altehardware
2023-11-11, 17:07:17
Das könnt ihr vergessen
Gb2xx Serie wird quasi ein ada refresh mit gddr7 reduzierten Si und keiner Änderung an den SM an Sich
Cache lässt sich nicht schrinken was die folge hat das man bei 11000$ Wafer preisen erst in n4x produzieren wird und vor q2 2025 wird das nix eher sogar q3 2025

quasi wird der chipaufbau so sein wie bisher ein gpc sind 6tpc 12 sm die in reihe übereinander sind wo in der Mitte der L2 cache sitzt
Das ist seit 2010 so mit fermi (gtx4xx)
Dabei sind 2 gpc an 64 bit angebunden
2gpc an 64bit =ad107
4 gpc an 128bit =ad106
6gpc an 192bit =ad104
8gpc an 256bit =ad103
12gpc an 384bit =ad102

Und gb2xx wird 16sm per gpc an 20 rop sein derzeit 16 rop an 12sm

bei gb20x wird es so ausgehen

gb207 2gpc 32sm =gb207 16sm 3,1ghz 40rop laptop only 64bit Si ~144mm² n4x node 11000$
chip bei 30$ +-13tf 2,6ghz
gb206 4 gpc 64sm =gb206 32sm 80rop 96bit Si ~225mm² 53$ sku ab 380$ vermutlich ab 399$ mit 48sm
gb205 6gpc 96sm= gb205 96sm 192bit Si ~390mm² 93$ sku ab 679$ sku Einführung ab 699$ +-49tf

gb207 laptop (13tf 6gb)
gb206 rtx5060/ti rtx5070 (ab 20tf bis 33,8tf 12gb)
gb205 rtx5070ti rtx5080/ti (ab 41tf bis 49tf 18gb)
gb203 rtx5090 (ab 76tf 24gb)

Aktuell
ad107 11tf 40$
ad106 16tf 50$
ad104 30tf 90-100$
ad103 37tf 130$
ad102 63tf 170$-300$

Annahme des vram preis ab 20$ per 24gbit 36gbps

mit diesem design ändert man nix an der SM Struktur folglich nix am Treiber das hat nvidia seit Einführung von dx11 verhindert (gtx4xx)
Darum addiert sich die menge aber nicht die Struktur. ob der L2 sich vergrößert ist ungewiss ich gehe nicht davon aus.
Das ist im übrigen die 4te aufbau änderung seit 2012

AffenJack
2023-11-11, 18:29:00
Anhand der Infos tippe ich auch auf Ende 2024 für einen möglichen Produktstart mit GDDR7. Würde für eine Einführung auf einer 5090 ja passen. BL103 allenfalls auch noch. BL105 und kleiner folgen später (bis Ende H1/2025).

An >384bit bei BL202 glaube ich immer noch nicht. Man hat bei AD102 ja noch nichtmal den ganzen L2$ aktiviert. Zusammen mit dem schnelleren GDDR7 hat man bereits ~1.7x mehr Bandbreite. Falls man die Caching Effizienz noch erhöht (Umbau SMs, Optimierungen am L2$) allenfalls noch mehr. Ich glaube das reicht.

24Gbit Chips gleich zum Start wäre schon genial. Sagen wir mal 1.7x Performance bei gleichen Preisen wie bei Ada, dazu jeweils 1.5x Speicher. Wäre mal ein fühlbarer Fortschritt bei P/L. Und so Rohrkrepierer wie die 4060 8GB würden von einem sinnvollen 12GB Nachfolger abgelöst.

Ich gehe auch von Ende 2024 für die 5090 aus. Einfach damit man nen Flagship in 2024 launchen kann. Alles weitere dann 2025. Da braucht man auch keine großen GDDR7 Kapazitäten für und kann die bringen, während Micron rampt.

1,7x Performance? Viel zu optimistisch bei N3. Dafür bringt der Node einfach zu wenig. Allerhöchstens bei der 5090, wenn man da nen Chip nicht soweit vom Vollausbau bringt und wirklich auf 512 Bit geht. Dann wird der Preis aber auch massiv steigen. Ansonsten wird N3 aber nicht viel mehr als 30% bringen bei den Chips und wir müssen hoffen, dass das überhaupt ankommt beim Preis/Leistung.

Bin aber auch auf den neuen SM Aufbau gespannt. Nachdem Lovelace beim SM-Aufbau keine Weiterentwicklung gebracht hat und sich stärker von Hopper unterschieden hat, kommt man bei Blackwell wohl wieder zu mehr zusammen. Lovelace hatte ja zb kein Distributed Shared Memory. Zusätzlich soll sich Blackwell gemäß der Leaks ja schon deutlich verändern.

Leonidas
2023-11-13, 06:31:21
1,7x Performance? Viel zu optimistisch bei N3.

Unterstreiche ich deutlich. Zudem sind die viel genannten "1,7x" doch eigentlich der Rohleistungs-Zuwachs. Und seit wann geht dieser zu 100% in Mehrperformance über?

basix
2023-11-13, 08:23:57
Ihr wisst schon, dass wir im Speku Forum sind ;) Die Werte in der Gerüchteküche können stimmen, können aber auch ganz falsch sein. Egal ob SM Count, Rohleistung oder Performance-Projektion.

Zudem: Es gab schon 2x Performance im gleichen Node. Immer diese Schwarzseher hier ;)

KarlKastor
2023-11-13, 10:34:30
Unmöglich ist das nicht, dann sprechen wir aber von >800 mm².
Bei gleicher Performance pro Transistor wären es schon knapp 800 mm².
Da aber die Fertigung bei weitem keine Effizienzsteigerung in der Nähe von 40% bietet, müssen ordentlich Transistoren für ein breiteres oder effizienteres Design investiert werden.

AD102 war halt schon richtig fett.

davidzo
2023-11-13, 12:35:22
Ihr wisst schon, dass wir im Speku Forum sind ;) Die Werte in der Gerüchteküche können stimmen, können aber auch ganz falsch sein. Egal ob SM Count, Rohleistung oder Performance-Projektion.

Zudem: Es gab schon 2x Performance im gleichen Node. Immer diese Schwarzseher hier ;)
Wann gab es das?

Der größte Architektursprung im gleichen Node im letzten Jahrzehnt war afaik Maxwell. Und der war unter 1,5X, also was 780ti->980ti angeht, denn der Sprung GTX780->GTX980 war eher 1,3x. Wenn es mal Sprünge von 2x gibt dann wegen VRAM Limit oder fehlender Features, DLSS vs nonDLSS oder RT HW-level. Im Rasterizing gibt es sowas nicht.

N3 wird auch in 2025 kein günstigerer node als N4 jetzt, daher werden wir Sprünge von 2,0x wohl eher nicht sehen (werden wir wohl nie mehr sehen, die Zeit der großen Sprünge bei den GPUs ist endgültig vorbei).

Die Entwicklung des Grafikkartenspeichers auf den letzten Seiten zeigt ja ein wenig was man für die GPUs erwarten kann. Im Gegensatz zu dem Tempo wie sich HBM weiterentwickelt stagniert der Consumer VRAM eher. Das hat sicher auch mit den Plänen von Nvidia und AMD zutun. Die Zeichen im Consumer GPU-Markt stehen auf Konsolidierung und Margensteigerung.
Da weder das Speicherinterface noch der SRAM in N3 nennenswert skaliert, kann man davon ausgehen dass jeder Hersteller versucht beides so gering wie möglich zu halten. Das beste was wir erwarten können wären gleich große Speicherinterfaces wie jetzt. Größere Caches und SIs gibt es erst wenn die im Base-Die (N6) gestackt werden können, nicht im N3 compute Die.

Was übrig bleibt ist also ein +33% Zuwachs an Bandbreite pro Modul mit GDDR7 und +50% Kapazität. Letzteres ist überfällig da die midrange Karten wie die 4060 bereits zum Launch Speicherlimitiert sind.

Die Bandbreite begrenzt allerdings auch den Leistungszuwachs.
Da der Compute-Bedarf traditionell immer schneller zunimmt als der Bandbreiten-Bedarf kann man bei +33% Bandbreite einen effektiven Zuwachs an Compute-Leistung im Rahmen von +50% bis +70% annehmen. Ich schreibe effektiver Zuwachs, weil es durchaus ein etwas anderer Aufbau der SMs sein könnte wie Fermi-> Kepler oder Pascal -> Turing und dadurch die Rohleistung nicht als Referenz taugt.
Was dann davon in Games an Rasterleistung ankommt geht von 1,33 bis 1,5x / 1,7x je nachdem ob man Bandbreiten oder Compute limitiert ist.

Troyan
2023-11-13, 15:16:37
Offiziell von nVidia's Supercomputer PR:
https://pics.computerbase.de/1/1/0/0/0/4-3bf5b0457d9d74d5/7-1080.e5dc0bf1.png
https://www.computerbase.de/2023-11/nvidia-h200-hopper-upgrade-mit-141-gbyte-hbm3e-ueberbrueckt-zeit-bis-blackwell/

Und hier von Youtube:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=86035&stc=1&d=1699885397

Nightspider
2023-11-13, 15:49:27
Kommt B100 nun etwas später oder zeigt der Slide nur die wahre Auslieferungszeit, die deutlich nach dem offiziellen Release liegt, wie eventuell auch bei H200 ?

CB hat dazu auch was geschrieben.

https://www.computerbase.de/2023-11/nvidia-h200-hopper-upgrade-mit-141-gbyte-hbm3e-ueberbrueckt-zeit-bis-blackwell/

Offiziell bleibt für Nvidia B100 ein Starttermin im Jahr 2024 im Kalender. Doch der dürfte in der Realität wohl kaum zutreffen, vielmehr eher auf dem Papier stattfinden. Denn schließlich führen Nvidias eigene Diagramm die H100-Lösungen nun teilweise auch erst ab dem Jahr 2023 – vorgestellt wurde das Modell aber schon im März 2022. Realistisch dürfte von so einem Zeitrahmen auch für Nvidia Blackwell ausgegangen werden, ein HBM-Schaubild deutet dies auch bereits an.

Troyan
2023-11-13, 15:55:18
Vorstellung im März, Auslieferung wohl Ende 2024.

AffenJack
2023-11-13, 16:14:51
Kommt B100 nun etwas später oder zeigt der Slide nur die wahre Auslieferungszeit, die deutlich nach dem offiziellen Release liegt, wie eventuell auch bei H200 ?

CB hat dazu auch was geschrieben.

https://www.computerbase.de/2023-11/nvidia-h200-hopper-upgrade-mit-141-gbyte-hbm3e-ueberbrueckt-zeit-bis-blackwell/

CB spekuliert hier über 2025 gegenteilig zu Nvidias Folie die B100 für 2024 ankündigt. H100 muss man auch in Verbindung mit den CPUs Verschiebungen sehen. Wegen Intels Problemen ist die Verfügbarkeiten der ganzen Referenzlösungen damals tatsächlich eher nach 2023 gewandert. Das entspricht jetzt eher den wirklichen Verfügbarkeitsterminen, die bei B100 wohl eher nach Q4 24 aussehen, so wie bei H100 damals eigentlich schon. A100 mit fast 2019 passt aber auch nicht so recht, naja, alles etwas kreativ dargestellt. Nichtdestotrotz steht erstmal auf beiden Folien die Aussage 2024.

basix
2023-11-13, 20:22:10
Wann gab es das?

Maxwell war 1.5x, das ist richtig

2x war 6900XT -> 5700XT ;)

AD102 in Form der 4090 ist ja gar nicht richtig ausgefahren. 10-15% kriegst du da locker noch raus (mehr SMs, 450W voll ausnutzen). Bei Blackwell dann ein sehr fetter N4 Chip (TU102 Grössenordnung) oder N3 und wesentliche Architekturverbesserungen. Zum Beispiel auch, dass die Architektur einfach besser nach oben skaliert (AD102 sieht gegen AD103 nicht so doll aus). Dann können im Schnitt schon irgendwo 1.7x oder gar mehr rausschauen. Ich sage nicht, dass das einfach ist. Unmöglich ist es aber auch nicht ;)

Beispiel:
+15% (voller AD102)
+25% bessere Skalierung nach oben bei 4K (~4080 Perf/SM *0.9 -> muss nichtmal perfekt sein)
+33% SM (192 vs. 144)
--> 1.15*1.25*1.33 = 1.92x

Jetzt halt noch Salvage:
- 172 SM / 192 SM aktiviert (-1x GPC à 16 SM, -4SM)
--> 1.92 / 192 * 172 = 1.72x

Hier bleiben die Taktraten sogar noch unangetastet, was die Energieffizienz "maximiert". IPC ist ebenfalls nicht gestiegen, wenn man es auf AD103 bezieht, könnte theoretisch noch obendrauf kommen. N3E soll -32% Power oder 1.47x Effizienz gegebüber N5 bringen: https://www.anandtech.com/show/18833/tsmc-details-3nm-evolution-n3e-on-schedule-n3p-n3x-deliver-five-percent-gains
Dazu 450W anstatt typ. 380W bei der 4090 und voilà, 1.7x sind erreicht. Deswegen: Vorsichtig optimistisch darf man durchweg sein ;)

Und wie gesagt: Bandbreite ist mMn weniger das Problem, wenn man den vollen L2$ bekommt und 32 Gbps GDDR7 verwendet. Sind nämlich ebenfalls 1.7x effektive Bandbreite.

robbitop
2023-11-14, 13:41:55
2x war 6900XT -> 5700XT ;)
Das ging aber nur, weil die 5700XT ein midrange Produkt war und es kein high End RDNA1 gab.
Das letzte (echte) Mal dürfte G80 gewesen sein. Brauchte aber auch massiv mehr die space als G71.
AD102 ist bereits relativ groß. Da ist (trotz relativ starker Beschneidung) weniger Potenzial nach oben auch wenn man bis an's recticle limit geht.

Ansonsten sehr optimistisch deine Rechnung. SMs/CUs skalieren oft etwas unterproportional. ~0,7 war es bei RDNA2 zB IIRC

Ansonsten haben wir schon seit Turing keine "IPC Steigerung" mehr gesehen. Im Gegenteil - Ampere hatte weniger Performance pro Flop als Turing und Ada auch. Und selbst wenn es eine Steigerung gibt, kostet die dann auch ordentlich Transistoren. There is no free lunch.
Im besten Fall skaliert Performance linear mit dem Transistoreinsatz. Ada skalierte weniger als Faktor 1 mit dem Transistoreinsatz.
AD102 hat ~12% deaktivierte Einheiten und weitere ~30% sind es noch bis zum recticle Limit. Wobei anzunehmen ist, dass eine gewisse Menge Einheiten deaktiviert bleibt bei einem so großen Chip.
Ich komme bei linearer Performancesteigerung pro Transistor auf maximal +45% bis zum recticle limit. Und da sicherlich was deaktiviert sein wird bei so großen GPUs sind es wohl eher <40%.
Es sei denn man nutzt bei gleichem node mehr die space über chiplets / Stapelung usw.

Konami
2023-11-15, 16:02:31
kopite7kimi: 384 bit breites Speicherinterface bei GB202? (Bin mir nicht sicher ob das GB102 heißen sollte)
https://twitter.com/kopite7kimi/status/1724777365786812426

HOT
2023-11-15, 16:13:30
Das sind ja alles decisions-in-progress momentan. Das kann sich auch noch ein paar mal ändern, bis das Design komplett ist. Wir reden hier ja von einem Tapeout frühestens im Sommer. Mir kommt das auch so vor, als würde NV da wirklich außerordentlich viel Arbeit reinstecken dieses Mal - das wird bestimmt ne echt große Veränderung, sicherlich die größte seit Maxwell1. Für uns Kunden kann das nur gut sein, wenn der Marktführer hier eben nicht Faul wird und die Schlagzahl reduziert im Geld zu verdienen - dafür ist NV aber nicht Konzern genug organisiert, was gut ist.

MiamiNice
2023-11-15, 16:17:23
Muss leider feststellen, dass der Spekulatius zu neuen GPUs, mich nicht mehr flasht. Was hilft es zu wissen wie viele GPCs, Shader, ROPs, etc. pp der volle Chip haben wird, wenn auf der 5090 dann der 103er Chip prangert :freak:

Leonidas
2023-11-15, 17:12:35
(Bin mir nicht sicher ob das GB102 heißen sollte)

Soll tatsächlich GB202 heißen. GB1xx ist für HPC, GB2xx für Consumer.

Gouvernator
2023-11-15, 22:53:07
Da es nur ein 24Gb Krüppel werden wird, stirbt auch die Hoffnung auf eine effiziente billige 3090. Ich dachte, wenn ein Top-Chip mit 48Gb VRAM kommt, dann kann man wenigstens eine RTX5070 mit 24GB und 150Watt für weit unter 1000€ erhalten. Nun will NV aber den 24Gb Müll für teueres Geld andrehen, was bessere Speicheraustattung für kleinere GPUs ausschließt.

Leonidas
2023-11-16, 07:40:38
Jein. NV ist jetzt bei den kleineren GPUs entweder zu 3GByte-Speicherchips oder glatter Speicherverdopplung gezwungen. Ergo 12 oder 16 GByte. Denn 8 GB VRAM sehe ich nicht im Jahr 2025 bei einem Neuprodukt.

Kriegsgeier
2023-11-16, 09:56:30
perfekt, wird ein schönes Upgrade von meiner RTX 3090 werden.
Mit ca. +100% Leistungszuwachs.

3090ger SLI ohne SLI-Probleme halt Passt!

Wie damals Ende 2020: 1080Ti --> RTX 3090

Und das geilste: GTA6 ist dann raus... Perfekter Zeitpunkt zum Upgraden

Edgecrusher86
2023-11-16, 10:13:04
Locker 140%(+) auf eine 3090, wenn wir mal "konservativ" 70% zu AD102 rechnen in 4K RT. 😉

The_Invisible
2023-11-16, 11:56:09
perfekt, wird ein schönes Upgrade von meiner RTX 3090 werden.
Mit ca. +100% Leistungszuwachs.

3090ger SLI ohne SLI-Probleme halt Passt!

Wie damals Ende 2020: 1080Ti --> RTX 3090

Und das geilste: GTA6 ist dann raus... Perfekter Zeitpunkt zum Upgraden

4090 ist manchmal schon doppelt so schnell wie eine normale 3090er https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/ :D

MiamiNice
2023-11-16, 12:01:28
Schon wahnwitzig, wie viel Liestung man sich mit unechten Frames an den Balken schreiben kann.

Exxtreme
2023-11-16, 12:01:51
4090 ist manchmal schon doppelt so schnell wie eine normale 3090er https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/ :D

Und manchmal sogar mehr als doppelt so schnell wie eine RTX 3090Ti. :D

https://www.pcgameshardware.de/Alan-Wake-2-Spiel-17706/Specials/Release-Test-Benchmarks-1432197/2/

Troyan
2023-11-16, 12:05:08
Jap, 4090 ist im Grunde wie die GTX8800 von 2006. Mit Raytracing ist das Ding fast 2x schneller als die 3090.

Schade einfach, dass durch die Konsolen das Potential nicht wirklich ausgeschöpft werden kann. Engines und Spiele für 10 alte AMD IP zu entwickeln, heißt eben auch moderne nVidia GPUs zu ignorieren. UE5 ist das die größte Verarsche mit den erbärmlichen Lumen System.

MiamiNice
2023-11-16, 12:24:39
Vielleicht ist es aber auch anderes herum und die 10 Jahre alte AMD IP in den Konsolen beschwert uns noch 1-2 spielbare Spiele im Jahr. Spiele die das Potenzial moderner GPUs ausnutzen, müssen hauptsächlich von Heerscharen an Grafik Designer erstellt werden. Wenn man die bezahlt hat, bleibt nur noch Geld für die Werbung über. Und genau so spielen sich auch alle Titel die das volle Potenzial der überlegenden NV Gpus ausnutzen.
Die größe Verarsche sind daher derzeit die "Spiele" selber.

rentex
2023-11-16, 14:42:01
Vielleicht ist es aber auch anderes herum und die 10 Jahre alte AMD IP in den Konsolen beschwert uns noch 1-2 spielbare Spiele im Jahr. Spiele die das Potenzial moderner GPUs ausnutzen, müssen hauptsächlich von Heerscharen an Grafik Designer erstellt werden. Wenn man die bezahlt hat, bleibt nur noch Geld für die Werbung über. Und genau so spielen sich auch alle Titel die das volle Potenzial der überlegenden NV Gpus ausnutzen.
Die größe Verarsche sind daher derzeit die "Spiele" selber.

+1 , Danke. Spieleentwickler können mit zuviel Rechenpower am Markt nicht umgehen...sie vergessen dabe einfach die Optimierung ihrer Werke.

Exxtreme
2023-11-16, 14:55:56
+1 , Danke. Spieleentwickler können mit zuviel Rechenpower am Markt nicht umgehen...sie vergessen dabe einfach die Optimierung ihrer Werke.

Eigentlich sind nicht die Spieleentwickler dran schuld sondern deren Management. Gute Performance ist ein sog. nicht-funktionales Feature. Und für sowas gibt es sehr oft kein Budget oder keine Zeit.

Platos
2023-11-16, 15:02:39
Dass Konsolen ausbremsen, ist ein Mythos. Es ist ein Trugschluss zu glauben, dass PC-Gamer = bessere Hardware, wie Konoslen bedeutet. Im Gegenteil, die ganzen Gamer auf Konsolen werten den Hardwaredurchschnitt (zumindest in den ersten 4. Jahren) massiv auf. Würde es die nicht geben, würden die alle auf uralten PCs zocken. Und die meisten Gamer sind ja am PC jetzt schon unter PS5 Niveau. Dazu kommen noch Dinge wie, dass Konsolen heute vorreiter sind im Bezug auf SSD nutzen etc.

Und was denkt ihr, was für PCs würden Käufer einer 500$ Konsole kaufen?

Abgesehen davon: Was man mit viel Hardware-Power macht, sieht man doch wunderbar in modernen Spielen. Es werden einfach unoptimierte Spiele raus gebracht.

Die Hardware an der Spitze hat noch nie die Spiele diktiert und wird es auch nie. Wenn Konsolen durch PCs ersetzt würden, was denkt ihr, was die kaufen? Natürlich günstige Billig-PCs im Preisvereich einer Konsole... Und zwar Fertig-PCs..

Eigentlich sind nicht die Spieleentwickler dran schuld sondern deren Management. Gute Performance ist ein sog. nicht-funktionales Feature. Und für sowas gibt es sehr oft kein Budget oder keine Zeit.

Oder aber die Spieler, die ständig Spiele Day-One kaufen oder eben sonst recht Zeitnah am Release (bzw. in einem nicht fertige Zustand).

Altehardware
2023-11-16, 15:10:50
Das Konsolen die PC aufhalten stimmt nicht das war mal so 2012 so als die ps3 6 Jahre am markt war und die xbox360 mit ihren 512mb alles aufgehalten hat.
Das kein vergleich zu heute wo ne xbonex und ps4 pro das frühzeitig verhindert hat
Stellt euch vor die ps5 würde kein update bekommen zur ps5 pro dann wäre die situation um 2028 auch so wie 2012 aber derzeit limitieren die Konsolen nicht Eher ist es umgekehrt.

Lurtz
2023-11-16, 15:38:58
Dass Konsolen ausbremsen, ist ein Mythos. Es ist ein Trugschluss zu glauben, dass PC-Gamer = bessere Hardware, wie Konoslen bedeutet. Im Gegenteil, die ganzen Gamer auf Konsolen werten den Hardwaredurchschnitt (zumindest in den ersten 4. Jahren) massiv auf. Würde es die nicht geben, würden die alle auf uralten PCs zocken. Und die meisten Gamer sind ja am PC jetzt schon unter PS5 Niveau. Dazu kommen noch Dinge wie, dass Konsolen heute vorreiter sind im Bezug auf SSD nutzen etc.

Und was denkt ihr, was für PCs würden Käufer einer 500$ Konsole kaufen?

Abgesehen davon: Was man mit viel Hardware-Power macht, sieht man doch wunderbar in modernen Spielen. Es werden einfach unoptimierte Spiele raus gebracht.
Nein.

Und gerade sieht man doch wieder eindrucksvoll, wie "Optimierung" zumindest bei allem außer wenigen 1st-Party-Titeln auch auf Konsole funktioniert:
Erst werden die FPS von 60 auf 30 gecappt und dann wird die Auflösung bis zur Schmerzgrenze reduziert. Bei low Details (Alan Wake 2, UE5-Spiele).

Wow, much Optimierung :uclap:

basix
2023-11-16, 19:51:19
Siehe Robocop Rogue City: Optimierung / gute Umsetzung funktioniert auch bei einem kleinen Studio ;)

OgrEGT
2023-11-18, 16:16:24
https://videocardz.com/newz/nvidia-geforce-rtx-50-series-to-feature-displayport-2-1-using-tsmc-3nm-node
Displayport 2.1
TSMC 3nm

Wuge
2023-11-18, 18:25:55
Alos PCIe5 und DP2.1 hätte ich mir als Prognose auch grad noch zugetraut ;D

TheAntitheist
2023-11-18, 21:29:42
+1 , Danke. Spieleentwickler können mit zuviel Rechenpower am Markt nicht umgehen...sie vergessen dabe einfach die Optimierung ihrer Werke.
das eine hat nichts mit dem anderen zu tun... die engine devs und map designer können ihre Arbeit getrennt von den Animatoren, Modeller und Textur artists machen. Die Qualität kann dort immer gesteigert werden und neuere Hardware ausnutzen, muss halt nur per LOD skaliert werden. und Raytracing an und aus geht auch immer...

Ich weiß nicht aber ich habe das Gefühl das viele nicht verstehen wo und was optimiert werden kann. Aber das hat fast nichts mit HQ content zu tun.

Der große Sprung wird erst kommen wenn komplett auf RT lighting umgestellt werden kann und da fehlt es auch bei den PC Spielern an genug potenter HW. die 12% AMD Userbase kann man da getrost vernachlässigen, auch wenn man nur Nvidia user nehmen würde, gibt es nicht genug.
Aber wenn es nur noch RT Lighting gibt, dann können die Devs sich darauf konzentrieren, dann wirds geil aussehen. DANN kann man es auch erst teil der Spiele machen und sie in die Spielekonzepte integrieren.

rentex
2023-11-19, 11:40:05
das eine hat nichts mit dem anderen zu tun... die engine devs und map designer können ihre Arbeit getrennt von den Animatoren, Modeller und Textur artists machen. Die Qualität kann dort immer gesteigert werden und neuere Hardware ausnutzen, muss halt nur per LOD skaliert werden. und Raytracing an und aus geht auch immer...

Ich weiß nicht aber ich habe das Gefühl das viele nicht verstehen wo und was optimiert werden kann. Aber das hat fast nichts mit HQ content zu tun.

Der große Sprung wird erst kommen wenn komplett auf RT lighting umgestellt werden kann und da fehlt es auch bei den PC Spielern an genug potenter HW. die 12% AMD Userbase kann man da getrost vernachlässigen, auch wenn man nur Nvidia user nehmen würde, gibt es nicht genug.
Aber wenn es nur noch RT Lighting gibt, dann können die Devs sich darauf konzentrieren, dann wirds geil aussehen. DANN kann man es auch erst teil der Spiele machen und sie in die Spielekonzepte integrieren.

Dann erklär es uns! Warum bekommen es andere Studios/ Entwickler hin und warum?
Für mich als Kunden ist entscheidend was am Ende rauskommt, nicht mehr und nicht weniger.

Troyan
2023-11-19, 14:58:35
Vielleicht ist es aber auch anderes herum und die 10 Jahre alte AMD IP in den Konsolen beschwert uns noch 1-2 spielbare Spiele im Jahr. Spiele die das Potenzial moderner GPUs ausnutzen, müssen hauptsächlich von Heerscharen an Grafik Designer erstellt werden. Wenn man die bezahlt hat, bleibt nur noch Geld für die Werbung über. Und genau so spielen sich auch alle Titel die das volle Potenzial der überlegenden NV Gpus ausnutzen.
Die größe Verarsche sind daher derzeit die "Spiele" selber.

Na, Raytracing ist eine Engine-Funktion. Hier wird einfach nur Licht und die Reflektion davon simuliert. Da muss kein "Grafik Designer" was machen.

Es macht die Arbeit so einfacher und schneller, wodurch mehr Zeit in wirkliche reale Arbeit gesteckt werden kann.

Schau dir einfach Remedy mit Quantum Break und Control an. Beides Spiele für die letzte Konsolengeneration, beide setzen massiv auf SSRs. Control mit Raytracing sieht absolut Bombe aus und liefert ein absurd sauberes Bild. Quantum Break ist dagegen ein rumgeflimmeretes etwas.

Die Konsolen sind der Grund, wieso UE5 so miserabel ist. Hardware-RT ist ein Nogo. Damit auch keine bessere Qualität für PC-Spieler.

Dass Konsolen ausbremsen, ist ein Mythos. Es ist ein Trugschluss zu glauben, dass PC-Gamer = bessere Hardware, wie Konoslen bedeutet. Im Gegenteil, die ganzen Gamer auf Konsolen werten den Hardwaredurchschnitt (zumindest in den ersten 4. Jahren) massiv auf. Würde es die nicht geben, würden die alle auf uralten PCs zocken. Und die meisten Gamer sind ja am PC jetzt schon unter PS5 Niveau. Dazu kommen noch Dinge wie, dass Konsolen heute vorreiter sind im Bezug auf SSD nutzen etc.


Wie genau werten die Konsolen den "Hardwaredurchschnitt" auf, wenn die Hardware komplett veraltet ist? Einzig allein TFLOPs sagt überhaupt nichts aus. Aktuell gilt das nur für VRAM, aber IP technisch werten die den Markt komplett ab. Eine Hälfte spielt mit modernen nVidia-GPUs seit Turing, die andere mit komplett veralteter AMD Technik Pre-Turing. Nichts ist schlimmer für den PC-Spieler, wenn soviele Spieler aktuelle Produkte mit alter Technik kaufen.

Platos
2023-11-19, 16:33:00
Ganz einfach, die PS5 besitzt potentere Hardware, wie viele PC-Gamer haben.

Also hebt es den Durchschnitt an. Und das seit 2020. Das wird auch so noch anhalten, bis mindestens zur nächsten Grafikkarten Generation.

Dazu einfach mal Steam anschauen, da siehst du, dass immer noch so viele ein deutlich schlechtere Grafikkarte haben, wie eine PS5.

Hier mal die Grafikkarten aus den Top 20 Grafikkarten bei Steam, die schlechter, wie eine PS5 sind:

RTX 2060 ~6%, GTX 1060 ~5%, GTX 1650 ~3.5%, RTX 3060 Laptop ~2.7%, GTX 1050Ti ~2.4%, GTX 1660S ~2.1%, RTX 3050, GTX 1660 ~1.7%, RTX 2060s ~1.7%, GTX 1660Ti ~1.49%, Intel und AMD integrierte zusammen ~2.9%.

Zusammen macht das: 31.5%. Und das sind nur die top 20.

Also ja, ein Grossteil ist auch heute noch immer schlechter, wie eine PS5. Es habt also den Durchschnitt.

Exxtreme
2023-11-19, 17:52:37
Es macht die Arbeit so einfacher und schneller, wodurch mehr Zeit in wirkliche reale Arbeit gesteckt werden kann.


Die Möglichkeit die Arbeit "einfacher und schneller" wurde meistens dafür genutzt um Kosten zu senken und nicht um mehr zu schaffen.


Wie genau werten die Konsolen den "Hardwaredurchschnitt" auf, wenn die Hardware komplett veraltet ist? Einzig allein TFLOPs sagt überhaupt nichts aus. Aktuell gilt das nur für VRAM, aber IP technisch werten die den Markt komplett ab. Eine Hälfte spielt mit modernen nVidia-GPUs seit Turing, die andere mit komplett veralteter AMD Technik Pre-Turing. Nichts ist schlimmer für den PC-Spieler, wenn soviele Spieler aktuelle Produkte mit alter Technik kaufen.

Schau dir mal die Steamcharts an. Der "Hardwaredurchschnitt" ist immens niedrig.

Platos
2023-11-19, 18:15:33
Zusätzlich muss man noch erwähnen, dass dank AMD und nvidia die Grafikkartenpreise extrem gestiegen sind und gerade im Niedrigpreissegment mittlerweile eig. gar nichts (aktuelles) mehr vorhanden ist. Zu PS4 Zeiten war es normal, dass man auch für unter 200$ etwas neues gekriegt hat (aktuelle Architektur). Heute ist das einfach nicht mehr so. Da startet man im Bereich 250-300$ und Strassenpreise sind dann halt oft noch lange 10% höher.

Ergo ist es sogar so, dass Konsolen den Hardwaredurchschnitt stärker den je anheben. Somit kann man sogar anzweifeln, dass der Hardwaredurchschnitt am PC die nächsten 3 Jahre die der Konsolen übersteigen wird. Das hängt aber natürlich massgeblich davon ab, wie die Preisgestaltung nvidia's und AMD's aussieht in den nächsten 2 Generationen.

Wenn die Preise in der nächsten Graka-Gen. aber wieder so gestaltet wird, wie diese Generation, dann wird selbst dann die PS5 nicht unter den Durchschnitt sinken. Das muss man sich mal vorstellen: Wenn Ende 2024/Anfangs 2025 die nächste Gen kommt, wird diese wieder 2 Jahre dauern und wenn die wieder so mies ist, dann wird die PS5 noch bis Ende 2026/ Anfang 2027 nicht den Durchschnitt senken. Das wäre dann (vermutlich) bis fast zum Ende der Konsolen-Generation.

Also Kurz gesagt: Die Konsolen heben den Durchschnit an und das stärker denn je.

Edit: Und dazu kommt noch, dass Konsolen heute mehr Speicher haben und Grafikkarten vor 8 Jahren schon 8GB hatten und heute im niedrigen Preisbereich immer noch 8GB. Also da ist der Fortschritt auch extrem schlecht.

reaperrr
2023-12-20, 06:39:49
Wahnsinn, dass in diesem Thread seit einem Monat nix gepostet wurde...
OK, so richtig konkrete Gerüchte gibt's momentan halt auch noch nicht, stimmt schon.

Ich will hier mal meinen Spekulatius loswerden:

Ich wette bzw. fürchte, dass sowohl NV als auch AMD GDDR7 nutzen werden, um Speicherinterfaces schmal zu halten und zusätzlich L2/IF$ zu reduzieren, um die Chips im Mainstream kleiner zu bekommen.

Blackwell wird mMn N3E nutzen, und SRAM shrinkt mit N3E genau Null ggü. N5/4.
Da GDDR7 gegenüber dem "Mainstream"-GDDR6 (18Gbps) schon @ 28Gbps satte 55% mehr Bandbreite bei gleichem Interface bietet, rechne ich gerade bei Nvidia damit, dass sie G7 hauptsächlich nutzen werden, um den L2 wieder auf Normal-Maß zusammenzuschneiden, jedenfalls bei GB105-107.

Zusätzlich glaube ich, dass die 24Gbit/3GB-GDDR7-Chips relativ populär werden, weil sich damit neben dem L2/IF$ auch noch das SI schmal halten lässt.

Ich rechne mit etwas in dieser Richtung:

GB107: 30-36 SM, 128bit SI, nur noch 2MB L2-Cache, 8GB (Alternative: 96bit, 3MB L2, 9GB VRAM)
GB106: 48 SM, 128bit SI, 4 MB L2, 12GB (3GB-Chips)
GB105*: 72 SM, 192bit SI, 6 MB L2, 12GB für Salvage-Karte, 18GB für Top-Modell
GB103: 112 SM, 256bit SI, 8 MB L2, 16GB für 5080, 24GB (3GB-Chips) für 5080 Ti
GB102: 192-196 SM**, 384bit SI, 12 MB L2, 24 oder 36 GB

* die 5 statt 4 im Namen ist sehr verdächtig. Noch schmaleres SI (dann mit etwas mehr L2) oder weniger SM nicht ausgeschlossen.

** kommt nicht als Vollausbau, 5090 vmtl. nur mit 160-164 aktiven

AffenJack
2023-12-20, 09:49:22
Bei so wenig L2 würden die Chips verhungern an Bandbreite. Das wird es nicht geben. GDDR7 schafft gerade mal die Speicherbandbreite die Lovelace ohne großen L2 gebraucht hätte. Für Blackwell wäre das viel zu wenig. Ne leichte Verkleinerung des L2 kann ich mir vorstellen, aber da sind wir dann eher bei ner Reduktion um 33-max 50%.

HOT
2023-12-20, 10:06:49
https://videocardz.com/newz/nvidia-geforce-rtx-50-series-to-feature-displayport-2-1-using-tsmc-3nm-node
Displayport 2.1
TSMC 3nm
Genau wie 4N nur N5P ist könnte auch 3N nur N4P sein. Würde ich im Hinterkopf behalten.

Altehardware
2023-12-20, 10:21:12
Der vergrößerte L2 cache wird nicht für die bandbreite vergrößerung genutzt
Dieser ist ausschließlich für die Rt cores bei Verwendeung ser zuständig das hat nvidia bei der vorstellung 2022 der rtx4080 rtx4070 und rtx4090 erwähnt.
Was ist Ser nun das ist das erst vor Kurzen vorgestellte ray reconstruction das mit dlss 3,5 eingeführt wurde
ja richtig nen Jahr später kommt erst die funktion zuvor brachte der große L2 genau nix.

Zu blöackwell erstens
es sind 200 das liegt daran das es die zweite auflage davon ist die erste wird als hpc kommen 2022.
Womit es so aussieht
gb207 2 gpc zu je 16sm gleiche arch bauform von ada 32sm 128bit mit 12gb gddr7 2,8ghz +- 448gb/s 28gbps 16tf (letzte 60er sku die jemals erscheint +50%)
gb206 4gpc 64sm 192bit 18gb gddr7 672gb/s 28gbps 32tf(60ti 70er sku +15% und +20%)
gb205 6gpc 96sm 256bit 24gb gddr7 896gb/s 28gbps 47tf (80er sku +30%)
gb203 8 gpc 144sm 384bit 36gb geddr7 1344gb/s 70tf (neue 90er sku maximal +10%)

mksn7
2023-12-20, 11:42:24
Der vergrößerte L2 cache wird nicht für die bandbreite vergrößerung genutzt
Dieser ist ausschließlich für die Rt cores bei Verwendeung ser zuständig das hat nvidia bei der vorstellung 2022 der rtx4080 rtx4070 und rtx4090 erwähnt.
Was ist Ser nun das ist das erst vor Kurzen vorgestellte ray reconstruction das mit dlss 3,5 eingeführt wurde
ja richtig nen Jahr später kommt erst die funktion zuvor brachte der große L2 genau nix.



Das stimmt so nicht. Ein großer L2 cache ist in jedem Fall effektiv, manchmal mehr, manchmal weniger. Ray Reconstcuction, SER und ein großer L2 cache sind drei unterschiedliche Dinge, die sich gegenseitig sicherlich positiv beeinflussen, aber auch einzeln ohne die anderen zwei Dinge effektiv wären.

Altehardware
2023-12-20, 19:13:49
kein Entwickler optimiert auf eine bestimmte gpu gen daher verpufft der größere L2 cache ins nirvana.
außer bei nvidia treiberinternen Optimierungen was speziell DXR beschleunigt
Und das einzige was ad von ampere unterscheidet ist SER das funktioniert auf ner ada gpu deutlich schneller als mit ner ampere oder turing gpu
DXR und somit Rt skaliert mit der Anzahl nicht mit dem Takt der gpu

Tesseract
2023-12-20, 20:13:54
der cache ist ein cache, den muss man nicht "nutzen", der sitzt zwischen dem speicher und dem rest des chips und erhöht mit der größe die hitrate und damit die effektive bandbreite. SER hat damit nur indirekt zu tun und existiert auf ampere und turing ganz einfach nicht, die arbeiten alles in-order durch.

Altehardware
2023-12-20, 21:23:03
anders als bei cpu's dient der L2 auf ner gpu als vorlade Instanz aus dem vram
Da machen mehr L2 kein Sinn da die daten dann nicht in den sram passen also dem L0 und l1 cache
Daher würde ein sehr großer L2 nur dann was nützen wenn der sram also L1 und L0 im chip deutlich größer wäre.
Das macht aber aus platzgründen kein sinn da sram sich sehr schlecht verkleinern lässt zudem steigt der widerstand was die Vcore erhöht.

SER ist deswegen nur für dxr nutzbar da damit erstmal out of order gerechnet wird und daten zurück zum L1 geladen werden.

GPu sind linear daher ist abseits des nutzen von RT zu ordnen kein nutzen von Größerem L2.

Was amd mit dem Inf cache gemacht hat ist per Treiber die daten vorzuladen um damit die Bandbreite beim Si zu steigern und läuft vor dem Si und geht in den l2, ist quasi nur ein leicht schneller vram Anbindung und vergrößert effektiv das SI.
Nvidia L2 cache kann das gar nicht so umsetzen weil es hinter dem SI ist und nicht vor wie bei amd Lösung.

Der_Korken
2023-12-20, 22:33:29
anders als bei cpu's dient der L2 auf ner gpu als vorlade Instanz aus dem vram
Da machen mehr L2 kein Sinn da die daten dann nicht in den sram passen also dem L0 und l1 cache
Daher würde ein sehr großer L2 nur dann was nützen wenn der sram also L1 und L0 im chip deutlich größer wäre.

Der L2 ist also kein SRAM?


Nvidia L2 cache kann das gar nicht so umsetzen weil es hinter dem SI ist und nicht vor wie bei amd Lösung.

Wie soll das denn gehen? Hinter dem SI würde bedeuten, dass er nie benutzt wird, denn das SI greift auf den VRAM zu und da liegen alle Daten drin. Das einzige, was nach dem (V)RAM noch kommen kann, ist der Swap.

reaperrr
2023-12-21, 00:32:28
anders als bei cpu's dient der L2 auf ner gpu als vorlade Instanz aus dem vram
Da machen mehr L2 kein Sinn da die daten dann nicht in den sram passen also dem L0 und l1 cache
Daher würde ein sehr großer L2 nur dann was nützen wenn der sram also L1 und L0 im chip deutlich größer wäre.
Das macht aber aus platzgründen kein sinn da sram sich sehr schlecht verkleinern lässt zudem steigt der widerstand was die Vcore erhöht.

SER ist deswegen nur für dxr nutzbar da damit erstmal out of order gerechnet wird und daten zurück zum L1 geladen werden.

GPu sind linear daher ist abseits des nutzen von RT zu ordnen kein nutzen von Größerem L2.

Was amd mit dem Inf cache gemacht hat ist per Treiber die daten vorzuladen um damit die Bandbreite beim Si zu steigern und läuft vor dem Si und geht in den l2, ist quasi nur ein leicht schneller vram Anbindung und vergrößert effektiv das SI.
Nvidia L2 cache kann das gar nicht so umsetzen weil es hinter dem SI ist und nicht vor wie bei amd Lösung.

Nichts für ungut, aber das klingt alles sehr nach gefährlichem Halbwissen.

Weder NV's L2 noch AMD's IF$ sind wie dieser ESRAM-Chip auf der XboxOne, den die Spieleprogrammierer explizit ansprechen mussten.
Was AMD IF$ nennt ist im Grunde nur ein einfacher L3-Cache, der lediglich (zusammen mit dem SI) per IF an den Rest der GPU angebunden wurde, um ihn in Chiplets auslagern zu können.
Ansonsten ist da aber technisch kein so großer Unterschied zu dem großen L2-Cache bei NV.

AMD verteilt eine ähnliche Menge Cache halt auf eine Cache-Stufe mehr, die grundsätzliche Funktionsweise der Caches ist aber prinzipiell gleich:
Wenn die niedrigere Cachestufe voll ist oder der zu speichernde Datensatz für diesen Cache zu groß ist, werden die Daten in den nächsthöheren Cache-Level verschoben und von dort dann auch wieder geladen, wenn benötigt.
Der L2 wird bei Nvidia nicht einfach übergangen, solange der betreffende Datensatz dort reinpasst bzw. von dort geladen werden kann.
Ganz streng genommen könnte man sogar sagen: Der VRAM ist einfach nur die letzte Cache-Stufe, bevor man über PCIe in den System-RAM muss.
Bei Nvidia ist der VRAM quasi der L3-Cache, bei AMD der L4-Cache.

Größere L2s haben der Bandbreite schon immer geholfen, das war bei GM107 (Maxwell 1.0) so, als die DeltaColorCompression noch nicht so weit war und NV dem deshalb satte 2MB L2-Cache gab (für damalige Verhältnisse viel!), und die fetten L2s von Ada sind auch der einzige Grund, warum die GPUs nicht allesamt hoffnungslos bandbreitenlimitiert sind.
Für die Rohleistungssteigerungen von Ada wären die Bandbreitensteigerungen des VRAM nämlich sonst viel zu niedrig gewesen. Nvidia wäre z.B. niemals bei AD104 auf 192bit runter (Vorgänger GA104: 256bit) und bei AD103 auf 256bit runter (Vorgänger GA103: 320bit), wenn die großen L2-Caches den Bandbreitendruck auf den VRAM nicht deutlich reduziert hätten.

Leonidas
2023-12-22, 07:31:08
Release-Termin der GeForce RTX 50 Serie lt. MLID: Man könnte Q4, aber man will eigentlich Anfang 2025
https://www.3dcenter.org/news/news-des-21-dezember-2023

Sardaukar.nsn
2024-01-01, 12:58:37
Könnte klappen. Aber warum sollte man noch einen Lovelace "Super" refresh kaufen, wenn der in einem Jahr schon wieder Alteisen ist? 5090 bzw. 5080 werden wieder ziemlich zeitgleich starten.

DrFreaK666
2024-01-01, 13:01:02
Lieber auf den 5080 Refresh warten

dildo4u
2024-01-01, 13:12:07
Könnte klappen. Aber warum sollte man noch einen Lovelace "Super" refresh kaufen, wenn der in einem Jahr schon wieder Alteisen ist? 5090 bzw. 5080 werden wieder ziemlich zeitgleich starten.
Andere Klasse an Leistung?5080 wird um 1200€ starten Lovelace Refrech könnte bis Mitte 2025 nicht ersetzt werden und alles von 500 zu 1k abdecken.

Wenn die 5080 wieder nicht der größten Chip bekommt könnte sie nur + 20% zur 4080S bringen.
Was Sinn macht wenn AMD wirklich keine neuen High-End Modelle in 24 hat.

Linmoum
2024-01-01, 13:13:03
Könnte klappen. Aber warum sollte man noch einen Lovelace "Super" refresh kaufen, wenn der in einem Jahr schon wieder Alteisen ist? 5090 bzw. 5080 werden wieder ziemlich zeitgleich starten.Dann ist der aber nicht Alteisen, weil 5080 und 5090 nicht auf dem Performance-Niveau des Super-Refreshes liegen werden, sondern darüber.

DrFreaK666
2024-01-01, 13:14:14
Dann ist der aber nicht Alteisen, weil 5080 und 5090 nicht auf dem Performance-Niveau des Super-Refreshes liegen werden, sondern darüber.

Gerade das macht es doch zum "Alteisen"

Sardaukar.nsn
2024-01-01, 13:15:08
Aber zwischen einer 4080 Super und einer 5080 wird doch preislich nicht viel liegen? Die nerfte 4090 D kommt ja auch noch hinzu. Das Feld wird da schon ziemlich nah zusammenrücken.

DrFreaK666
2024-01-01, 13:22:38
Aber zwischen einer 4080 Super und einer 5080 wird doch preislich nicht viel liegen?...

Vielleicht. Aber da AMD nichts dagegen zu halten hat, könnte NV den Preis anheben auf z.B. 1500€

Sardaukar.nsn
2024-01-01, 13:25:36
Na irgendeine neue Schweinerei (siehe DLSS 3 +FG) wird sich nVidia schon einfallen lassen damit es zunächst nur auf den neuen Blackwell Karten läuft. :freak:

dildo4u
2024-01-01, 13:25:45
Aber zwischen einer 4080 Super und einer 5080 wird doch preislich nicht viel liegen? Die nerfte 4090 D kommt ja auch noch hinzu. Das Feld wird da schon ziemlich nah zusammenrücken.
Ist doch egal diese Modelle sind nutzlos da man jetzt 16GB unter 1k bekommt.
Die 4080S ist so unattraktiv wie noch nie.

Sardaukar.nsn
2024-01-01, 13:37:57
Einfach nur VRAM ist ja auch keine Lösung. 16GB GPUs gibts ja auch schon für deutlich unter 500€. https://www.mindfactory.de/Hardware/Grafikkarten+(VGA).html/price_from/3/price_to/1000/58/93975/listing_sort/6

dildo4u
2024-01-01, 14:00:52
16GB ist das was zur Klasse passt um 1K kann man Raytracing dazuschalten was Vram will.


Hier hat man 4070TI zu 4080 +60% normal sind 30% ohne Vram Mangel.

https://i.ibb.co/6n8D44c/Screenshot-2024-01-01-135900.png (https://ibb.co/qyCmRRL)

https://www.computerbase.de/2023-12/nvidia-geforce-amd-radeon-benchmark-test-2024/3/#abschnitt_gamingbenchmarks_in_3840__2160

Platos
2024-01-01, 14:14:03
Und das liegt am VRAM mangel? Bei percentilen sind es sogar fast +100%

The_Invisible
2024-01-01, 14:29:06
Wenn die 5080 wieder nicht der größten Chip bekommt könnte sie nur + 20% zur 4080S bringen.
Was Sinn macht wenn AMD wirklich keine neuen High-End Modelle in 24 hat.

Damit würde man nicht mal die 4090 erreichen und zwischen 5080 und 5090 müsste es dann noch mehr performancegap geben wie eh jetzt schon damit sich ein 4090 Besitzer eine neue Karte kauft.

Hört sich nicht gerade realistisch an...

Platos
2024-01-16, 15:50:47
Frage: Ist der Gerüchtestand für Gaming Blackwell eig. 3nm TSMC oder gibts dazu noch keine Infos ?

w0mbat
2024-01-16, 22:48:07
Es schwirren auch Samsungs GAA rum.

iamthebear
2024-01-17, 00:36:57
1.) Samung GAA halte ich für sehr unwahrscheinlich. 3GAP dürfte kaum rechtzeitig fertig werden für Ende 2024. Da kommt nur 3GAE in Frage. Gibt es da überhaupt Kunden dafür? Ich glaube kaum, dass Nvidia die ersten sind, die den Prozess nutzen und das gleich mit einem ca. 600mm² Die.

2.) Nach aktuellen Leaks soll es TSMC 3nm werden. Es würde mich jedoch nicht überraschen wenn das falsch wäre und es noch eine Generation in 4/5nm wird.

basix
2024-01-17, 12:44:54
Ich denke auch, dass man bei TSMC bleiben wird. Und ebenfalls, dass ich N4 noch nicht ausschliessen würde. Unter dem Strich kann ein etwas grösseres N4 Die günstiger als ein etwas kleineres N3E Die sein.

HOT
2024-01-17, 13:12:19
Ich befürchte, dass sie wieder mal 3N dranschreiben aber N4P meinen.
Wir werden es an der Packdichte sehen hinterher, weil kommunizieren wird NV das wieder nicht. Ich kann mir einfach nicht vorstellen, dass NV wertvolle N3 Fertigungskapazität für Desktop-Grafik verschwenden wird bis Ende 25.
Samsung könnte man sich eher für 106er und 107er vorstellen, aber das wird mMn nicht passieren.

Platos
2024-01-17, 16:33:09
Ja, ich glaube irgendwie auch nicht an N3. Aber hoffen tue ich mal drauf (aufgrund der Effizienz).

Samsung... Bei Samsung ist es irgendwie immer so undruchsichtig... Gibts denn Specs zu Samsungs "3nm" GAA ?

Edgecrusher86
2024-01-17, 16:52:11
Ich gehe davon aus, dass es das Ziel für NV sein wird, mit der RTX 50er Serie mit jedem Modell das jeweils nächst höhere der Vorgänger-Generation knapp zu schlagen - ohne Frame Gen - mit dürfte sicher nochmals ein deutlicher Boost vs. RTX 40er entstehen - vielleicht ja exklusiv als DLSS 4 vermarktet.
Ich habe für grobe meine Spekulation die Werte von Raff & Co. als Basis genommen - im 4K RT Index.

E: Das machen wir mal besser einfach. ;)

Quelle: PCGH Raytracing Performance Index 2024 (RTX 4070 Super Review) - Index Ultra HD (https://www.pcgameshardware.de/Geforce-RTX-4070-Super-Grafikkarte-280116/Tests/Release-Preis-kaufen-Specs-vs-RTX-4070-vs-7800-XT-1437772/3/)


Basis: 4K RT Index PCGH (DLSS2 Q/FSR2 Q/Intel XeSS Q) - Nominelle Leistung:


RTX 5090 Spekul: 145% [+45%] || RTX 4090: 100%
36GB @ 32 Gbps [384-bit] - 1536 GB/s || 24GB @ 21 Gbps [384-bit] - 1008 GB/s


RTX 5080 Spekul: 105% [+42%] || RTX 4080: 73,7%
24GB @ 32 Gbps [256-bit] - 1024 GB/s || 16GB @ 22,4 Gbps [256-bit] - 716,8 GB/s


RTX 5070 Ti Spekul: 76,4% [+35%] || RTX 4070 Ti: 56,6%
18GB @ 30 Gbps [192-bit] - 720 GB/s || 12GB @ 21 Gbps [192-bit] - 504 GB/s


RTX 5070 Spekul: 60% [+35%] || RTX 4070: 44,3%
18GB @ 28 Gbps [192-bit] - 672 GB/s || 12GB @ 21 Gbps [192-bit] - 504 GB/s


RX 7900 XTX: 54,5%
24GB @ 20Gbps [384-bit] - 960 GB/s


RX 7900 XT: 45,3%
20GB @ 20Gbps [320-bit] - 800 GB/s


RTX 5060 Ti Spekul: 45% [+30%] || RTX 4060 Ti 16GB: 34,5%
12GB @ 24 Gbps [128-bit] - 384 GB/s || 16GB @ 18 Gbps [128-bit] - 288 GB/s


RX 7900 GRE: 37%
16GB @ 18Gbps [256-bit] - 576 GB/s


RX 7800 TX: 34,8%
16GB @ 19,5Gbps [256-bit] - 624,1 GB/s


RTX 5060 Spekul: 27,4% [+30%] || RTX 4060: 21,1%
12GB @ 21 Gbps [128-bit] - 336 GB/s || 8GB @ 17 Gbps [128-bit] - 272 GB/s


ARC A770 16GB: 26,7%
16GB @ 16Gbps [256-bit] - 512 GB/s


ARC A750: 17,4%
8GB @ 16Gbps [256-bit] - 512 GB/s


ARC A580: 16,1%
8GB @ 16Gbps [256-bit] - 512 GB/s


RX 7600: 12,7%
8GB @ 18Gbps [128-bit] - 288 GB/s


Bezüglich Fertigungsverfahren sollte es wohl doch ein TSMC N3 Prozess werden - bei N4 müsste wohl das TGP-Budget jeweils um 50-100W steigen, um so eine Mehrleistung zu ermöglichen. Es sei denn, man schafft wieder einen Art Maxwell V2-Moment.

HOT
2024-01-17, 21:18:11
Den wird man auch schaffen, immerhin ist das seit Maxwell der größte Architektursprung. Wenn N3 dann nur für 202 und 203, auf keinen Fall aber für die kleineren Chips. Ich glaub aber daran nicht, das wird alles N4P werden mMn.

[MK2]Mythos
2024-01-17, 22:21:42
Stammt die Originalgrafik von der PCGH? Wenn ja, liegt eine Erlaubnis für die Verwendung vor?

Platos
2024-01-18, 04:15:33
Warum sind denn das für Speicherkonfigurationen bei den spekulierten 5000-er Grakas? Basieren die alle auf 1.5GB Chips oder was wie kommt man auf 18 und 36GB?

Und woher kommt die Annahme auf 18GB bei einer 5070? In 2 Generationen von 8 auf 18GB ? Wohl kaum. Träumen darf man ja, aber...

Ich meine, die Speicherkonfig wäre toll, aber wohl eher die optimistischste Spekulation von allen.

Sardaukar.nsn
2024-01-18, 06:01:57
@Edgecrusher86: 5090 nur +45% ? Da hätte ich mir schon etwas mehr gewünscht. Aber mal abwarten was sich in Zukunft so verdichtet.

HOT
2024-01-18, 09:00:33
Wenn das nur ein Wechsel von N5P auf N4P ist und quasi alles aus der neuen Arch kommt klingt das plausibel. Maxwell lässt grüssen.

The_Invisible
2024-01-18, 09:08:51
Man müsste die Einheiten auch besser auslasten, die 4090 hat 60% mehr Shader als die 4080 aber ist meist nur so 20-30% vorn, im Bestcase schafft sie so 40-45%. Wenn man da stur auf ~20k erhöht wird das wohl nicht viel bringen.

Da wäre daher sicher auch einiges drinnen wenn man das mal gut ausgelastet bekommt.

reaperrr
2024-01-18, 11:27:22
Den wird man auch schaffen, immerhin ist das seit Maxwell der größte Architektursprung.
Da wäre ich mir nicht so sicher, gerade prozessnormiert.

Kepler hat noch viel Ballast von Fermi mitgeschleppt, insb. den im Nachhinein etwas fehlgeleiteten Ansatz der Consumer-Fermis (50% mehr ALUs, die in der Praxis schwer auszulasten waren, und verdoppelte TMUs je SM, Maxwell hat beides zurückgedreht).

Hinzu kam bei Mxw2.0 sowohl die massiven DCC- und Tilingverbesserungen sowie bei GM204 der 4fache L2 ggü. GK104, was zusammen gerade kleinere Speicherzugriffe massiv reduziert hat, was nicht nur den Bandbreitenbedarf, sondern v.a. auch enorm Energie gespart hat (Hawaii war u.a. wegen des 512bit SI und fehlender DCC so unfassbar stromhungrig, gerade in Form der 390er mit nochmal höherem Speichertakt).

Ada hat keine so offensichtlichen Schwächen. Solche prozessnormierten Perf/W-Sprünge wie bei Maxwell würde ich daher höchstens in RT erwarten, nicht unbedingt in Raster.
Ausschließen kann man natürlich nichts, ich halte es nur für ziemlich unwahrscheinlich, einfach weil Ada in Sachen Effizienz, Auslastung und PPA kein Kepler ist.

Wenn N3 dann nur für 202 und 203, auf keinen Fall aber für die kleineren Chips. Ich glaub aber daran nicht, das wird alles N4P werden mMn.
Blackwell soll sicherlich mindestens 2 Jahre laufen (also es auch mit RDNA5 aufnehmen können) und N3E ist bis zum Blackwell Launch auf jeden Fall ausgereift genug, sehe nicht, warum sie HighEnd auf einem Prozess der N5-Klasse lassen sollten (N4 ist eher ne Mobile-Optimierung von N5P, und N4P ist eigentlich eher N5P+).

Bei den Mainstream-Chips kann's sein, wäre eine mögliche Erklärung, warum der AD104-Nachfolger GB205 heißt ("schlechterer" Prozess und dadurch größerer Perf-Abstand aufgrund weniger Takt und/oder SM, als es bei einem N3E-GB204 der Fall gewesen wäre).

Andererseits sind die zu erwartenden N3E-Wafer-Preise auch nicht so viel höher, dass man das nicht weitgehend über die Flächeneinsparungen ausgleichen könnte. V.a. wenn NV GDDR7 nutzt, um im Mainstream SIs und/oder L2 zu kürzen und somit relativ der Anteil an Logiktransistoren wieder größer wird.

Edgecrusher86
2024-01-18, 11:36:14
@ [MK2]Mythos: Ne, ich hab darum mal getippt und noch die Bandbreiten ergänzt. ;)

@ Platos: Ja, ich habe 24Gb GDDR7 (3GB) als Grundlage jedes Modells genommen - es wären ja auch im Falle der 70er "nur" 18GB statt 12GB. ;)

@ Sardaukar.nsn: Ich erwarte eigentlich nur mit verbesserten FG einen größeren Boost auf Ada - 80-100% würde mich nicht wundern bei einem hypothetischen DLSS4 vs. DLSS3.
Lassen wir uns auch überraschen, wie gut die Einheiten ausgelastet werden können, denn der Fertigungsfortschritt ist ja nicht mehr so gigantisch wie von Samsung 8LPP auf TSMC N5x.


Für die kleineren Modelle könnte man ja auch Samsungs GDDR6W verbauen mit 32Gb und 22 Gbps (Stand Ende 2022) - was dann auch direkt 16GB für eine 5060 Ti / 5060 ermöglichen würde.
Es müsste halt vom Speichercontroller unterstützt werden. Auch wenn ich aus Gamerperspektive 16GB VRAM in der Leistungsklasse als bedingt sinnig betrachte, sofern man nicht auch noch
Content Creator ist.

Altehardware
2024-01-18, 21:24:26
@Platos
Das liegt an 24gbit vram chips die es ab gddr7 36gbps gibt
Das sind genau 3gb chips

lilgefo~
2024-01-18, 21:41:53
Wie soll denn diese verbesserte FG (in Bezug auf Performance) aussehen? Mehr als 1 generierten Frame zwischen die Renderframes zu schieben Macht nicht wirklich Sinn. Eventuell kann man den Overhead noch etwas verringern und das (ob technisch begründet oder nicht) nur für Blackwell freigeben. Aber das wird was die Performance betrifft wohl nur im Promillebereich was bringen (und Vor Allem den lowerTier Karten zu Gute kommen) Also wo soll da so ein gigantischer 40%+ Boost herkommen bei der FG eines hypotetischen DLSS4 FG vs der derzeitigen Implementation?

bbott
2024-01-18, 21:52:23
Wie soll denn diese verbesserte FG (in Bezug auf Performance) aussehen? Mehr als 1 generierten Frame zwischen die Renderframes zu schieben Macht nicht wirklich Sinn. Eventuell kann man den Overhead noch etwas verringern und das (ob technisch begründet oder nicht) nur für Blackwell freigeben. Aber das wird was die Performance betrifft wohl nur im Promillebereich was bringen (und Vor Allem den lowerTier Karten zu Gute kommen) Also wo soll da so ein gigantischer 40%+ Boost herkommen bei der FG eines hypotetischen DLSS4 FG vs der derzeitigen Implementation?
Genau das wir gemacht mehr als ein generiertes Frame sind zu erwarten.

basix
2024-01-18, 23:44:42
Lieber Frame Extrapolation und immer +100% Skalierung als noch mehr Zwischen-Frames ;)

Platos
2024-01-19, 03:30:15
@Platos
Das liegt an 24gbit vram chips die es ab gddr7 36gbps gibt
Das sind genau 3gb chips

Ahhja stimmt. Hier stehts auch nochmals: https://m.3dcenter.org/news/micron-roadmap-stellt-gddr7-speicher-mit-3-gbyte-pro-speicherchip-aussicht

Aber die Frage ist, ob die 3GB Chips mit Blackwell schon vorhanden sind.

Lieber Frame Extrapolation und immer +100% Skalierung als noch mehr Zwischen-Frames ;)

Lieber Rohleistung in Hardware als solche Spässe. Für Leute, die ihre Grafikkarte nicht nur zum Gamen brauchen, wäre so eine "Feature-Generation" eine Enttäuschung.

Ich persönlich brauche vor allem mehr Perfomance/Watt.

OgrEGT
2024-01-19, 06:16:31
Lieber Frame Extrapolation und immer +100% Skalierung als noch mehr Zwischen-Frames ;)
Wie muss man sich das vorstellen? Spekulative Frameberechnung von Frames die wahrscheinlich nach dem aktuellen Frame benötigt werden ohne den Input des Users zu kennen?

The_Invisible
2024-01-19, 07:25:21
Lieber Rohleistung in Hardware als solche Spässe. Für Leute, die ihre Grafikkarte nicht nur zum Gamen brauchen, wäre so eine "Feature-Generation" eine Enttäuschung.

Ich persönlich brauche vor allem mehr Perfomance/Watt.

Rohleistung wird immer limitierter, darum ja der ganze "Spaß" mit Upscaling, FG & RR. Eine 4090 ist heute schon mit UE5 und nativ UHD am Ende, dabei sind wir gerade am Anfang.

basix
2024-01-19, 08:27:14
Lieber Rohleistung in Hardware als solche Spässe. Für Leute, die ihre Grafikkarte nicht nur zum Gamen brauchen, wäre so eine "Feature-Generation" eine Enttäuschung.

Ich persönlich brauche vor allem mehr Perfomance/Watt.

Mehr Grundleistung nehme ich auch noch lieber. Da bin ich bei dir. Aber wenn ich zwischen >1 Zwischenframe und besserer FG Skalierung und eben Extrapolation entscheiden müsste, näme ich letzteres. Mehr FPS und obendrauf besseres Spielgefühl. Mehr Zwischenframes erhöhen nur noch die Bewegtschärfe, was bei 100+fps und bald OLED aber schon ziemlich gut sein sollte.

Ich nehme ebenfalls gerne besseres DLSS und bessere Skalierung mit tiefen Auflösungen bei den grossen Chips. Die 4090 ist bei 1080p (4K DLSS-P) etwas gelangweilt. Dann kann man höhere DLSS Faktoren nutzen (gleiche oder bessere Qualität bei mehr FPS).

Wie muss man sich das vorstellen? Spekulative Frameberechnung von Frames die wahrscheinlich nach dem aktuellen Frame benötigt werden ohne den Input des Users zu kennen?
Ja genau. Und schau, es gibt bei Intel Research dazu: https://videocardz.com/newz/intel-details-extrass-framework-featuring-frame-extrapolation-technology

Hier das original Paper: https://dl.acm.org/doi/pdf/10.1145/3610548.3618224

ChaosTM
2024-01-19, 08:41:34
Nach dem relativ großen Sprung, den Ada nicht zuletzt dank der deutlich besseren Fertigung gemacht hat, erwarte ich diesmal eher ein "Tok". +50% wäre schon fast eine Überraschung in der heutige Zeit - so nahe an der "Wand".

Sardaukar.nsn
2024-01-19, 09:03:21
Nach dem relativ großen Sprung, den Ada nicht zuletzt dank der deutlich besseren Fertigung gemacht hat, erwarte ich diesmal eher ein "Tok". +50% wäre schon fast eine Überraschung in der heutige Zeit - so nahe an der "Wand".

Ja, interessant dürfte auch der Takt werden. Bei Ada konnte man ja fast +50% drauflegen und eigentlich alle 4090er erreichen die 3 Ghz.

Im Vergleich zu meinem Vorgänger 3080 hat sich da ein sehr großer Sprung in der Rohleistung ergeben der auch für mich dann den hohen Preis gerechtfertigt hat: https://www.3dmark.com/compare/pr/709029/pr/1958110#

ChaosTM
2024-01-19, 09:22:02
Naja, den hohen Preis sehe ich eher kritisch, weil früher gab es gelegentlich +100% für keinerlei Aufpreis. Allerdings waren damals die Erzeugungskosten halbwegs konstant, was jetzt nicht mehr der Fall ist.

Die Jacke und seine Marketing Abteilung haben begriffen, dass die High End Klientel bereit ist fast alles zu bezahlen und die Preise dementsprechend festgelegt.
Daran bin ich jetzt auch mit-schuld...
Rechne mit 2500$/€ für die nächste Generation

Was ich nicht hoffe ist, dass NV wieder an einer neuen proprietären/exklusive Technik werkelt, die auf Ada nicht mehr läuft. Zuzutrauen ist es ihnen natürlich.

Badesalz
2024-01-19, 09:37:00
Rohleistung wird immer limitierter, darum ja der ganze "Spaß" mit Upscaling,
Wobei mir als Laien bisher nicht klar ist warum man das nicht Downscaling nennt. Ergo was es technisch auch ist, wo auch die eigentliche und allermeiste Arbeit auch stattfindet, und nicht nach dem letzten Schritt hinterher... Klingt halt shice in der Lobpreisung oder warum?

Eine 4090 ist heute schon mit UE5 und nativ UHD am Ende, dabei sind wir gerade am Anfang.So bisschen kann ich mich noch dran erinnern, daß wenn die Einstellungen dafür zu hoch waren oder das Spiel das allgemein von der Leistung her nicht zugelassen hat, man in 2k eben nicht spielte. Mit einer Voodoo2 wohl auch in FHD nicht...
Entsprechend der Grakaleistung also keine Fantasiemonitore (Auflösung) zum Zocken anschaffte. Da reichte die Leistung halt auch nicht und man war da auch ständig an irgendeinem Anfang von etwas :|

Inwiefern ist die Situation jetzt anders?

Außer, die Graka kann jetzt - gegenüber ihrer Leistung an Fantasiemonitore angeschlossen - mit dem Mittel Downscaling sich für genug Frames (für Quali wohl kaum) da selbst an den Haaren rausziehen. Früher wäre das eine coole Sache für Gelegenheitszocker, die für anderes eigentlich einen größeren Monitor brauchten als die 3D-Leistung der Graka hergab. Die Viel-Zocker dagegen hätten und haben sich niemals irgendwelche Fantasiemonitore hingestellt.

PS:
Haben wir hier mittlerweile keinen mehr der vor 2010 seinen ersten GamerPC hatte?... :usweet:

Slipknot79
2024-01-19, 10:37:01
Nach dem relativ großen Sprung, den Ada nicht zuletzt dank der deutlich besseren Fertigung gemacht hat, erwarte ich diesmal eher ein "Tok". +50% wäre schon fast eine Überraschung in der heutige Zeit - so nahe an der "Wand".


Bei +50% bin ich raus, 40 vs 60fps gähn. :cool:

aceCrasher
2024-01-19, 11:40:25
So bisschen kann ich mich noch dran erinnern, daß wenn die Einstellungen dafür zu hoch waren oder das Spiel das allgemein von der Leistung her nicht zugelassen hat, man in 2k eben nicht spielte. Mit einer Voodoo2 wohl auch in FHD nicht...
DLSS Q (1440p intern) auf einem 4K Monitor sieht weitaus besser aus als 1440p nativ auf einem WQHD Monitor und läuft dabei quasi genauso schnell. Wieso bitte sollte ich mir also keinen 4K Monitor anschaffen?

Sardaukar.nsn
2024-01-19, 11:57:44
Bei +50% bin ich raus, 40 vs 60fps gähn. :cool:

Wer kann sich noch erinnern? 2-4x faster :freak: https://www.videogameschronicle.com/news/geforce-rtx-40-series-gpus-have-been-revealed-2-to-4x-faster-than-the-3090ti/

The_Invisible
2024-01-19, 12:07:11
Bei +50% bin ich raus, 40 vs 60fps gähn. :cool:

Wenns dafür >100% mehr RT Leistung gibt gerne ;)

Badesalz
2024-01-19, 12:21:39
DLSS Q (1440p intern) auf einem 4K Monitor sieht weitaus besser aus als 1440p nativ auf einem WQHD Monitor und läuft dabei quasi genauso schnell. Wieso bitte sollte ich mir also keinen 4K Monitor anschaffen?Unglaublich :ulol:

Ja ok. Alles gut. Weiter im Programm.

Lurtz
2024-01-19, 12:50:01
DLSS Q (1440p intern) auf einem 4K Monitor sieht weitaus besser aus als 1440p nativ auf einem WQHD Monitor und läuft dabei quasi genauso schnell. Wieso bitte sollte ich mir also keinen 4K Monitor anschaffen?
Die Anforderungen sind dennoch höher. Gerade auch beim VRAM.

Und die Mittelklasse-Karten schaffen 1440p ja schon nicht mehr native, insofern wirds für DLSS Q in 2160p meist nicht reichen.

Edgecrusher86
2024-01-19, 12:55:58
Also laut der Micron-Roadmap sollte ja GDDR7 grob ab Mai 2024, also zum Beginn des zweiten Quartals, wohl zumindest in die Massenproduktion gehen können. Dann dürfte diesbezüglich einem Hardlaunch zwischen Oktober und Dezember eigentlich nichts im Wege stehen.
HBM3 Gen 2 sieht Micron ja zu Beginn des zweiten Halbjahres als marktreif an - als Anhaltspunkt.

The_Invisible
2024-01-19, 13:03:11
Die Anforderungen sind dennoch höher. Gerade auch beim VRAM.

Und die Mittelklasse-Karten schaffen 1440p ja schon nicht mehr native, insofern wirds für DLSS Q in 2160p meist nicht reichen.

In 4k kann man auch Mal dlss-b/p riskieren, hatte selbst Mal eine 2070 und mit Regler bedienen geht das schon.

davidzo
2024-01-19, 13:13:28
In 4k kann man auch Mal dlss-b/p riskieren, hatte selbst Mal eine 2070 und mit Regler bedienen geht das schon.
Kann ich bestätigen. Habe eine 5700XT und spiele mit FSR1/2 auf 4K60. Mir sind Bildschärfe und kleinere Pixel / kein Fliegengitter einfach wichtiger als nette Effekte. Allerdings spiele ich auch wenig FPS Spiele sondern Coh3, AOE2, M&B BL, ML, eventuell mal Valheim oder KCD. 45- 60fps sind mir da einfach genug.

Troyan
2024-01-19, 13:28:24
In 4k kann man auch Mal dlss-b/p riskieren, hatte selbst Mal eine 2070 und mit Regler bedienen geht das schon.

DLSS Performane in 4K sollte ~natives 1440p entsprechen. Es gibt keine Argumente mehr sich keinen einfachen 4K/144Hz Monitor zu kaufen, wenn man eben nicht mehr als 144Hz benötigt.

Lehdro
2024-01-19, 13:50:34
DLSS Performane in 4K sollte ~natives 1440p entsprechen. Es gibt keine Argumente mehr sich keinen einfachen 4K/144Hz Monitor zu kaufen, wenn man eben nicht mehr als 144Hz benötigt.
Wusste gar nicht das jetzt jedes Game DLSS hat.

basix
2024-01-19, 13:57:01
Eigentlich alle modernen Spiele mit hohen GPU-Anforderungen haben TSR, DLSS, FSR oder XeSS implementiert. Oder kannst du eines benennen, wo es nicht so ist?

Und ich würde sogar soweit gehen, dass 4K DLSS-P in den meisten Fällen besser aussieht als 1440p nativ mit TAA.

00-Schneider
2024-01-19, 13:58:08
DLSS Performane in 4K sollte ~natives 1440p entsprechen. Es gibt keine Argumente mehr sich keinen einfachen 4K/144Hz Monitor zu kaufen, wenn man eben nicht mehr als 144Hz benötigt.


Falsch.

Performance ist 1080p hochskaliert.
Quality ist 1440p hochskaliert.

Troyan
2024-01-19, 13:59:04
Falsch.

Performance ist 1080p hochskaliert.
Quality ist 1440p hochskaliert.

Nativ. DLSS Performance in 4K verwendet temporär 4x 1080p Informationen. Das sollte locker die Qualität von nativ 1440p auf einem 1440p Bildschirm bei gleicher Größe erreichen.

Langlay
2024-01-19, 14:12:30
Wobei mir als Laien bisher nicht klar ist warum man das nicht Downscaling nennt. Ergo was es technisch auch ist, wo auch die eigentliche und allermeiste Arbeit auch stattfindet, und nicht nach dem letzten Schritt hinterher... Klingt halt shice in der Lobpreisung oder warum?


Downscaling wäre das Gegenteil von Upscaling. Ich skaliere z.b. ein 4K Bild runter(down) auf 1440p wäre das Downscaling. Wenn ich ein 1440p Bild auf 4K hoch(up) skaliere hab ich upscaling.

Es ist nicht sinnvoll eigene Begrifflichkeiten zu erfinden, wenn man das Konzept nicht versteht.

Lehdro
2024-01-19, 14:22:41
Eigentlich alle modernen Spiele mit hohen GPU-Anforderungen haben TSR, DLSS, FSR oder XeSS implementiert.
Was ist das für ein Goalpostmoving?
Ich schrieb extra DLSS, ich würde mir FSR 1 oder 2 nicht im Traum antun. Und selbst DLSS/XeSS generell nur mit Abstrichen je nach Titel/Auflösung/Modus.

Oder kannst du eines benennen, wo es nicht so ist?
Wieso eigentlich nur "moderne" Spiele? Was ist "modern"? Reicht nicht irgendeins mit hohen Anforderungen?

Ich schmeiß der Einfachheit halber mal Total War: Warhammer 3 (https://www.pcgameshardware.de/Total-War-Warhammer-3-Spiel-73201/Specials/Benchmarks-TW-Warhammer-3-Test-Release-Review-1389052/3/) ins Feld und schaue wie du mir daraus was bastelst.

basix
2024-01-19, 14:55:51
Wenn du FSR2 nicht nutzen willst, dein Problem ;) 4K FSR2 Quality wird fast immer besser aussehen als 1440p nativ TAA. Aber jedem das Seine.

TWW3 scheint zumindest mit einer 4090 mit 50-60fps in 4K zu laufen. Nicht geil (wenn ich mir die Optik anschaue) aber wohl brauchbar bei dem Gameplay. Wenn etwas allerdings einfach generell so schlecht läuft, ist das wohl nicht ein Problem der Hardware, sondern der Software. Entweder optimiert der Entwickler (Performance Optimierung oder Designanpassungen) oder man stellt ein paar (oft nicht auffallende) Settings runter. Wo ist das Problem?

Und was ich mit modern meine: Wenn etwas kein DLSS hat (typ. mittelmässige Optik), läuft es meistens schnell genug. Alles was "alt" ist, läuft auf neuen GPUs ebenfalls schnell genug. Wenn ein Spiel neu rauskommt, grafisch ansprechend & fordernd ist, hat es in den allermeisten Fällen eine Form von Temporal Supersampling integriert (womit es bzüglich Performance meistens OK ist). Ansonsten wie gesagt: Ein paar Settings runterdrehen, die visuell nicht auffallen hilft auch. Wenn alles nicht zutrifft: Schlechte Software oder optisch ein neues Crysis.

TheAntitheist
2024-01-21, 16:32:14
Wenn du FSR2 nicht nutzen willst, dein Problem ;) 4K FSR2 Quality wird fast immer besser aussehen als 1440p nativ TAA. Aber jedem das Seine.

Nein TAA hat weniger Bildfehler, weniger flickering, viel weniger occlusion probleme.

Badesalz
2024-01-22, 07:08:09
DLSS Performane in 4K sollte ~natives 1440p entsprechen. Es gibt keine Argumente mehr sich keinen einfachen 4K/144Hz Monitor zu kaufen, wenn man eben nicht mehr als 144Hz benötigt.Mein Beileid. Ich hoffe jedenfalls, daß mein Augenlicht noch lange so heile bleibt wie es gestern war und heute ist
https://www.youtube.com/watch?v=7Y_TnWybvU8

Hypadaiper
2024-01-22, 07:58:02
Mein Beileid. Ich hoffe jedenfalls, daß mein Augenlicht noch lange so heile bleibt wie es gestern war und heute ist
https://www.youtube.com/watch?v=7Y_TnWybvU8

Also ich muss zugeben, dass ich mich mit meinen 33 Jahren und noch guten Augen ingame nie wirklich über DLSS3 beschweren konnte. Ja, es gibt Artefakte, aber das sind halt Games. Da gab es immer mal aufploppende Objekte, nachziehende Texturen, störende Bloomeffekte und grausig integriertes DoF. Die artefakte die DLSS bei mir auf 4K erzeugt sind eigentlich ein Witz dagegen und gehen für MICH im Eifer des Gefechts völlig unter. Natürlich gibt es auch krasse Negativbeispiele, welche ich aber glücklicherweise nie gespielt habe.

Ich kann die Aussage 4k144hz wäre jetzt für jeden bedenkenlos die goldene Mitte nicht ganz teilen, aber soweit weg von der Wahrheit ist es nicht.

Badesalz
2024-01-22, 08:29:34
Also ich muss zugeben, Ich sehe da immer Matsche (vor allem tiefer im Bild) mit einer anschließenden leichten Überschärfung.

Ich kann die Aussage 4k144hz wäre jetzt für jeden bedenkenlos die goldene Mitte nicht ganz teilen, aber soweit weg von der Wahrheit ist es nicht.Wenn, wenn da mit dem Bild selbst schon alles gut wäre, könnte ich das sehr wohl unterschreiben. Gar nicht nur die goldene Mitte, sondern auch das Ende der Reise. Die aller-allermeisten sind ab da einfach satt.

Hypadaiper
2024-01-22, 09:19:32
Ich sehe da immer Matsche (vor allem tiefer im Bild) mit einer anschließenden leichten Überschärfung.

Wenn, wenn da mit dem Bild selbst schon alles gut wäre, könnte ich das sehr wohl unterschreiben. Gar nicht nur die goldene Mitte, sondern auch das Ende der Reise. Die aller-allermeisten sind ab da einfach satt.
Halt stark apielabhängig. Das ganze ist ja noch recht frisch und nur wenige Jahre am Markt. Die bisherigen Fortschritte waren gewaltig, geht’s im ähnlichen Tempo weiter holt man auch dich mit ab. Das es die Zukunft ist, sollte glaub ich kaum einer ernsthaft anzweifeln können.

4K/144hz ist definitiv ein fetter Meilenstein. Jeder der es hat ist wie du sagst auch erst mal satt. Heißt aber nicht, dass man nicht auch wieder hungrig werden könnte. Insbesondere bei Text hätte ich jetzt schon wieder gerne eine höhere Pixeldichte als mein 34“ mit 4K hat. Dazu noch die subpixelprovlematik der jetzigen Oleds…perfekt ist es leider noch nicht. Genauso wie die upscaler, aber eben für mich ein Segen.

Sardaukar.nsn
2024-01-25, 07:09:32
Politisch scheint man schon mal die Bahn freizumachen. Sogar ohne Lederjacke?!

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Vorbereitung-RTX-5000-Hopper-Nvidias-CEO-besucht-China-Taiwan-1438806/

Pfuscher
2024-01-25, 09:01:39
Jen-Hsun Huang steht da zwischen 2 Seiten in einem Handelskrieg.
Sicher keine schöne Position, wenn die USA und China ihn nonstop belästigen und beeinflussen wollen.
Auch müssen sie dauernd neue Produktlinien für China aufbringen.
Was Nvidia nur Kosten verursacht und den Verkauf schwächt.
Er war vor kurzem erst bei der US Regierung.

Sunrise
2024-01-25, 09:19:21
Bei Nvidia muss man sich eher Sorgen machen, wer nach Huang kommen sollte. Huang ist in seiner Rolle extrem dominant.

Blackwell wird denen aus den Händen gerissen werden, daher wird China und Taiwan schonmal erste Annäherungsversuche starten.

Neurosphere
2024-01-25, 09:46:49
Bei Nvidia muss man sich eher Sorgen machen, wer nach Huang kommen sollte. Huang ist in seiner Rolle extrem dominant.


Zumindest in der Öffentlichkeit.

robbitop
2024-01-25, 09:47:11
Wenn er schlau war hat er sich sehr langfristig seinen Nachfolger ausgesucht, geformt und herangezogen. So wie Jobs es mit Cook gemacht hat. Das kann viele Jahre dauern und muss früh genug angefangen werden. Und selbst dann muss es nicht unbedingt Erfolg haben. Execution kann man beibringen aber Vision ist schwierig.
Andererseits kann es auch gut sein, dass auch da heute schon viel von seinen SVPs und VPs kommt (an Ideen und Visionen) und Huang diese dann facilitated. Wenn er ein guter Anführer ist, läuft es genau so. Denn ein guter Anführer baut seine Organisation so, dass sie genauso gut funktioniert, wenn man weg ist. :)

The_Invisible
2024-01-25, 09:57:56
Huang hat halt noch zusätzlich die Position dass es noch immer sein "Baby" ist. Bei Apple wird Cook ja auch immer nachgesagt das es an Innovation mangelt, das kann man halt nicht lernen ein Visionär zu sein.

Wird uns aber sicher noch ein paar Gens erhalten bleiben ;)

robbitop
2024-01-25, 10:01:33
Und dennoch ist Apple erfolgreicher denn je. Aber ja sagte ich ja auch schon. Es selbst aufgebaut zu haben und die richtige Vision zu haben und umzusetzen - das kann man nicht lernen. Das ist für jedes Unternehmen ein potenzieller Punkt wo sich alles ändern kann.

Troyan
2024-01-25, 12:38:10
Jen-Hsun Huang steht da zwischen 2 Seiten in einem Handelskrieg.
Sicher keine schöne Position, wenn die USA und China ihn nonstop belästigen und beeinflussen wollen.
Auch müssen sie dauernd neue Produktlinien für China aufbringen.
Was Nvidia nur Kosten verursacht und den Verkauf schwächt.
Er war vor kurzem erst bei der US Regierung.

nVidia hat tausende Mitarbeiter in China. Viele werden bestimmt an Hopper und Lovelace gearbeitet haben. Huang hat auch für diese Menschen eine Verantwortung.

Daher sind die ganzen Beschränkungen auch absoluter Bullshit.

Sunrise
2024-01-25, 12:39:56
Und dennoch ist Apple erfolgreicher denn je. Aber ja sagte ich ja auch schon. Es selbst aufgebaut zu haben und die richtige Vision zu haben und umzusetzen - das kann man nicht lernen. Das ist für jedes Unternehmen ein potenzieller Punkt wo sich alles ändern kann.
Ja, das liegt ihm einfach. Alleine so nen quasi Startup hochzuziehen, dann trotz dessen, dass man mit in der Findungsphase mit NV1 (aka. eierlegende Wollmilchsau) ordentlich einstecken musste, erstarkt wieder aufgestanden. Huang hatte schon immer gute Industriekontakte und seine Vision baut auch viel auf den Rückmeldungen der Anforderungen auf, die andere nur formulieren, NV aber alles in HW gießen kann.

Sie fahren zudem immer einen Kurs, der sehr egoistisch geprägt ist, der Erfolg ist ziemlich sicher mit harter Arbeit verbunden. Wenn Huang redet habe ich jedesmal das Gefühl, der tickt in seinem Kopf schon 10 Jahre weiter.

Wenn Musk über Dojo redet, dann ist Huang schon beim Tapeout des Nachfolgers. Huang ist für mich die wichtigste Person, wenn es in diesem Sektor um AI geht. Das werden sie auch wieder mit Blackwell bzw. dessen Abwandlungen, beweisen.

AMD sucht die Lücken…

rentex
2024-01-25, 13:12:46
@Sunrise +1

Sardaukar.nsn
2024-01-26, 18:07:09
Gibt es eigentlich schon was konkreteres zum Release Date?

Ende letzten Jahres las ich das es ab Oktober losgehen könnte. So wie die Generationen davor auch. https://www.techpowerup.com/317052/nvidia-geforce-rtx-50-series-blackwell-on-course-for-q4-2024

Altehardware
2024-01-27, 05:30:46
q1 2025 frühestens

medi
2024-01-27, 05:57:45
...
Andererseits kann es auch gut sein, dass auch da heute schon viel von seinen SVPs und VPs kommt (an Ideen und Visionen) und Huang diese dann facilitated. ...

Erleichtert https://www.deepl.com/translator?share=generic#en/de/facilitated

What? 🤔

Langlay
2024-01-27, 06:07:33
Erleichtert https://www.deepl.com/translator?share=generic#en/de/facilitated

What? 🤔


https://dict.leo.org/englisch-deutsch/facilitated

Sardaukar.nsn
2024-01-27, 07:27:50
q1 2025 frühestens

Hast du dazu aktuellere Infos? Ich habe bisher die Aussagen Ende Dezember und halt den Zyklus der letzten Jahre. Das würde beides für Herbst diesen Jahres sprechen.


Launch dates

GeForce RTX 2080 Ti 27. Sep. 2018

GeForce RTX 3090 24. Sep. 2020

GeForce RTX 4090 12. Oct. 2022

horn 12
2024-01-27, 07:40:02
GDDR7 wird wohl das Problem sein.

Altehardware
2024-01-27, 09:49:48
ja es liegt an gddr7 wenn es stimmt das blackwell auf n3 kommt braucht nvidia 24gbit und die gibt es erst ab q1 2025
https://wccftech.com/micron-roadmap-gddr7-memory-next-gen-nvidia-gpus-up-to-24gb-32-gbps-dies-in-2024-24gb-36-gbps-in-2026/
klar kann man argumentieren das dies auch dez 2024 sein könnte aber die chips müssen zuerst gebaut werden bevor diese in die sku kommen können
Sprich wenn q4 2024 produziert wird werden gpu erst 1-3 Monate später damit bestückt demnach wird es frühestens q1 2025 sein das rtx50 kommt.
Und wenn dann direkt mit gddr7 32gbps 24gbit chips rein mathematisch wäre selbst in n3 node mit reduzierten SI eine rtx5060 mit dem gb206 ab 15gb (5 24gbit 32gbps chips) ab 349$ umsetzbar wohl gemerkt bei nur 48sm aktiv von 64
Der Vollausbau vermutlich 60sm wird als 70er gpu verkauft.
Folgende sku sehe ich kommen ab q1 2025

rtx5090 gb203 142sm 3,2ghz n3 node 30gb 2000$ +26% vs rtx4090
rtx5080 gb205 90sm 3,2ghz n3 node 24gb 1000$ +28% vs rtx4080
rtx5070 gb206 60sm 3,2ghz n3 node 18gb 600$ +22% vs rtx4070 super
rtx5060ti gb206 48sm 3,2ghz n3 node 15gb 500$ +60% vs rtx4060ti 16gb
rtx5060 gb207 32sm 3,2ghz n3 node 12gb 400$ +50% vs rtx4060
rtx5050 gb207 28sm 3,2ghz n3 node 12gb 300$ +33% vs rtx4060

Klar kann es sein das die rtx5050 ne rtx5060 ist aber das würde stillstand bedeuten

Wichtig ist was amd mit den apu macht der erste Hinweis bringt strix point die es ab feb geben wird am desktop
Dann können wir extrapolieren was rdna4 kann und wie sehr rdna3 Fehlerhaft war.
2025 kommt zudem noch strix halo mit 40cu 2,0ghz in der igp
2026 erste apu mit intrigierte inf cache und neuen sockel am6 vermutlich mit quadchannel
also ob nvidia überhaupt ne dgpu unter 400$ bringt ist unklar
Wäre aber an Sich die letzte ihrer Art.
Der gb207 könnte laptop exklusiv bleiben.
sofern sich die 40cu mt 3,0ghz ohne Bandbreitenlimit herausstellen sollte das ginge mit nen inf cache von 32mb und spezielle apu mit quadchannel support
Und wenn ohne quadchannel hat man dennoch grob 160gb/s das mit ner npu algo der diese Bandbreite egalisiert dürfte nvidia rtx5050 mit grob 16tf überflüssig werden.
Die apu hat das potenzial bis zu 17tf (entspricht der rx6800 bei 2,2ghz)
Das wann ist noch offen amd sagt zu escher nur 2026

Sardaukar.nsn
2024-01-27, 12:23:18
@Altehardware: Danke für die Einschätzung. DDR7 und die N3 Fertigung bei TSMC hat Igor auch schon erwähnt. Er spricht hier von Release zum Weihnachtsgeschäft. https://www.igorslab.de/nvidia-geforce-rtx-50-blackwell-leistungsstarke-grafikkarten-mit-neuem-prozess-und-schnittstelle/

basix
2024-01-27, 17:44:09
Ich denke, Release wird noch dieses Jahr passieren. RDNA4 wird stark ;)

AffenJack
2024-01-27, 21:57:53
@Altehardware: Danke für die Einschätzung. DDR7 und die N3 Fertigung bei TSMC hat Igor auch schon erwähnt. Er spricht hier von Release zum Weihnachtsgeschäft. https://www.igorslab.de/nvidia-geforce-rtx-50-blackwell-leistungsstarke-grafikkarten-mit-neuem-prozess-und-schnittstelle/

Samsung hat im August Gddr7 Samples an Nvidia ausgeliefert, die Verfügbarkeit davon wird nicht das Problem sein. Allerdings kommt von Samsung zuerst nur die gleiche Kapazität, soweit ich das verstanden hab. Für ne 5090 dieses Jahr mit 24 GB passt das, während man später die kleineren 2025 dann mit 24GBit Chips bringen kann und z. B. ne 5090Ti mit 36 GB bringen könnte.

=Floi=
2024-01-27, 22:59:21
40cu 2,0ghz in der igp

ich sage, da verhungert der dualchannel ram

basix
2024-01-28, 09:28:45
ich sage, da verhungert der dualchannel ram

Strix Halo hat Quad-Channel (max. 273 GB/s mit LPDDR5X-8533) und dazu noch 32MB Infinity Cache ;)

Unter dem Strich: Bandbreite einer RX 7600.

The_Invisible
2024-01-28, 09:48:38
Ich denke, Release wird noch dieses Jahr passieren. RDNA4 wird stark ;)

Rdna4 hat ja nicht mal eine highend sku :confused:

robbitop
2024-01-28, 09:54:18
Die uArch kann doch trotzdem stark sein.

basix
2024-01-28, 10:11:25
Richtig.

Wenn RDNA alles bis und mit 4070 TI Super oder gar 4080S "abrasiert" (Performance/Watt, P/L, VRAM-Menge) ist das für mich stark.
Leos Auswertung von den Mindfactory Zahlen zeigt, dass >90% des Umsatzes ausserhalb der 4080/4090 Preiskategorien gemacht wird. Kann AMD für 600-700$ und darunter sehr attraktive Angebote bieten, macht man Nvidia auch ohne Performancekrone ordentlich Konkurrenz.
In dem Fall kann Nvidia schon "genötigt" werden, Blackwell nicht zu verzögern und später zu releasen. Dann released man, sobald Blackwell fertig ist.

robbitop
2024-01-28, 10:17:47
Richtig. Der Anteil der Leute die irrwitzige Summen für eine PC Kompontente investiert ist klein. Wenn man einen guten 60 und 70 competitor gegen Blackwell bringen kann mit gutem P/L hat man sicherlich Produkte die für den Großteil des Marktes relevant sind.

Sardaukar.nsn
2024-01-28, 10:53:00
Wobei die Oberklasse recht wertstabil ist. Eine 4090 für 1950€ vom Oktober 2022 wird man nach ~20 Monaten ziemlich sicher noch für 1500€ vermarkten können. Ja, sicher kein Schnäppchen aber meiner Meinung auch kein irrwiziges Geld verbrennen. Darf aber zum Glück jeder selbst entscheiden.

robbitop
2024-01-28, 10:57:14
Wenn man sie rechtzeitig los wird ok. Aber auch nicht jeder will 2000€ „Pfand“ irgendwo parken. Es ist halt nur ein PC. Und es ist nur eine Komponente davon. Es ist einfach irrsinnig geworden.

Sardaukar.nsn
2024-01-28, 11:34:52
Man bekommt ja auch einen Gegenwert. Es gibt auch Leute die jedes Jahr ihr high-end Smartphone wechseln. Aber wie gesagt, darf ja jeder selbst entscheiden.

AffenJack
2024-01-28, 11:39:17
In dem Fall kann Nvidia schon "genötigt" werden, Blackwell nicht zu verzögern und später zu releasen. Dann released man, sobald Blackwell fertig ist.

Das hat nichts mit der Realität zutun. Wenn das Ding fertig ist, releast man. Alles andere ist ökonomischer Blödsinn. Die einzigen Gründe ein Produkt zurückzuhalten ist, wenn man noch Haufenweise Lagerbestände des alten hat, nicht genug des neuen liefern kann oder die Margen beim alten Produkt besser sind.

Die Konkurrenz hat am Ende Einfluss auf die Preisgestaltung und Abspeckung der Chips, aber kaum auf das Datum.

Neurosphere
2024-01-28, 11:41:34
Richtig. Der Anteil der Leute die irrwitzige Summen für eine PC Kompontente investiert ist klein. Wenn man einen guten 60 und 70 competitor gegen Blackwell bringen kann mit gutem P/L hat man sicherlich Produkte die für den Großteil des Marktes relevant sind.

Das stimmt, man darf aber trotzdem nicht den Halo-Effekt außer acht lassen.

Ein großteil eben jener Käuferschicht wird sich, vielleicht auch unbewusst, dadurch beeinflussen lassen das Nvidia derzeit die schnellsten Chips im Markt bietet und zum anderen mit RT ein Feature pushed, das zumindest derzeit nur eingeschränkt in der unteren Preisklasse nutzbar ist.

Gut für die Verkäufe wird es allemal sein dort stark aufgestellt zu sein, aber den Top-Chip zu liefern hat auf jeden Fall den größeren Marketing-Effekt.