PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia "Blackwell" GB202-Chip mit 192 Shader-Cluster an einem ...


Leonidas
2023-09-29, 10:31:01
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidia-blackwell-gb202-chip-mit-192-shader-cluster-einem-512-bit-speicherinterf

BlacKi
2023-09-29, 10:36:54
cache menge erhöht, speicherinterface massiv erhöht, das werden massive performancesteigerungen.

aceCrasher
2023-09-29, 11:17:14
cache menge erhöht, speicherinterface massiv erhöht, das werden massive performancesteigerungen.
Hoffentlich kein ebenso massiver Preissprung. Bei 4090-ähnlichen Preisen wäre ich vermutlich wieder im Boot.

MiamiNice
2023-09-29, 11:56:08
Mir wäre wichtig, dass NV nicht wieder so ein Tod kastriertes Produkt wie die 4090 heraushaut. Die kann man guten Gewissen kaum kaufen aufgrund der Abspeckungen beim Chip. Toll wäre auch etwas in der 600-800 Watt Klasse, mit entsprechender Performance, wie es bei Ada angekündigt war.

Gast
2023-09-29, 12:01:13
Die massive ROP-Erhöhung erklärt auch die Steigerung beim Speicherinterface, irgendwo müssen diese schließlich ihre Daten hinschreiben.

Und all das bedingt eigentlich eine massive Verbreiterung der SMs, ansonsten würde die Verbreiterung im Backend vollends verpuffen.

Zusätzlich eine Verdopplung der TPCs pro SM würde sich anbieten, mehr CUDA-Cores pro SM auch nicht unwahrscheinlich, bzw. alternativ irgendwelche neue Spezialhardware die sich Nvidia einfallen hat lassen.

Dass der SM-Aufbau sich nicht deutlich von Lovelace unterscheiden wird kann man jedenfalls ausschließen, und jegliche Rohleistungsvergleiche die mit Basis des Lovelace-SMs gemacht werden sind obsolet.

BlacKi
2023-09-29, 12:58:23
Mir wäre wichtig, dass NV nicht wieder so ein Tod kastriertes Produkt wie die 4090 heraushaut. Die kann man guten Gewissen kaum kaufen aufgrund der Abspeckungen beim Chip. Toll wäre auch etwas in der 600-800 Watt Klasse, mit entsprechender Performance, wie es bei Ada angekündigt war.dann solltest du alle hoffnung auf amd setzen. tatsächlich vermute ich zumindest zum start der neuen karten keine enthusiast amd karte, da n41 gecancelt wurde. vermutlich erst mit rdna5, im best case ein jahr später nach dem release der 5090, als 5090ti.


bis dahin hast du aber längst eine 5090 im rechner :biggrin:

MiamiNice
2023-09-29, 13:05:10
AMD ist imo sowas von raus. Meine Hoffnungen liegen derweil bei Intel, das wird aber noch paar Gens dauern bis die aufm Damm sind mit ihren GPUs. AMD wird von jetzt an, imo, nur noch schrumpfen bis zum Bankrott bzw. Aufkauf von irgendwem. Oder sie halten sich wieder eine Dekade lang knapp über Wasser und greifen irgendwann wieder an, wenn Intel wieder eingeschlafen ist und/oder Jensen in den Ruhestand geht.

L233
2023-09-29, 13:25:15
Jensen in den Ruhestand geht.
Jensen wird auch noch in in Jahrzehnten als lebende Mumie AMD pwnen.

Gast
2023-09-29, 13:58:13
Es müsste sich bei der Architektur, vor allem im bereich RT einiges tun.
Der theoretische Leistungsunterschied zwischen 4080 und 4090 ist doch auch riesig und in der Realität kommen ca 25-35% an.
Wenn die Rohleistung um 50% steigen würde bei Blackwell ist das Ding in der Realität vielleicht nur 20-25% schneller. Das für eine neue Gen im neuen Verfahren wär echt bitter

Platos
2023-09-29, 14:48:06
Mich interessiert vor allem, wie der Stromverbrauch aussehen wird. Wird das wieder so ne "Mehr Perfomance = Mehr Stromverbrauch"-Generation?

Weil bis jetzt ist ja noch nicht gesetzt, ob nvidia beim Gaming auf 3nm setzt oder auf 5nm (wobei ich 5nm für wahrscheinlicher halte). Aber selbst wenn es 3nm wären, ist der Prozess jetzt auch nicht sooo viel besser.

Mich interessiert eig. nur Perfomance/Preis und perfomance/Watt. Und leider erfährt man sowas erst kurz vor launch, da ja die Chipnamen/Grafikkartennamen mittlerweile überhaupt keinen Bezug mehr zu einer bestimmten Preisklasse haben.

Blackwell-Gaming könnte auch 1000% mehr Perfomance bringen. Das ist alles wertlos, wenn man keinen Preis und Stromverbrauch kennt.

The_Invisible
2023-09-29, 14:52:11
Mir wäre wichtig, dass NV nicht wieder so ein Tod kastriertes Produkt wie die 4090 heraushaut. Die kann man guten Gewissen kaum kaufen aufgrund der Abspeckungen beim Chip. Toll wäre auch etwas in der 600-800 Watt Klasse, mit entsprechender Performance, wie es bei Ada angekündigt war.

Kannst ja eine rtx6000 Ada kaufen...

Sehe hier kein Problem solange die Leistung stimmt, wenn von AMD nix kommt gehen die besseren Chips alle zur Prof sparte

Sweepi
2023-09-29, 15:53:52
Tod kastriertes Produkt wie die 4090 heraushaut. Die kann man guten Gewissen kaum kaufen aufgrund der Abspeckungen beim Chip.

Ich verstehe noch nicht mal im Ansatz, wo das Problem von Salvage liegt.

Disconnected
2023-09-29, 16:07:03
PC Gamer interessieren Nvidia nicht mehr. Da könnt Ihr noch so lange rumheulen, dass Ihr nur Resteverwertung bekommt.

Lehdro
2023-09-29, 16:18:20
Ich verstehe noch nicht mal im Ansatz, wo das Problem von Salvage liegt.
Rein psychologisches Problem. 99% kaufen die Karten nach der Leistung, aber das eine 1% kauft nur wenn es ein Vollausbau ist, weil - ist halt so :freak: Deswegen haut NV die Vollausbauten auch gerne gegen kräftigen Preisaufschlag paar wenige Monate vor der nächsten Gen raus, um dieses Klientel richtig durchzunehmen (siehe Titan Black, Titan Xp, RTX 3090 Ti...). Die wollen das nämlich auch so.

Gast
2023-09-29, 17:20:39
Der theoretische Leistungsunterschied zwischen 4080 und 4090 ist doch auch riesig und in der Realität kommen ca 25-35% an.



Die 4090 ist einfach für vieles zu schnell.
Überall da wo die 4090 auch zu 100% limitiert, ist der Vorsprung auch in dem Bereich den man durch die Rohleistung erwarten würde, und fast überall ist sie dann auch mehr als doppelt so schnell als eine 3090.

Es ist nur gar nicht so einfach Situationen zu finden, in denen die 4090 tatsächlich zu 100% GPU limitiert ist, fast immer gibt es zumindest ein partielles CPU-Limit.

Platos
2023-09-29, 17:53:53
Wo ist die 4090 "mehr als doppelt so schnell" wie eine 3090? Ne 3090 ist ungefähr ~ 4070Ti niveau und die 4090 ist nicht "mehr als doppelt" so schnell, wie diese (solange der Speicher nicht limitiert).

Bzw. auf was für ne Auflösung beziehst du dich da?

BlacKi
2023-09-29, 20:07:32
Es müsste sich bei der Architektur, vor allem im bereich RT einiges tun.
Der theoretische Leistungsunterschied zwischen 4080 und 4090 ist doch auch riesig und in der Realität kommen ca 25-35% an.
Wenn die Rohleistung um 50% steigen würde bei Blackwell ist das Ding in der Realität vielleicht nur 20-25% schneller. Das für eine neue Gen im neuen Verfahren wär echt bitternein


die 4090 hat nur 40% mehr bandbreite. und ist dabei bei raster 35 und rt 36% im schnitt schneller. die rechenleistung kann sich oft garnicht durchsetzen.

wenn man daher in betracht zieht, das bis 2025 gddr7 an 512bit gereicht wird und dazu noch der cache um 33% steigt, also noch mehr an banbreite gespart wird, dann steht theoretisch wieder fast eine verdoppelung ins haus. zumindest bei fullfat blackwell vs verkrüppelte ada darf man das getrost annehmen.

Korvaun
2023-09-30, 09:59:58
Die Frage ist doch eher wie stark sich nV auf AI/DLSS konzentriert. Es wäre aktuell der perfekte Zeitpunkt da so viel Druck wie möglich zu machen. AMD/Intel sind abgeschlagen und werden nächste Gen eher noch weiter zurückliegen und das selbst ohne DLSS-Verfahren. Andererseits könnte nV aufgrund dieser Dominanz auch nur das absolut nötigste tun und so die Gewinnmarge weiter "optimieren" (möglichst kleine Chips, möglichst wenig Speicher...). Eine "Zwischengeneration" zum Geld scheffeln sozusagen...

The_Invisible
2023-09-30, 10:44:32
PC Gamer interessieren Nvidia nicht mehr. Da könnt Ihr noch so lange rumheulen, dass Ihr nur Resteverwertung bekommt.

Macht AMD ja so viel besser, die bringen erst gar kein high-end mehr... da nehm ich lieber die Reste vom dicken chip

The_Invisible
2023-09-30, 10:47:51
Wo ist die 4090 "mehr als doppelt so schnell" wie eine 3090? Ne 3090 ist ungefähr ~ 4070Ti niveau und die 4090 ist nicht "mehr als doppelt" so schnell, wie diese (solange der Speicher nicht limitiert).

Bzw. auf was für ne Auflösung beziehst du dich da?

Man werde nur genug Pixel und RT drauf und man hat doppelte perf gegenüber 3090: https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/Geforce-4090-Test-Benchmarks-RTX-4090-vorbestellen-1404846/4/

Gast
2023-09-30, 11:34:26
PC Gamer interessieren Nvidia nicht mehr. Da könnt Ihr noch so lange rumheulen, dass Ihr nur Resteverwertung bekommt.
Viel schlimmer ist es, dass das Berufsfeld Game Engine Developer und Game Developer aus finanziellen Gründen zu ner Resterampe in ner Knochenmühle geworden ist. Das mag noch für portable Gaming ausreichend sein, aber für stationäres Gaming am PC oder auch Konsole könnten die Zeiten an attraktiven und hochwertigen will-unbedingt-haben-Spielen bei Lichte betrachtet nicht schlechter sein. Der Gaming-Zenit aus den 2000ern ist schon lange überschritten. Heute muss man sich per Autosuggestion mit dem mehrmals "recycelteten" Cyberpunk die Situation schönsaufen.

MasterElwood
2023-09-30, 17:34:00
Wo ist die 4090 "mehr als doppelt so schnell" wie eine 3090? Ne 3090 ist ungefähr ~ 4070Ti niveau und die 4090 ist nicht "mehr als doppelt" so schnell, wie diese (solange der Speicher nicht limitiert).

Bzw. auf was für ne Auflösung beziehst du dich da?

Meine 4090 ist ca. 125 Prozent schneller als meine 3080. Und 3090 war ned vie schneller als 3080. Kommt also hin.

Legendenkiller
2023-10-05, 15:35:54
eigentlich ist eine 4090 im Raster schnell genug für alles für immer...
Einfach die die nächsten 10-20 Jahre als Refeshs weiter bau, für Leute die Rastergrakas brauchen und die Entwicklung stoppen.

Und mit 50xx das ganze Raster-Gedöhns komplett rauswerfen und ne reine 100% RT Graka baun. Gerade weil AMD vermutlich auch nichts schnelleres mehr baun kann, bietet sich das IMO an.

Disconnected
2023-10-05, 18:31:21
Genau!

https://static.simpsonswiki.com/images/4/4c/The_Homer.png

Lehdro
2023-10-06, 14:20:19
eigentlich ist eine 4090 im Raster schnell genug für alles für immer...
Lächerlich. Die RTX4090 ist selbst mit OC noch zu langsam im Raster. Und zwar unironisch.