Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Hardware-Daten der Consumer-Chips von nVidias "Blackwell"


Leonidas
2024-06-11, 15:48:43
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-die-hardware-daten-der-consumer-chips-von-nvidias-blackwell

Tigerfox
2024-06-11, 15:53:15
Wenn das stimmt, und Kopite7kimi liegt ja (leider) oft richtig, dann sieht das aber ziemlich düster aus.

Positive Prognose: Es gibt eine 5080Ti und vielleicht eine 5080 auf Basis von GB202-cut downs, 5070Ti und 5070 auf Basis des GB203.

Negative Prognose: Mindestens die 5070 wird auf dem Vollausbau des GB205 basieren und wegen des nur optimierten Prozesses nur minimal schneller als die 4070Ti mit ähnlicher Shaderzahl takten. Beinahe alle Geschwindigkeitsvorteile müssen aus der Architektur erwachsen. Die 5070Ti wird ein sehr reduzierter GB203, die 5080 ein nur leicht reduzierter GB203 und die 5090 wird einen haufen SM des GB202 abschalten.

Das Schlimmste, was NV machen kann, ist, bei der 5070 bei 12GB zu bleiben und nur etwas schneller als die 4070S oder 4070Ti zu sein. Eine 5070Ti mit weniger als 16GB werden sie sich nicht trauen, das haben sie mit der 4070TiS mehr oder weniger eingestanden. GDDR7 wird ja zu Anfang bei 2GB-Chips bleiben. Vielleicht kommen dann 2025 oder 26 Versionen mit 1,5x Speicher oder ein Refresh.

Dovregubben
2024-06-11, 16:24:28
Ist da mehrfach die 5090 mit 5080 verwechselt?
Eine 5090 mit GB203 wäre schon sehr seltsam.

Gast Icke
2024-06-11, 16:33:41
Das Schlimmste, was NV machen kann, ist, bei der 5070 bei 12GB zu bleiben und nur etwas schneller als die 4070S oder 4070Ti zu sein. Eine 5070Ti mit weniger als 16GB werden sie sich nicht trauen, das haben sie mit der 4070TiS mehr oder weniger eingestanden. GDDR7 wird ja zu Anfang bei 2GB-Chips bleiben. Vielleicht kommen dann 2025 oder 26 Versionen mit 1,5x Speicher oder ein Refresh.
Das Schlimmste was Nvidia machen können ist vielmehr das sie die 5070 bei 12GB belassen und diese dann als High End FHD Karte zu verkaufen.


meine Prognose
5090 -448Bit 3/4 des GB202 mit 28GB 1999€
5080ti - 384bit voll GB203 mit 24GB -1499€
5080 - 256bit 3/4 GB203 mit 16GB 1099€ Leistung wie 4090
5070ti -256bit paar shader mehr wie 4070 aber 16GBLeistung der >4080
5070 -192bit 12GB Leistung wie 4070ti Super aber weniger speicher

AMD gibt es dann als Konter eben nur für GB205 dafür aber mit vollen 384bit und 12-24GB

hardtech
2024-06-11, 16:39:28
gleich kommt miamivice und erklärt einem, dass die 5080 30%+ leistung haben wird.


wie erwartet das portfolio. keinen deut gpu-ram mehr.
kaum mehr einheiten. maximale gewinnorientierung wie wir es gewohnt sind.
bin nur auf die preise gespannt: werden sie sich halten oder nochmal ein ganzes stück höher angesetzt?!

zudem: gibt es irgendwo prognosen über die effizienz, sprich performance pro watt, am liebsten in 4k?

Leonidas
2024-06-11, 16:46:38
Ist da mehrfach die 5090 mit 5080 verwechselt?
Eine 5090 mit GB203 wäre schon sehr seltsam.

In der Tat, 2x verwechselt. Danke für den Hinweis, ist gefixt.

Platos
2024-06-11, 16:46:44
Ja, das sieht leider Düster aus.

Das passiert nunmal, wenn es keine gesunde Konkurrenz gibt. AMD stinkt im oberen Segment ab (unten ist es noch ungewiss) und bei Intel ist es genau so.

Seit Jahren kommt keine starke Konkurrenz mehr (man muss eig. schon fast in Jahrzent sprechen). Eine Ausnahme-Generation (RDNA2) reicht nicht...

Leonidas
2024-06-11, 16:47:37
5080ti - 384bit voll GB203 mit 24GB -1499€

GB203 hat nur 256bit, ergo auch kein 24GB machbar.

Tigerfox
2024-06-11, 16:55:03
Das Schlimmste was Nvidia machen können ist vielmehr das sie die 5070 bei 12GB belassen und diese dann als High End FHD Karte zu verkaufen.
Das sag ich doch.



5080 - 256bit 3/4 GB203 mit 16GB 1099€ Leistung wie 4090
Da traust Du Blackwell aber massive Verbesserungen zu. Denk dran, der GB203 hat wohl nur soviele Shader wie der Vollausbau des AD103 gehabt hätte, also 5% mehr als die 4080S, viel mehr Takt ist durch den optimierten Prozeß auch nicht drin, aber die 4090 ist ~32% schneller als die 4080S.

5070ti -256bit paar shader mehr wie 4070 aber 16GBLeistung der >4080 Meinst Du nicht ein paar Shader mehr als die 4070Ti(S)?

AMD gibt es dann als Konter eben nur für GB205 dafür aber mit vollen 384bit und 12-24GB
Sprichst Du jetzt von einer fortgeführten 7900XTX? NAVI48 hat nur 256Bit und 16GB, soll aber je nach Prognose eine Performance zwischen 7800XT und 7900Xt oder 7900XT und 7900XTX erreichen. Wird also schon schwer, da mit einem GB205 zu kontern.

GB203 hat nur 256bit, ergo auch kein 24GB machbar.
Bis zum erscheinen der 24Gb-GDDR7 Chips jedenfalls.

Gast
2024-06-11, 18:15:01
Beim Inspirierenden Portfolio fehlt eine RTX 5050 auf Basis eines GB207. Der GB207 wird nicht genutzt, was ja kein Sinn ergibt,wenn es ihn gibt.

Gast
2024-06-11, 18:24:17
Das Portfolio macht irgendwie keinen richtigen Sinn, ausser wenn nvidia zaubern kann und die ipc 20-30% steigt....
Die große Lücke zwischen 202 und 203 ist aberwitzig, der mickrige Abstand zwischen 205 und 206 ist genauso seltsam, warum braucht die 205 192 bit und die 206 128 bei kaum weniger schadern.
Irgendwas weiss man noch nicht, leider ziemlich gewiss dass der 202 sehr abgespeckt und sehr teuer zu kaufen wird...

Dovregubben
2024-06-11, 19:18:48
Mal eine unpopuläre Meinung:
Bottlenecks sind im Moment Raytracing und Denoising.
Vermutlich sind wir aktuell an einem Punkt, an dem 20% mehr Transistoren in Raytracing Units und Tensor Cores mehr Bildqualität bringt, als 20% mehr in generischen Compute zu stecken.
Damit wären die bisherigen Zahlen auch komplett irrelevant, weil sie nichts über die beiden Bereichen aussagen.

Gast
2024-06-11, 19:20:46
GB202 ist für KI ohne HBM

printer90
2024-06-11, 19:34:11
Mich beschäftigt schon einige Zeit der MCM Ansatz beim GB202.

Ich frage mich, ob es hier in der Performance auch Regressionen geben kann wie man ja auch analog bei AMDs ZEN Ansatz gesehen hat, dass es höhere Latenzen gab zwischen den CPU Chiplets. Falls dem so ist. Bräuchte man dann nicht sowieso einen sehr starken Hardwareansatz eben mit beschriebenen Daten um Mehrperformance zu generieren, da es auch zu Rükschritten wegen MCM kommt? AMDs bisherige Grafikkarten eignen sich nicht für einen Vergleich, da der MCM Ansatz hier doch nicht so tiefgreifend war, wie ich auf Schaubildern gesehen habe.

Kann hier jemand was dazu sagen? Danke vielmals.

Sardaukar.nsn
2024-06-11, 21:30:58
Mal eine unpopuläre Meinung:
Bottlenecks sind im Moment Raytracing und Denoising.
Vermutlich sind wir aktuell an einem Punkt, an dem 20% mehr Transistoren in Raytracing Units und Tensor Cores mehr Bildqualität bringt, als 20% mehr in generischen Compute zu stecken.
Damit wären die bisherigen Zahlen auch komplett irrelevant, weil sie nichts über die beiden Bereichen aussagen.

Da gehe ich mit, bzw. darüber wird wahrscheinlich das Marketing aufbauen. Viel mehr Rohleistung wird man wohl nicht aus Blackwell rausholen können. Vielleicht aber auch gar nicht mehr so relevant?

Kriegsgeier
2024-06-11, 21:35:36
Das wäre wirklich schlimm, wenn NVIDIA zum Kaschieren z.B. einen 512Bit Speicherinterface bräuchte —> der säuft nämlich gerne viel.
Und die mehr SM wären auch umsonst? Eher nicht: jeden Shader mehr aus den 192 müssen wir Käufer teuer bezahlen: da Chipfläche.

Gast
2024-06-11, 23:25:42
Es glaubt wohl niemand ernsthaft, dass Nvidia die Shader-Cluster identisch gelassen hat und lediglich über die Zahl der GPCs/TPCs skaliert.

Leonidas
2024-06-12, 05:31:11
Beim Inspirierenden Portfolio fehlt eine RTX 5050 auf Basis eines GB207. Der GB207 wird nicht genutzt, was ja kein Sinn ergibt,wenn es ihn gibt.

Richtig, könnte da hinzukommen. Aber "nicht genutzt" ist falsch: Gerade diese kleinste Lösung wird massiv im Mobile-Segment genutzt werden.



Vermutlich sind wir aktuell an einem Punkt, an dem 20% mehr Transistoren in Raytracing Units und Tensor Cores mehr Bildqualität bringt, als 20% mehr in generischen Compute zu stecken.

Stimmt erst einmal. Allerdings hängen auch Tensor- und RT-Einheiten bei NV an der Anzahl der regulären SMs. Wenn NV speziell Tensor+RT steigert, dann kann man viel gewinnen, das Portfolio-Ungleichgewicht würde allerdings bleiben.



Es glaubt wohl niemand ernsthaft, dass Nvidia die Shader-Cluster identisch gelassen hat und lediglich über die Zahl der GPCs/TPCs skaliert.

Es läuft immer mehr darauf hinaus, das NV hier was getan haben sollte. Derzeit gibt es aber noch 0 Infos hierzu.

downforze
2024-06-12, 06:32:53
Ich gehe davon aus, dass sie die 5090 so performant machen, dass jeder genötigt wird diese zu kaufen und die Sprünge von 5080 zu 4080, 5070 zu 4070 usw geringer werden.

Kriegsgeier
2024-06-12, 07:01:55
wenn man sich eine 4090 gekauft hat, hat man es mit dem Gedanken frühestens auf eine 6090 zu wechseln.
Genau so wie ich z.B.: Anfang 2021 habe ich mir 3090 gegönnt mit dem Gedanken erst bei 5090 schwach zu werden.

Erwarte, dass 5090 2-3x RayTracing Leistung gegenüber 4090 haben wird --> 5-7x im Vergleich zur 3090.

Und allgemein: 3090 --> 5090 2,5x mehr Leistung

Daher ist es immer sinnvoll eine Generation zu überspringen: wenn man immer HiEnd kauft.

PS: und seihen wir uns mal ehrlich: die 5090 wird die erste richtige 4k GraKa, die auch ohne DLSS überall knapp über 60FPS liefern kann.

PS: ich glaube auch nicht an volle 192 Shader und 512Bit.

Gast
2024-06-12, 07:21:58
wenn man sich eine 4090 gekauft hat, hat man es mit dem Gedanken frühestens auf eine 6090 zu wechseln.

Nichts neues, ich hab mir seit jeher "nur" jede 2. Generation gekauft, früher waren die Releasezyklen zu schnell, und heute sind die Performancesprünge zu gering.

Gast
2024-06-12, 07:25:36
Es läuft immer mehr darauf hinaus, das NV hier was getan haben sollte. Derzeit gibt es aber noch 0 Infos hierzu.

Was nichts daran ändert, dass die Annahme, Nvidia würde nur jeweils gleich schnelle Nachfolger veröffentlichen extrem unrealistisch macht.

Leonidas
2024-06-12, 10:32:00
Wie gesagt: Gleich schnelle Chips muß nicht bedeuten gleich schnelle Grafikkarten. Man kann den Grafikkarten auch einfach jeweils eine höhere Chip-Version mitgeben - und schon hat man wieder seinen HW-Sprung.

wolik
2024-06-12, 22:26:06
wenn man sich eine 4090 gekauft hat, hat man es mit dem Gedanken frühestens auf eine 6090 zu wechseln.

Wer sich eine 4090 leisten kann, wird ohne mit der Wimper zu zucken auch eine 5090 kaufen.

Duran05
2024-06-12, 22:56:41
Wenn die Spiele so schlecht ausfallen das sich die 4090 nicht lohnte, wird es auch keine 5090 mehr werden. ;-)

Ach diese Zeiten sind herrlich. Nvidia kann eigentlich nichts richtig machen.
Entweder wirds teurer oder die Leistung wird so viel das du sie nicht wirklich ausnutzen wirst.

Da ist der Kauf eines besseren Monitors wahrscheinlich vorzuziehen, dann mal auf 5K oder 8K wechseln, spart sogar noch einige Euros gegenüber der Grafikkarte.
Und wer die 3090 noch im Rechner hat, sollte wegen des Stromverbrauchs schnell weg davon. Hab das nur mal durchgerechnet das es sich nicht lohnt sich eine solche zu beschaffen.