PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 29. Februar 2024


Leonidas
2024-03-01, 07:33:13
Link zur News:
https://www.3dcenter.org/news/news-des-29-februar-2024

GerryB
2024-03-01, 08:48:35
N48 = A little slower than RX 7900 XT

Das klingt doch schon ganz realistisch.
(das XTX-Geschwafel von MLID konnte niemals stimmen)

Laut MLID soll der Navi-48-Chip zwischen 300-350mm² groß sein, laut RGT hingegen nur um die 220mm².
Das Letztere vllt. doch wieder als 220mm²-GCD zzgl. Cache-MCD`s ?
(dann würden auch noch 4nm reichen)

Leonidas
2024-03-01, 10:00:03
Unwahrscheinlich, dann hätte AMD auch beim ursprünglichen Plan bleiben können. Natürlich nicht ganz unmöglich - gute Möglichkeit, die sich widersprechenden Angaben unter einen Hut zu bringen.

MiamiNice
2024-03-01, 10:22:01
Die PC Games Hardware berichtet hingegen über neuerliche Gerüchte zur Performance der GeForce RT 5090 aus nVidias kommender "Blackwell-Generation". Ausgangspunkt des ganzen ist ein neues Video seitens Moore's Law Is Dead, welches jedoch im eigentlichen keine neuen Leaks bereithält, sondern eher denn über die GeForce RTX 5090 spekuliert. Dies ist sicherlich erlaubt, wird aber leider von vielerlei Magazinen in der Form eines "Leaks" abgeschrieben.

Das nennt man Qualitätsjounalismus Leo :tongue:

Die Jungs werden sich alle noch wundern, wenn die 5090 mit dem GB203 Chip kommt oder für um 4000€ UVP.

MD_Enigma
2024-03-01, 11:05:24
Die Jungs werden sich alle noch wundern, wenn die 5090 mit dem GB203 Chip kommt oder für um 4000€ UVP.

:ulol:

Altehardware
2024-03-01, 11:10:20
davon ist auszugehen wer glaubt das ein gb202 für unter 5000€ kommt träumt.
Die rtx5090 wird den gb203 haben offen ist nur ob nvidia auf maxed talkt gehen wird das hängt von amd Erfolg mit rdna4 ab und welchen Takt diese erreichen wird da sind grob 3,55 bis 3,9ghz drin.
Annahmen von apu perf und tdp und den 11% von n4 node.
Zur DIE Größe es ist n4 nicht n3 der chip wird min bei 310mm² sein.
n48 grob 62$ per DIE
n44 grob 32$ per Die
gddr6 20gbps 3$ per 16gbit =24$
Sku ab 310$ und 230$
Amd wird aber so aufstellen rx8600 32sm perf nahe der ps5 pro 350$ und rx8600xt 450$ perf nahe der rx4070ti super

Aroas
2024-03-01, 11:55:14
Man sollte auf diese ganzen Gerüchte und "Leaks" einfach nichts geben. Die widersprechen sich doch von Woche zu Woche immer wieder selbst.
Wirklich handfestes gibt es da nicht.

Ich hoffe einfach inständig, dass im Mainstream/Midrange Bereich mal wieder ordentliche Karten kommen, die keine Mondpreise kosten und nicht massiv beschnitten sind.
Einfach mal wieder was "rundes" für die Kundschaft, die keinen Goldesel daheim hat.

Dino-Fossil
2024-03-01, 12:29:46
Würden die RDNA4 Gerüchte so stimmen wäre es doch eher öde, da sich an der grundsätzlichen Situation im Mittelfeld, wie wir sie aktuell auf AMD-Seite haben nur wenig ändern würde:

Der kleinere Chip hätte wieder nur einen minimalen Fortschritt ggü. dem Vorgänger (N33/N23). Jeder der jetzt schon auf RX66X0 XT, RX7600 (XT) oder RX6700 sitzt und wieder in einem ähnlichen Preisbereich sucht, kann RDNA4 gleich auslassen.
Der größere Chip wiederum würde das so dann ebenso für alle Besitzer von RX6800(XT), RX7700 und RX7800 wiederholen.

Für vielleicht 20% mehr Performance, geringfügig besseren Verbrauch und einem (vermutet etwas) größeren Fortschritt in RT wäre RDNA4 wohl für viele uninteressant.

Bliebe höchstens noch die eher abwegige Möglichkeit, dass AMD beschließt die neuen Chips im Portfolio jeweils eine Stufe niedriger anzusiedeln und das ganze darüber attraktiv wird: der kleinere für eine RX8500 (XT) und der größere für RX 8600-8700 (XT).

Aroas
2024-03-01, 14:04:11
Ist doch aber eigentlich seit Jahr und Tag so, oder?
Will man wirklich im gleichen Preisbereich deutlich mehr Leistung haben, muss man zwei Generationen überspringen.
Erst dann lohnt es sich doch wirklich, weil man ansonsten lediglich zwischen 30 und 60 Prozent Mehrleistung bekommt.

Gast Ritis
2024-03-01, 14:16:33
peinlich peinlich, MLID hatte gar mit rot und blau die Performanceklasse von N48 deutlich eingegrenzt und vor 2 Woche die letzte Wasserstandsmeldung bei 7900XT und 3090Ti eingeordnet. Weniger oder gar mehr Listung hinge ab vom unbekannten RT-Zugewinn je CU bzw. Die-Fläche.

Wenn man aber neben der englischen Sprache nicht mal deutlichste Grafiken verstehen kann ist hier wohl jedes je gemachte Kommentar das Pixel nicht wert. ;D

Vermutlich wird auch RDNA4 mit zu wenig IF-Cache daherkommen. Warten wir es ab, hauptsache der Preis stimmt am Ende.
Es wird ja doch keine Games geben die eine 4090 oder schneller irgendwie rechtfertigen könnten. Die nächste Konsolen-Gen ist viel zu weit weg. Das Problem gab es zur 1080Ti auch schon, nur für wesentlich weniger Geld. Da war das verschwenderische SuperSampling als Ausrede den Aufpreis auch schon nicht wert. Für 4090 und 5090 wird über irrwitzig überlegenes DLSS und PathTracing schwadroniert, macht aber letzlich genauso wenig mehr Spass.

bad_sign
2024-03-01, 14:28:41
Also bisher ist es kein Problem keine neue GPU zu kaufen, aber eine 64CU RDNA Karte wird es sicher nicht werden (außer für 300€, quasi geschenkt :D)
Gut das Nvidia ihr Treiber GUI aktualisiert.

Dino-Fossil
2024-03-01, 14:37:34
@Aroas:

Ja und nein. Das man nicht jede Generation ein Upgrade erwarten kann ist natürlich klar. Aber hier (wenn es so kommt, wie gesagt) tritt man ein bisschen auf der Stelle. RDNA2 auf 3 hat in dem Performancebereich schon nicht* viel gebracht und so wäre es nochmal so.
Was aber für mich auch bedeutet, dass ich diese Gerüchte noch mit Vorsicht betrachten würde.

* Ja, man kann die 6600 mit der 7600 vergleichen, oder die 6700XT mit der 7700XT. Beides schaut eben besser aus, weil man da größere Chips bzw mehr CUs gegenüberstellt hat. Dagegen zeigen aber 66X0XT vs 7600XT oder 6800XT vs 7800XT wieder deutlich weniger Performancefortschritt.

maximus_hertus
2024-03-01, 15:05:46
Die Jungs werden sich alle noch wundern, wenn die 5090 mit dem GB203 Chip kommt oder für um 4000€ UVP.

Weder noch.. nV wird genug 202er Chips haben. Und 4000 USD MSRP sind auch komplett unrealistisch.


nV wird sicherlich mit einem 1xxx Preis daherkommen. Ob 1999, 1899, 1799 oder 1699 USD wird man sehen müssen.

5090 - z.B. 1899-1999 USD
5080 - 16GB - Performance grob 4090 - 1199 USD
5070 Ti 16GB - Performance oberhalb der 4080 - 899 USD
5070 12GB - rund bzw. knapp 4080 Performance - 599-649 USD
5060 Ti 12GB - rund 4070 Super PErformance - 449-499 USD
5060 8GB oder 12GB - schneller als 4060 Ti - 349 USD (12GB) oder 299 USD (8GB)

Fertig ist das Next-Gen Portfolio. (Extreme) Marge ist das eine, aber extreme Preise (4000USD) sorgen für dann zu wenig Absatz.

MiamiNice
2024-03-01, 15:39:37
Richtig, der Preis wird 19XX sein, aber für eine 5090 mit dem GB203er Chip :D
Ich denke nicht, dass es so kommt wie Du schreibst. NV hat es schon mit der 4090 angedeutet, die Leute haben nicht gezuckt, ganz im Gegenteil geht das Teil wie warme Semmeln. Nun kommt der zweite Schritt.
Wenn man die Menschen melken kann, ist Huang schon da um die Leute zu melken Das ist so sicher wie das Amen in der Kirche. Die Leute haben nicht geschrien, als die Preise derart hoch gingen. Die Leute haben nicht geschrien, als sie den 4090 Preis für eine 4080 bezahlen mussten, stand ja immerhin 4090 auf dem Karton. Und nun werden die Leute auch nicht schreiben, wenn sie den Chip der 5070Ti als 5090 vorgesetzt bekommen.
Huang weiß das und er wird es auch genau so tun.

€: Ich könnte mir sogar vorstellen, dass die 4090 aus genau diesem Grund nicht ausgefahren wurde. Gäbe es eine richtige 4090, wäre der Abstand zur 5090 mit 5070Ti Chip, zu klein. So kann Huang argumentieren "Ist zwar kleinerer Chip aber Leistungs Zuwachs ist ähnlich wie bisher". Die Leute werden das schlucken, würde ich alles drauf verwetten was ich besitze :)

Leonidas
2024-03-01, 15:54:25
GB203 hat nicht wirklich das Pozential, besonders schneller als 4090 zu sein. Kann sogar sein, dass GB203 ganz schon rudern muß, um überhaupt schneller als 4090 zu sein. Darauf basierend wird NV kaum eine 5090 bauen (auf GB203-Basis), der Sprung wäre zu gering.

GerryB
2024-03-01, 16:09:24
Vermutlich wird auch RDNA4 mit zu wenig IF-Cache daherkommen. ...
Manchmal ist nicht die Quantität entscheidend sondern das Wie.
https://chipsandcheese.com/2024/01/28/examining-amds-rdna-4-changes-in-llvm/

Am Ende muss es reichen, um den höheren Shadertakt >3GHz mit Infos zu versorgen, ohne das die Pipeline
zu oft neu befüllt werden muss.
Sollte zusätzlich weniger Frontendtakt reichen, ... kann man die W auch in mehr Shadertakt stecken.

Der_Korken
2024-03-01, 16:19:50
Richtig, der Preis wird 19XX sein, aber für eine 5090 mit dem GB203er Chip :D
Ich denke nicht, dass es so kommt wie Du schreibst. NV hat es schon mit der 4090 angedeutet, die Leute haben nicht gezuckt, ganz im Gegenteil geht das Teil wie warme Semmeln. Nun kommt der zweite Schritt.
Wenn man die Menschen melken kann, ist Huang schon da um die Leute zu melken Das ist so sicher wie das Amen in der Kirche. Die Leute haben nicht geschrien, als die Preise derart hoch gingen. Die Leute haben nicht geschrien, als sie den 4090 Preis für eine 4080 bezahlen mussten, stand ja immerhin 4090 auf dem Karton. Und nun werden die Leute auch nicht schreiben, wenn sie den Chip der 5070Ti als 5090 vorgesetzt bekommen.
Huang weiß das und er wird es auch genau so tun.

€: Ich könnte mir sogar vorstellen, dass die 4090 aus genau diesem Grund nicht ausgefahren wurde. Gäbe es eine richtige 4090, wäre der Abstand zur 5090 mit 5070Ti Chip, zu klein. So kann Huang argumentieren "Ist zwar kleinerer Chip aber Leistungs Zuwachs ist ähnlich wie bisher". Die Leute werden das schlucken, würde ich alles drauf verwetten was ich besitze :)

+1

Edit:

GB203 hat nicht wirklich das Pozential, besonders schneller als 4090 zu sein. Kann sogar sein, dass GB203 ganz schon rudern muß, um überhaupt schneller als 4090 zu sein. Darauf basierend wird NV kaum eine 5090 bauen (auf GB203-Basis), der Sprung wäre zu gering.

Die 4090 hat gemessen an ihrer Shaderzahl gegenüber der 4080 oft Auslastungsprobleme. Da ist auch mit einem nominell kleineren Chip sicherlich einiges rauszuholen, zumindest für Gaming.

Exxtreme
2024-03-01, 16:46:36
€: Ich könnte mir sogar vorstellen, dass die 4090 aus genau diesem Grund nicht ausgefahren wurde. Gäbe es eine richtige 4090, wäre der Abstand zur 5090 mit 5070Ti Chip, zu klein. So kann Huang argumentieren "Ist zwar kleinerer Chip aber Leistungs Zuwachs ist ähnlich wie bisher". Die Leute werden das schlucken, würde ich alles drauf verwetten was ich besitze :)

Eine richtige RTX 4090 wäre vielleicht 9% schneller oder so. Also jetzt nichts was das Kraut irgendwie fett macht.

MiamiNice
2024-03-01, 16:50:27
GB203 hat nicht wirklich das Pozential, besonders schneller als 4090 zu sein. Kann sogar sein, dass GB203 ganz schon rudern muß, um überhaupt schneller als 4090 zu sein. Darauf basierend wird NV kaum eine 5090 bauen (auf GB203-Basis), der Sprung wäre zu gering.

Zusätzlich zu dem Argument von Korken, sollen nicht die Taktraten massiv ansteigen?

Eine richtige RTX 4090 wäre vielleicht 9% schneller oder so. Also jetzt nichts was das Kraut irgendwie fett macht.

Da war öfter von diesem 600 - 800 Watt Ada Boliden die Rede, aka Ada Titan. Das wäre imo eigentlich die 4090 gewesen, von den Specs her. Kann mir nicht vorstellen, dass rund 200 Watt mehr in nur 9% Leistung resultieren.
Ich vermute eher, die Karte wurde gestrichen aus 2 Gründen. 1. Man springt nur so hoch wie man muss 2. Wenn ich vorhabe eine 5090 auf GB203 zu bringen, muss der direkte Vorgänger kastriert werden.
Das wäre quasi 3 Fliegen mit einer Klappe. Weil mit GB203 als größten Chip, steigt die Marge noch weiter an.

€: 4 Fliegen, weil man kann eine neue Preisklasse mit GB202 etablieren bzw. wiederbeleben. Und die Kundschaft dafür steht auch schon Schlange -> so genannte Content Creators und natürlich Enthusiasten.

Je mehr ich darüber nachdenke, desto schlüssiger wird es für mich.

Gast
2024-03-01, 17:01:39
Na dann kann ma getrost auf rdna4 und die geforce 5xxx Serie verzichten.

maximus_hertus
2024-03-01, 17:23:12
Richtig, der Preis wird 19XX sein, aber für eine 5090 mit dem GB203er Chip :D

Angenommen die Leaks stimmen, dann hat der volle GB203 gerade mal 108 SM / 256 Bit.

Die 4090 bietet 128 SM bei einem 384er Interface.


Ergo müsste die 5090 dann mit 16 oder 32GB kommen. 16 als Flaggschiff? Nope, sehe ich nicht. 32GB? Das sind dann wieder sinnlose Kosten für nV.

Eine GB203 Karte müsste die 18,5% Rückstand bei den SM erstmal mit IPC und Takt egalisieren. Und dann noch on Top was drauflegen. Eine 5090 die nur 10-20% schnelelr als die 4090 wäre würde wohl nicht sehr populär sein, allen Unkenrufen zum Trotz.


By the way, die Vanilla 80er KArte hatte meistens den x04er Chip (wegen deinem "zur 5090 mit 5070Ti Chip"):

Kepler - GTX680 - GK104
Maxwell - GTX980 - GM204
Pascal - GTX 1080 - GP104
Turing - RTX 2080 - TU104
Ampere - RTX 3080 - GA102 ----> die eine Ausnahme
Lovelace - RTX 4080 - AD103
Blackwell - RTX 5080 - GB20x?

AD103 ist eigentlich ein 104er (in Relation zu den bisherigen 102 zu 104 Chips). nVidia hat umgekehrt die 04er Chips und die da drunter "kleiner" gemacht.


Ich bleibe dabei, eine 5090 ist eine Marketing Karte, da wird nV sicher den 2er Chip drauf machen. Wieder mit 24GB.


Die RTX 5080 bekommt dann den (abgespeckten?) GB203 mit 16GB. Nicht ganz 4090 Speed (wird aber von nV dann als gleich schnell vermarktet) zum 4080 Preis (also der ursprüngliche 4080 Preis).


Ergo 5080 = grob gleicher Speed wie die 4090, weniger VRAM (16 statt 24), bessere Energieeffizienz und neuere Features. Dazu deutlich günstiger als die 4090. Fertig ist eine Karte, die sicher ihre Käufer finden würde (bei 1000-1200 USD).

basix
2024-03-01, 17:27:49
@MiamiNice:
Eine Kategorie überhalb 1500...2000 Euro GPUs? Egal welchen Stoff du nimmst, ich will auch davon ;)

Spass beiseite: Der Markt für sowas wäre extrem klein. Bei Consumern. Dort gibt es ja bei den heutigen Preisen ziemlich starke Abwehrhaltung. RDNA3 verkauft sich aus diesem Grund ziemlich gut. Nvidia ist es momentan nur ziemlich egal. Weil sie im Datencenter absahnen wie blöd. Wenn GB203 wirklich +70% obendrauf legt wäre das doch gut. Aber ich bezweifle, dass es einen relevanten Markt für 3000-4000 Euro GPUs gibt. Professionelles Umfeld und AI sind ein anderes Thema. Genau das ist aus meiner Sicht der einzige Grund, wieso man GB202 initial bei Consumer vorenthalten könnte. Man bringt die Chips für mehr Geld bei den ML/AI Kunden unter. Doch bei Gamern wird das auf keine Gegenliebe stossen. Ein <400mm2 Chip - ob N3 oder nicht - für 1500 Euro ist ziemlich, ziemlich ambitioniert. Selbst für Nvidia.

Ergo müsste die 5090 dann mit 16 oder 32GB kommen. 16 als Flaggschiff? Nope, sehe ich nicht. 32GB? Das sind dann wieder sinnlose Kosten für nV.

24 Gbit GDDR7 for the Rescue ;) Wären 24 GByte bei 256bit.
Eine GB203 Karte müsste die 18,5% Rückstand bei den SM erstmal mit IPC und Takt egalisieren. Und dann noch on Top was drauflegen. Eine 5090 die nur 10-20% schnelelr als die 4090 wäre würde wohl nicht sehr populär sein, allen Unkenrufen zum Trotz.

Gab schon Gerüchte zu 2x FP32 pro SM. Dann wären +70% Performance bei 84% SM ziemlich realistisch. Und die 4090 skaliert relativ schlecht mit mehr SMs. Unmöglich ist es nicht. Und irgendwie wäre es geil, weil dann GB202 ein Leistungsmonster wäre :D

maximus_hertus
2024-03-01, 17:35:40
Da war öfter von diesem 600 - 800 Watt Ada Boliden die Rede, aka Ada Titan. Das wäre imo eigentlich die 4090 gewesen, von den Specs her. Kann mir nicht vorstellen, dass rund 200 Watt mehr in nur 9% Leistung resultieren.


https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_rtx_4090_vs_rtx_3090_ti_bei_450_350__300_watt

Bei der 4090 ging es von 350 auf 450W TDP (immerhin +29%) um ganze 3% bei der Performance rauf. Und noch mehr Watt bringen immer weniger. Weitere rund 30% TDP (dann wäre man nicht weit von den 600W) würden sicher kaum mehr als die 3% bringen, eher weniger.

JEdoch: Wenn man den vollen Chip nutzen würde (144 SM) könnte es etwas besser aussehen, aber auch hier würde ich nicht damit rechnen, dass dieser jenseits der 400W besonders skalieren würde.

nVidia wird sicherlich mehr als genug 202er Chips produzieren, die sie dann auch los werden wollen. Und bei 4000 Euro wären dann doch mehr als nur ein paar wenige raus. nV ist gierig, aber nicht dumm.

Eine fette Marge bringt dann am meisten, wenn man auch eine große Stückzahl mit dieser Marge los wird.

Wir werden es in gut 6-9 Monaten dann wohl sehen, was nVidia machen wird.

maximus_hertus
2024-03-01, 17:40:28
Professionelles Umfeld und AI sind ein anderes Thema. Genau das ist aus meiner Sicht der einzige Grund, wieso man GB202 initial bei Consumer vorenthalten könnte. Man bringt die Chips für mehr Geld bei den ML/AI Kunden unter.

Bisher sind aber nciht die Chips was die Lieferung für KI / Business limitiert, ergo sehe ich auch nicht, warum sich das in ein paar Monatengroß ändern sollte.

Dazu ist die 90er Karte die Visitenkarte von nV. Fette Marge, aber auch ein fetter Chip. Das war schon immer so.

Ansonsten will ich +70% Gen zu Gen erstmal sehen. nV ist nicht bekannt (gerade in den letzten gut 6 Jahren) besonders große Sprünge zu machen (4090 war die eine Ausnahme). Es hat sich eher im Bereich 40-55% eingependelt (Chip zu Chip, also z.B. 104 zu 104). Ich gehe erstmal davon aus, dass sich daran nicht viel ändern wird.

Zossel
2024-03-01, 17:51:25
Kann mir nicht vorstellen, dass rund 200 Watt mehr in nur 9% Leistung resultieren.

Alles ist relativ.

GerryB
2024-03-01, 18:48:02
Na dann kann ma getrost auf rdna4 und ... verzichten.
???

Leute ohne aktuelle GPU werden sich Das schon anschauen.
vllt. gibts ja bei P/L nen guten Move durch den Wettbewerb AMD vs. Intel

VfBFan
2024-03-01, 19:25:17
Der Tellerrand ist bei manchen eben doch höher als gedacht. :-)

Ich als Besitzer einer RX 5700 bin sehr gespannt auf RDNA4.
Gleiche TDP bei doppelter Leistung, 16GB VRAM und nicht zu teuer. Gekauft!

Lehdro
2024-03-03, 00:07:19
Genau, RDNA4 hat immerhin von der reinen Positionierung das Potenzial, interessant für breite Teile der Käuferschaft zu sein. Ob AMD das anpeilt und NV das zulässt, wird sich zeigen.

Tigerfox
2024-03-03, 13:11:36
Angenommen die Leaks stimmen, dann hat der volle GB203 gerade mal 108 SM / 256 Bit.

Die 4090 bietet 128 SM bei einem 384er Interface.
Da vergleichst Du dann aber auch wieder den GB203-Vollausbau mit einem AD102-Salvage von 89%. Wann hat NV zuletzt von Anfang an einen Vollausbau als xx80 gebracht? Bei Pascal! Ich würde dann eher von 96-100SM ausgehen - falls es wirklich 108SM werden und nicht nur 96SM/8GPC oder eine völlig andere Aufteilung.


Ergo müsste die 5090 dann mit 16 oder 32GB kommen. 16 als Flaggschiff? Nope, sehe ich nicht. 32GB? Das sind dann wieder sinnlose Kosten für nV.
Niemals nicht auf gar keinen Fall. 32GB wären nur mit 256Bit oder 512Bit-SI möglich. Eine xx90 mit weniger als 384Bit wird nicht akzeptiert, 512Bit sind ohne jedwede Konkurrenz völlig unnötig viel und extrem aufwändig und teuer.
Es werden entweder wieder 24GB, oder 48GB oder mit ganz kleiner Chance, wenn es tatsächlich endlich mal 24Gbit-ICs geben sollte, 36GB.


Die RTX 5080 bekommt dann den (abgespeckten?) GB203 mit 16GB. Nicht ganz 4090 Speed (wird aber von nV dann als gleich schnell vermarktet) zum 4080 Preis (also der ursprüngliche 4080 Preis).


Ergo 5080 = grob gleicher Speed wie die 4090, weniger VRAM (16 statt 24), bessere Energieeffizienz und neuere Features. Dazu deutlich günstiger als die 4090. Fertig ist eine Karte, die sicher ihre Käufer finden würde (bei 1000-1200 USD). Über so eine Karte würde ich tatsächlich nachdenken, kommt aber auf die 5070(Ti) an. Jetzt würde ich z.B. den Aufpreis von der 4070Ti Super zur 4080S nicht einsehen.

@MiamiNice:
24 Gbit GDDR7 for the Rescue ;) Wären 24 GByte bei 256bit.
Ich hoffe, dass die das endlich mal in die Realität umsetzen. Es wäre die einzige Möglichkeit, aktuell ohne doppelte Anzahl der ICs bzw. deutlich breitere SIs mehr VRAM zu verbauen. Ich sehe ein, dass 24GB auf einer 5060Ti/70 und 32GB auf einer 5080 vielleicht etwas Overkill wären und ich glaube nicht, dass NV die Breite der SIs wieder wie bei Ampere vergrößert (also 5080 mit 320/384Bit usw.).

Gab schon Gerüchte zu 2x FP32 pro SM. Dann wären +70% Performance bei 84% SM ziemlich realistisch. Und die 4090 skaliert relativ schlecht mit mehr SMs. Unmöglich ist es nicht. Und irgendwie wäre es geil, weil dann GB202 ein Leistungsmonster wäre :D
Optimierungen an der Architektur fände ich besser als einfach nur mehr SM und mehr Takt, auch wenn sie in der Praxis selten so viel bringen wie NV uns weiss macht. Aber Ampere hatte ziemlich zuverlässig 20-25% mehr Leistung bei gleichem Takt und gleicher Shaderanzahl ggü. Turing.

N48 = A little slower than RX 7900 XT

Das klingt doch schon ganz realistisch.
(das XTX-Geschwafel von MLID konnte niemals stimmen)

Das tut es, damit is AMD für mich aber endgültig für die kommende Generation raus. So wenig ich NV auch mag, für mich wäre jetzt schon eine 7800XT das absolute Minimum für eine Neuanschaffung (komme von RTX 2070), eher eine 7900XT und auch da tu ich mich mit der RT-Leistung schwer. In der nächsten Generation zöge ich nur eine Karte mit RT-Leistung auf 4070TiS, eher 4080S-Niveau in Betracht und da wir AMD nicht hinkommen - leider. Wir nähern und wieder einem Quasi-Monopol im Highend-Bereich.