PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 27. Mai 2022


Leonidas
2022-05-28, 09:57:28
Link zur News:
https://www.3dcenter.org/news/news-des-27-mai-2022

GerryB
2022-05-28, 11:33:01
realistisch= ???

wenn man W/SM hernimmt liegt Bilibili gefühlt besser, oder man würde bei der 4090 real auf 600W gehen, ... why not = NT-Standard für den 12pin

Gast
2022-05-28, 11:35:36
NVidia selbst kündigt halbwegs für die 4080 einen Referenz Kühler so gross wie den der 3090 an und sie verbraucht nur 350w. Klar. Die 600w der 4090 sind so gut wie bestätigt. Schwachsinn der Chinamänner mal wieder.

Die 4090 wurde von NVidia noch nirgends erwähnt, eher eine 4080 w.o.a. angedeutet die wohl als Erstes kommt und genausoviel verbraucht wie eine 3090/3090ti und diese verpulvert bekanntlich über 450w. Wenn die 4080 tatsächlich auf dem AD103 setzt ist das Brechstange pur von NVidia.

Warum durch bestimmte Medien der exorbitante Verbrauch der nächsten Gen jetzt schon wieder verschönt wird, muss man mal erklären. NVidia Marketing in den Foren mal wieder am werkeln.

Platos
2022-05-28, 11:36:38
Bezüglich den Rinnahmen von AMD und nvidia: Ist ja 1A klar, dass das alles hauptsächlich vom Mining kommt.

Gast
2022-05-28, 12:43:30
Superdämlich skalierte Grafiken.
So groß ist der Markt nicht, dass intel die gleiche prozentuale Steigerung hinlegen könnte. Also außer mit Zukäufen wie grad AMD (und gefailt Nvidia).
Wieso machst du so einen Bullshit mit?

Gastxyz
2022-05-28, 12:50:12
NVidia selbst kündigt halbwegs für die 4080 einen Referenz Kühler so gross wie den der 3090 an und sie verbraucht nur 350w.
Kann ich mir auch nicht vorstellen. Nvidia ist eher dafür bekannt, unterdimensioniert herauszukommen weil man da per Stückzahl sparen kann. Nur den Aufwand betreiben den man muss. Alles andere drückt die Marge.

Marketing in den Foren mal wieder am werkeln.
Logisch, weil die Abneigung gegen Karten mit mehr als 300w riesengroß ist (verständlicher Weise für den Großteil), da bekommt Nvidia doch jetzt schon massiven Gegenwind aus den Foren wenn man deren Umfragen Glauben schenkt. Wenn die 4080 wirklich soviel verbraucht dann werden die sich wahrscheinlich umgucken, der Großteil will so einen Schinken nicht im PC und die x080 war ein Rennpferd, wenn es um den Absatz in Stückzahlen geht.

Da will man jede Kritik sogleich im Keim ersticken, NDA inklusive. Dafür ist Nvidia ja auch bekannt.

madshi
2022-05-28, 13:29:09
NVidia selbst kündigt halbwegs für die 4080 einen Referenz Kühler so gross wie den der 3090 an und sie verbraucht nur 350w. Klar. Die 600w der 4090 sind so gut wie bestätigt. Schwachsinn der Chinamänner mal wieder.
Die 3090 hat eine TDP von 350 Watt, die 3090 Ti 450 Watt. Wenn also die 4080 den gleichen Kühler wie die 3090 kriegt, dann würden 350 Watt absolut Sinn machen. Gerüchte sagen allerdings, daß der Kühler der 4080 ein ganz klein bißchen größer als der der 3090 sein soll. Als könnte man daraus schließen, daß die 4080 möglicherweise ein bißchen mehr als die 3090 verbraucht, also klingen die von 3DCenter vermuteten 400 Watt für mich recht realistisch.

Der endgültige Stromverbrauch der 4080 wird sicherlich davon abhängen, wie hoch Nvidia den AD103 prügeln muß, damit der mit AMD konkurrieren kann. Da ist jeder Verbrauch von 320 Watt bis 450 Watt im Grunde denkbar. Ich würde da ähnlich wie 3DCenter auf 400 Watt tippen, oder vielleicht einen Hauch weniger. Es sei denn, RDNA3 ist in dem Marktsegment sehr stark, dann muß Nvidia vielleicht den AD103 sehr hoch prügeln, dann könnten es sogar über 400 Watt werden.

Für die 4090 sind 600 Watt alles andere als bestätigt. Da bist Du auf einem etwas veralteten Gerüchte-Stand. Tatsächlich sagen die aktuellen Gerüchte 450 Watt für die 4090. Wobei das aber eine deutliche Abspeckung des AD102 Chips ist. Der (nahe) Vollausbau des AD102 Chips wird dann wahrscheinlich die 600 Watt verbrauchen. Das wird dann höchstwahrscheinlich die 4090 Ti werden.

Die 4090 wurde von NVidia noch nirgends erwähnt, eher eine 4080 w.o.a. angedeutet die wohl als Erstes kommt und genausoviel verbraucht wie eine 3090/3090ti und diese verpulvert bekanntlich über 450w.
Du kannst 3090 und 3090 Ti nicht gleich setzen. Die 3090 hat eine TDP von 350 Watt, die 3090 Ti 450 Watt. Das ist ein ziemlich großer Unterschied. Nvidia selbst hat noch gar nix (handfestes) zum Thema Ada Lovelace gesagt, weder zur 4080 noch zur 4090.

Warum durch bestimmte Medien der exorbitante Verbrauch der nächsten Gen jetzt schon wieder verschönt wird, muss man mal erklären. NVidia Marketing in den Foren mal wieder am werkeln.
Ob die aktuellen Gerüchte stimmen müssen wir natürlich erstmal abwarten. Aber die Leaker, die in der Vergangenheit am zuverlässigsten waren, gehen derzeit von 450 Watt für die 4090 (non-TI !!) aus.

Vor ein paar Wochen war der Gerüchte-Stand 600W, 400W, 300W für 4090, 4080, 4070. Aber inzwischen ist der Stand 600W, 450W für 4090 Ti, 4090. Für die 4080 und 4070 haben wir meines Wissens noch kein Update bekommen. Also ob da die 400W, 300W noch aktuell sind, können wir derzeit nur raten...

Gastein
2022-05-28, 13:42:04
Da ist wohl gerade ein Sack Reis....
... die News wirken wie ein vorgezogenes Sommerloch ...

GerryB
2022-05-28, 14:04:51
4080 = 400W
4090 = 450W

würde erstmal bedeuten, das die 4090 sehr runtergetaktet läuft
möchte gar net wissen, was alleine 384bit mehr kosten

WedgeAntilles
2022-05-28, 14:48:28
NVidia selbst kündigt halbwegs für die 4080 einen Referenz Kühler so gross wie den der 3090 an und sie verbraucht nur 350w. Klar. Die 600w der 4090 sind so gut wie bestätigt. Schwachsinn der Chinamänner mal wieder.


Ist das jetzt Satire? :confused:
Du sagst, eine 4080 könnte nicht 350W brauchen, da sie einen ähnlichen Kühler wie die 3090 bekommt.
Nur: Die 3090 HAT 350W?

Kommst du dir nicht selber ein ganz kleines bisschen doof vor, wenn du so einen Quatsch ständig postest?

ChaosTM
2022-05-28, 14:50:32
Ich hoffe immer noch, dass die 70er mit deutlich weniger Saft auskommt.

Leonidas
2022-05-28, 14:56:27
Ich hoffe immer noch, dass die 70er mit deutlich weniger Saft auskommt.

Deswegen gebe ich sie derzeit gern mit "~300W" an. Ich denke, wenn die 4090 wirklich bei 450W steht, dann wird es real eher so aussehen:
450W - 4090 (mittelhoher Takt)
370W - 4080 (hoher Takt)
270W - 4070 (hoher Takt)

Gast
2022-05-28, 15:21:47
Hm ist GDDR6X für AD103 wirklich so unrealistisch? Würde eigentlich perfekt passen.

Auch erscheint mir der Ausbau der kleineren Chips für die erste Generation viel zu nah am Vollausbaus. Ich denke Nvidia wird sich hier deutlich mehr reserven lassen, und sei es nur für eine Refresh-Generation die sich etwas besser absetzen kann.

Leonidas
2022-05-28, 15:31:02
Für AD103 bezweifelt es keiner. Für AD104 hat es Kopite 2x verneint - es soll GDDR6 ohne X werden.

iamthebear
2022-05-28, 16:07:30
Ich habe einmal eine kleine Prognoserechnung/schätzung basierend auf dem aktuellen Ampere Lineup angestellt.

https://i.imgur.com/20MiDKJ.png

1.) Zuerst einmal eine Schätzung abgegeben was beim aktuellen Lineup wieviel verbraucht und habe das Ganze mit den bekannten TDP Werten auf Plausibilität geprüft. Das Ergebnis sollte sich in etwa so zusammensetzen:

Verbrauch der Shader: 3.5W/SM bei mittlerem Takt (3070 und 3080 als Referenz). Je nach Karte gibt es einen Pushfaktor von -20% bis +30%

Verbrauch des VRAM: Meine Schätzung war hier 0.2W/Bit bei GDDR6X bzw. 0.15W bei GDDR6

Bei der 3090 kommen noch einmal 20W für die zusätzlichen Speicherchips auf der Rückseite hinzu

IO Die (bzw. nicht skalierender Verbrauch): 20W

Sämtliche Verluste an Spannungswandlern etc. steigen linear mit dem Grundverbrauch und werden dem Verursacher angerechnet.

Ich komme hierbei auf folgende Pushfaktoren:
3060 Ti/3070/3080: 0% (das ist die Referenz)
3080 Ti: -10% (relativ eindeutig da 20% mehr Shader/SI aber nur 10% mehr TDP)
3090: -20% (die zusätzlichen -10% sind großteils den zusätzlichen Speicherchips geschuldet
3070 Ti + 3090 Ti: ca. 20-25% (hier hat Nvidia Vollgas gegeben)
3060/3050: Sind mit 25% bzw. 30% sehr hoch gepushed, was jedoch bei der geringen Shaderanzahl der absoluten Verlustleistung nicht besonders auffällt (ähnlich wie bei der 6500 XT)

2.) Nun habe versucht dieselben Werte auf das Lovelace Lineup zu übertragen. Hierbei gelten folgende Annahmen:

.) Die 4090 hat einen Pushfaktor von -10% (ähnlich der 3080 Ti) da das Problem mit den Speicherchips auf der Rückseite ja gelöst ist
.) Die 0,2W/Bit GDDR6X bleiben bestehen. Eventuelle Einsparungen beim SI durch den 4N Shrink werden wieder in höhere Taktraten investiert
.) IO Die Verbrauch bzw. nicht skalierender Teil sinkt von 20W auf 15W (grobe Schätzung sollte aber nicht wirklich ins Gewicht fallen)
.) Ich bin davon ausgegangen, dass jeweils 2 SMs verglichen mit dem Full Die fehlen

Ich komme nun auf einen Verbrauch von 3,2W/SM statt 3,5W/SM also ca. 10% weniger. Das hört sich nicht viel an aber man muss auch berücksichtigen, dass der Takt ca. 30-40% höher ist und die Shader ja deutlich aufgebohrt wurden (theoretisch auch +36%)

Schlussendlich komme ich auf folgende Werte:
4090 Ti: 637W (bei 20% Pushfaktor)
4090: 455W (bei -10% Pushfaktor)
4080 (Top AD103): 329W (bei 0% Pushfaktor)
4070 (Top AD104): 239W (bei 0% Pushfaktor)
4060 (Top AD106): 177W (bei 25% Pushfaktor)
4050 (Top AD107): 132W (bei 30% Pushfaktor)

Ich halte 400W bei AD103 für unrealistisch zumindest beim Referenzmodell. Das bringt relativ geringen Mehrwert, schränkt jedoch die potentiellen Käuferkreis extrem ein, da ein Großteil der Gehäuse keine 400W abführen kann.

Bei AD104 kann ich mir vorstellen, dass Nvidia wieder etwas mehr pushed.

AD106 und AD107 sind so klein, dass eigentlich nicht mehr viel TDP zusammen kommen kann und falls das mit den aufgebohrten Shadern (+36%) so stimmt und funktioniert sollte eine 4060 dann trotzdem knapp auf die Performance einer 3080 kommen.

Leonidas
2022-05-28, 16:26:57
Zeigt in jedem Fall darauf hin, dass AD104 mit 300W wahrscheinlich zu hoch angesetzt ist. Und nimmt man AD104 etwas herunter, dann ergeben sich auch schnell für AD103 sinnvolle Werte.

ChaosTM
2022-05-28, 16:40:19
Ich glaub auch, dass das ganze 600Watt+ Zeugs nur BS ist/war. NV sollte immer noch genug Reserven habe, um nicht auf solche Blödheiten zurückgreifen zu müssen. Speziell nach dem shrink, sowohl was Die-size und Produktion betrifft.

Gast
2022-05-28, 17:12:01
leo das sind doch feuchte träume von dir und ja du liegst komplett daneben.

mal überlegen: gpu power versus tpg?

450w und 600w. das die bis 600w stimmen dürfte allein schon mit pcie 5.0 daherkommen. wenn das alles bullshit sein soll, sollte man kopeti nichts mehr glauben. das stammt von dem. warum schreibst du dann was dir in kram passt, wenn du seine infos kommentierst?

der kühler der im netz umhergeistert ist größer als der der 3090, hat zusätzliche belüftungsschlitze, größere lüfter und nur bis 10 plätze für vram. das kann kaum der, der 4090 sein wenn amd bei 384bit mit 24 oder 48gb kommt. es ist ganz klar der kühler der 4080 der 16 oder 20gb zulässt. warum nvidia da so ein riesen ding raufschnallen soll wenn die karte nur 350w tpg hat müsstest du mal erklären. das ist doch völliger nonsens. 230 oder 240w gpu power? damit willst 2,3x schneller sein, lol! nimm weniger davon, was auch immer. ada für gamer ist ein geshrinkter, aufgeblasener ampere. das teil schluckt das es kein morgen mehr gibt. dagegen sieht vega human aus. luftpumpe...für miner.

madshi
2022-05-28, 17:21:20
Die Sache ist aber die: Bei AD102 hat Nvidia genug SMs um die Taktraten nicht so hoch prügeln zu müssen. Bei AD103 und AD104 ist die Anzahl der SMs aber deutlich weniger gewachsen. Von daher könnte es durchaus sein, daß Nvidia AD103 und AD104 ordentlich prügeln muß, um gegen RDNA3 zu bestehen. In dem Fall könnten AD103 und AD104 in Sachen Speed per Watt deutlich schlechter als AD102 heraus kommen. Ein "Pushfaktor" von 0% für AD103 und AD104 könnte da etwas zu optimistisch angesetzt sein.

iamthebear
2022-05-28, 21:02:59
Ich glaub auch, dass das ganze 600Watt+ Zeugs nur BS ist/war. NV sollte immer noch genug Reserven habe, um nicht auf solche Blödheiten zurückgreifen zu müssen. Speziell nach dem shrink, sowohl was Die-size und Produktion betrifft.

Also ich denke schon, dass die 600W real sind, eventuell sogar noch mehr aber das gilft dann eben nur für die 4090 Ti und vielleicht sogar auch nur für bestimmte AIB Modelle.

Einfach einmal bei Ampere vergleichen:
Die 3090 Ti AIB Modelle haben knapp 500W
3090 Ti FE 450W
Die reguläre 3090 hat schon nur mehr 350W
Und die 3070 non Ti (1.7x unter dem Full GA102) hat 220W also gerade einmal die Hälfte

Einfach 20% bei allen Werten oben drauf legen und die Bezeichnungen ersetzen:
3090 Ti=>4090 Ti, 3090=>4090 und 3070=>4080.


450w und 600w. das die bis 600w stimmen dürfte allein schon mit pcie 5.0 daherkommen. wenn das alles bullshit sein soll, sollte man kopeti nichts mehr glauben. das stammt von dem. warum schreibst du dann was dir in kram passt, wenn du seine infos kommentierst?

Nur weil es ganz oben an der Spitze ein 600W Modell gibt bedeutet das noch lange nicht, dass das gesamte Lineup so aussehen wird.

der kühler der im netz umhergeistert ist größer als der der 3090, hat zusätzliche belüftungsschlitze, größere lüfter und nur bis 10 plätze für vram. das kann kaum der, der 4090 sein wenn amd bei 384bit mit 24 oder 48gb kommt. es ist ganz klar der kühler der 4080 der 16 oder 20gb zulässt. warum nvidia da so ein riesen ding raufschnallen soll wenn die karte nur 350w tpg hat müsstest du mal erklären. das ist doch völliger nonsens.

Wenn er 10 Plätze hat, dann sieht das nach cut down AD102 aus. Möglicherweise die 4080 Ti mit 20GB/320Bit? Irgendetwas muss Nvidia ja auch mit den Dies machen, wo ein Teil des SI defekt ist. Die hat dann vermutlich um die 400W womit "etwas größer als die 3090" auch gut passen dürfte.

Die 4080 ist AD103. Das ist so etwas wie die 3070 bei Ampere.

230 oder 240w gpu power? damit willst 2,3x schneller sein, lol! nimm weniger davon, was auch immer. ada für gamer ist ein geshrinkter, aufgeblasener ampere. das teil schluckt das es kein morgen mehr gibt. dagegen sieht vega human aus. luftpumpe...für miner.

Die 2.3x bezogen sich immer auf AD102, nicht auf die 4080. Diese wird was reine gaming fps angeht um maximal 40-50% schneller als die 3090 sein.
Und nein Lovelace ist kein geshrinkter Ampere Chip. Das sieht man bereits an den Taktraten, die um die 2.6-2.8GHz liegen sollen. Der Plan des einfachen Shrink wurde verworfen. Lovelace ist nun großteils das, was man für Blackwell geplant hatte.

Die Sache ist aber die: Bei AD102 hat Nvidia genug SMs um die Taktraten nicht so hoch prügeln zu müssen. Bei AD103 und AD104 ist die Anzahl der SMs aber deutlich weniger gewachsen.

Navi31 wird vermutlich auf 3090 Niveau landen, eventuell leicht darüber.
Navi32 ist 1.5x darunter genauso wie eine 82SM 4080. Selbst wenn AMD 10% schneller sein sollte: Für 4K Native reicht es trotzdem allemal und in RT hat AMD sowieso immer noch keine Chance.
Navi33 ist ein halber Navi32 bzw. 1/3 Navi31. Das entspricht in etwa AD106. Also sollte man mit AD104 leichtes Spiel haben. Hier tritt man gegen einen Cut down Navi32 an, den AMD sowieso nicht verkaufen will (siehe 6800 non XT).
Bei AD106 und 107 kann man dann schon gefahrlos mit dem Takt hochfahren.

Von daher könnte es durchaus sein, daß Nvidia AD103 und AD104 ordentlich prügeln muß, um gegen RDNA3 zu bestehen. In dem Fall könnten AD103 und AD104 in Sachen Speed per Watt deutlich schlechter als AD102 heraus kommen. Ein "Pushfaktor" von 0% für AD103 und AD104 könnte da etwas zu optimistisch angesetzt sein.

Also ich halte das für eher unwahrscheinlich:
Bei AD106 und 107 schadet es nicht mehr zu pushen weil die absolute Leistungsaufnahme immer noch relativ gering bleibt.

Ab 250W aufwärts wird mehr Leistunsgaufnahme jedoch zunehmend zu einem Kostenfaktor. Man kann z.B. bei einer 500$ Karte nicht auf 350W gehen. Ansonsten wird der Kühler, und Boarddesign zu teuer. Das hat Nvidia nur bei der 3070 Ti gemacht, da man einen Vorwand gebraucht hat um Reste zu verwerten und gleichzeitig den Preis zu erhöhen.
Bei der 4080 muss man schauen, dass die Karten massentauglich bleiben und nicht jedes zweite Durchschnittsgehäuse in einen Backofen verwandeln.

Gast
2022-05-28, 21:34:10
Also ich denke schon, dass die 600W real sind, eventuell sogar noch mehr aber das gilft dann eben nur für die 4090 Ti und vielleicht sogar auch nur für bestimmte AIB Modelle.

Nur weil es ganz oben an der Spitze ein 600W Modell gibt bedeutet das noch lange nicht, dass das gesamte Lineup so aussehen wird.
Es gibt auch innerhalb der PCIe 5 Spezifikationen noch Einschränkungen (siehe 4PIN Netzteil -->GPU [375 vs 450w]), dass ändert nichts daran das man anstrebt das volle Buget auch auszunutzen. Alles andere wäre Schwachsinn und rausgeschmissenes Geld. Aber weils mal wieder um Nvidia geht, ist es nicht wahr.

madshi
2022-05-28, 23:15:15
Navi31 wird vermutlich auf 3090 Niveau landen, eventuell leicht darüber.
Navi32 ist 1.5x darunter genauso wie eine 82SM 4080.
Vor nicht allzu langer Zeit sagten die Gerüchte mal, daß Navi31 den AD102 selbst im Vollausbau abhängen würde. Inzwischen hört es sich eher so an, als würde AD102 im Vollausbau Navi31 schlagen können. Aber da bin ich noch nicht so überzeugt von, vielleicht kommen Navi31 und AD102 (jeweils im Vollausbau) ungefähr gleich raus?

Navi32 ist 1.5x unter Navi31. Wenn AD102 und Navi31 gleichwertig sind, dann müßte die 4080 96 SMs haben, um mit Navi32 zu konkurrieren. Die hat der AD103 aber nicht. Also muß Nvidia unter Umständen den AD103 auf Teufel komm raus auf hohe Taktraten prügeln? Ich hoffe nicht, aber ich befürchte es...

Ab 250W aufwärts wird mehr Leistunsgaufnahme jedoch zunehmend zu einem Kostenfaktor. Man kann z.B. bei einer 500$ Karte nicht auf 350W gehen. Ansonsten wird der Kühler, und Boarddesign zu teuer.
Ich hoffe, Du hast Recht.

Gast
2022-05-29, 00:50:53
Neben den absurden Verbrauchszahlen (und den warscheinliche utopischen Preisen) sört mich noch der Speicherausbau.

Wenn es kommt, wie ich befürchte, dann wird die 4060 bei über 500,- anfangen. Die 4070 bei 650,- bis 700,- liegen - minimum (UVP, markt weit drüber). Da sind 8 bzw 12 GB LÄCHERLICH! Egal, wie schnell der RAM ist.

- zu hoher Verbrauch
- zu hoher Preis
- zu geringer Speicherausbau
== 100% uninteresant

Es geht dabei nicht um die aktuellen Spiele sonder um das was kommt. Mit über 50 und angesichts, dass meine alte GPU fast 10 Jahre auf dem Buckel hat wird die nächste möglicher weise die letzte sein.

Und angesichts dessen sind die 40x0 so es derzeit wohl ausschaut schlicht absolut untauglich.

Platos
2022-05-29, 01:45:57
Befürchtet vom wem? Wer prognostiziert denn 500 Dollar bei ner 4060?

iamthebear
2022-05-29, 02:39:54
Es gibt auch innerhalb der PCIe 5 Spezifikationen noch Einschränkungen (siehe 4PIN Netzteil -->GPU [375 vs 450w]), dass ändert nichts daran das man anstrebt das volle Buget auch auszunutzen. Alles andere wäre Schwachsinn und rausgeschmissenes Geld. Aber weils mal wieder um Nvidia geht, ist es nicht wahr.

Nachdem es noch keine PCIe 5.0 Netzteile gibt werden die GPUs sowieso alle mit den beiligenden Adapternangeschlossen.
Die Idee, dass Nvidia sein Lineup ändert nur weil da ein Stecker ein paar Watt mehr oder weniger hat ist realitätsfern. Wenn ein Stecker nicht ausreicht dann setzt man eben einen 2. dazu. Aber man will halt keine 4 Stromstecker auf der Platine habe.

Vor nicht allzu langer Zeit sagten die Gerüchte mal, daß Navi31 den AD102 selbst im Vollausbau abhängen würde. Inzwischen hört es sich eher so an, als würde AD102 im Vollausbau Navi31 schlagen können. Aber da bin ich noch nicht so überzeugt von, vielleicht kommen Navi31 und AD102 (jeweils im Vollausbau) ungefähr gleich raus?

Damals ist man noch davon ausgegangen, dass die 2.2x die theoretische Performance ist und Lovelace lediglich ein geshrinkter Ampere mit Cache sein wird.
Nun zeichnen sich doch einige heftige Änderungen ab und die 2.2x dürften die Gaming fps gewesen sein.

Navi32 ist 1.5x unter Navi31. Wenn AD102 und Navi31 gleichwertig sind, dann müßte die 4080 96 SMs haben, um mit Navi32 zu konkurrieren. Die hat der AD103 aber nicht. Also muß Nvidia unter Umständen den AD103 auf Teufel komm raus auf hohe Taktraten prügeln? Ich hoffe nicht, aber ich befürchte es...

Ich denke nicht, dass Navi31 gleichwertig mit einem Full AD102 sein wird. Da muss entweder Nvidia etwas komplett verbockt haben oder AMD kann zaubern.
Was viele anscheinend vergessen: Nvidia shrinked um 2 Nodes, AMD nur um 1.

Neben den absurden Verbrauchszahlen (und den warscheinliche utopischen Preisen) sört mich noch der Speicherausbau.

Wenn es kommt, wie ich befürchte, dann wird die 4060 bei über 500,- anfangen. Die 4070 bei 650,- bis 700,- liegen - minimum (UVP, markt weit drüber). Da sind 8 bzw 12 GB LÄCHERLICH! Egal, wie schnell der RAM ist.

Tja da darfst du dich bei den VRAM Herstellern beschweren. Solange VRAM nicht billiger sondern teurer wird werden wir keine hohen Speicherbestückungen sehen. Ich bin ehrlich gesagt schon über die 16GB der 4080 überrascht.

Es geht dabei nicht um die aktuellen Spiele sonder um das was kommt. Mit über 50 und angesichts, dass meine alte GPU fast 10 Jahre auf dem Buckel hat wird die nächste möglicher weise die letzte sein.

Und angesichts dessen sind die 40x0 so es derzeit wohl ausschaut schlicht absolut untauglich.

Tja ich schätze einmal dann wirst du dich noch lange gedulden müssen, denn billiger wird so schnell nichts werden.

Ich vermute Listenpreise von 600$ für die 4070 und 800$ für die 4080. Dazu kommt dann noch der übliche Nvidia Straßenpreisaufschlag von um die 20% und 20% MWSt. also 800-900$ für die 4070 und 1200€ für die 4080 sehe ich als realistisch an.