PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 19. Oktober 2022


Leonidas
2022-10-20, 10:32:48
Link zur News:
https://www.3dcenter.org/news/news-des-19-oktober-2022

Blase
2022-10-20, 10:59:49
Gegenüber dder bisherigen Beta...

Da ist ein "d" zu viel :)

Zum Thema - ich bin gespannt, ob AMDs Flaggschiff es schafft, dass sich die 4090 Käufer noch (etwas) in den Hintern beißen werden. Auch wenn ich selbst betroffen wäre - ich würde das gar nicht mal so schlecht finden :tongue:

MfG Blase

madshi
2022-10-20, 11:14:37
Somit gilt als neue offizielle Intel-Prognose zur Spiele-Performance ein gemittelter Vorteil von +11% von Ryzen 9 7950X zum Core i9-13900K.
Andersrum.

Leonidas
2022-10-20, 11:14:55
Doppel-D gefixt.



Andersrum.

+11% von AMD zu Intel. Stimmt IMO.

madshi
2022-10-20, 11:22:22
Wenn Du sagst "Es gibt einen Vorteil von 11% von X zu Y", dann klingt es für mich so, als hätte X einen Vorteil gegenüber Y. Ich lese das als "von X gegenüber Y". Ok, Du meinst es andersrum, aber da ist meiner Meinung nach die Formulierung unklar.

Nicht wirklich wichtig, aber ich würd die Formulierung etwas ändern, um es eindeutiger zu machen. Z.B: als Vorschlag:

> Somit gilt als neue offizielle Intel-Prognose zur
> Spiele-Performance, dass Core i9-13900K gegenüber
> Ryzen 9 7950X einen gemittelten Vorteil von +11% hat.

Gast
2022-10-20, 11:39:09
Wenn Du sagst "Es gibt einen Vorteil von 11% von X zu Y", dann klingt es für mich so, als hätte X einen Vorteil gegenüber Y. Ich lese das als "von X gegenüber Y". Ok, Du meinst es andersrum, aber da ist meiner Meinung nach die Formulierung unklar.

Nicht wirklich wichtig, aber ich würd die Formulierung etwas ändern, um es eindeutiger zu machen. Z.B: als Vorschlag:

> Somit gilt als neue offizielle Intel-Prognose zur
> Spiele-Performance, dass Core i9-13900K gegenüber
> Ryzen 9 7950X einen gemittelten Vorteil von +11% hat.

Dem stimme ich zu! Ich dachte beim Lesen von Leonidas Text auch zunächst, dass AMD schneller wäre. Bis ich die Folien sah.

MiamiNice
2022-10-20, 11:47:25
+1
Musste es zwei mal lesen.

Gast
2022-10-20, 11:52:06
Dabei soll die TDP des Referenz-Designs von AMD "beeindruckend" sein – sicherlich im Sinne von "niedriger" (als bei nVidia) gemeint. Eine ganz besonders niedrige TDP muß man daraus aber auch nicht schlußfolgern, gegenüber nVidia wäre AMD schon mit "nur" 350 Watt deutlich besser, gegenüber den eigenen Vorgängern wäre selbst eine TDP von 300 Watt nicht schlecht (weil niedriger als bei der 6950XT und nicht höher als bei der 6900XT).

Nicht wirklich, seit bekannt ist dass die 4090 ihr Powerlimit großteileils recht deutlich nicht ausnützt.

Nach bisherigen Informationen geht es sich für AMD auch rechnerisch nicht aus beeindruckend zu sein.

Auf einer AMD-Eigenen Folie war zu lesen, dass die Effizienz mit RDNA3 um 50% zum Vorgänger zunimmt.

Der gezeigte Effizienzfortschritt von Ada ist allerdings bedeutend höher, und angesichts der Tatsache dass die Vorgängergenerationen sehr ähnlich waren gibt es als mögliche Lösungen nur:

- RDNA3 braucht weniger Strom ist aber auch deutlich langsamer.
- RDNA3 braucht vergleichbar viel Strom und ist immer noch langsamer.
- RDNA3 braucht deutlich mehr Strom und ist damit vergleichbar schnell oder schneller.

Gast
2022-10-20, 12:15:46
Dem stimme ich zu! Ich dachte beim Lesen von Leonidas Text auch zunächst, dass AMD schneller wäre. Bis ich die Folien sah.
Ging mir auch so, würde daher auch empfehlen, den Satz komplett anders zu formulieren, damit das klarer wird.
Bezüglich Navi31: Vielleicht teilen sich AMD und NVidia das Feld ja auch auf: NV in RT etwas schneller, AMD in Raster. Aber AMD muss definitiv näher an NV heran kommen bei RT, sonst ist das der Zielgruppe von N31 zu viel Abstand.
Bin aber eher auf N33 gespannt und was AMD drunter macht (vor allem auch preislich und was relabelt wird).

Leonidas
2022-10-20, 12:41:14
Wenn Du sagst "Es gibt einen Vorteil von 11% von X zu Y", dann klingt es für mich so, als hätte X einen Vorteil gegenüber Y. Ich lese das als "von X gegenüber Y". Ok, Du meinst es andersrum, aber da ist meiner Meinung nach die Formulierung unklar.

Eigentlich ist "von X nach Y" eindeutig. X ist damit Basiswert.



Ging mir auch so, würde daher auch empfehlen, den Satz komplett anders zu formulieren, damit das klarer wird.

... aber wenn es so viele Leute anzweifeln, wäre es sinnvoller, dies besser zu formulieren.

Gast Ritis
2022-10-20, 12:48:55
Wenn Intel schon in den gegimpten Benchmarks in Photoshop nur pari bietet und im Gaming nur 10%, dann sieht das nicht gut aus für deren neues Top-Produkt. Der 7950X hatte ja schon bis 10% zugelegt, wenn ein Chiplet deaktiviert war.

Die Katastrophenmeldung kommt aber zu CoD.
Nur 2GB VRAM Mindestanforderung!?!

Was soll da schon bei rauskommen mit den künftigen 24GB GPUs????
Herrje, wir haben seit wievielen Jahren nur 4 oder 8 GB im Einsteigersegment für dGPU und die orientieren sich an alten low budget Laptops.
Die ganze PC-Gaming Welt mit Hardware vs. AAA-Titel verkommt zur Kundenverarsche.

bad_sign
2022-10-20, 13:48:42
Ohje nicht zu viel erwarten und dann entäuscht werden, obwohl gutes Produkt (der Preis entscheidet eh am meisten)

Lehdro
2022-10-20, 14:01:49
Nicht wirklich, seit bekannt ist dass die 4090 ihr Powerlimit großteileils recht deutlich nicht ausnützt.
Dann kann ja NV mit der TDP nach unten gehen. Machen sie nicht? Dann wird das schon seinen Nutzen haben, nur halt nicht überall & immer. Da es durchaus Fälle aus der Praxis gibt wo das tatsächlich der Fall ist, ist ein Vergleich von TDP vs. TDP durchaus legitim - zumindest solange bis die Tester die Karten direkt vergleich können.

Nach bisherigen Informationen geht es sich für AMD auch rechnerisch nicht aus beeindruckend zu sein.
Jetzt bin ich aber gespannt.

Auf einer AMD-Eigenen Folie war zu lesen, dass die Effizienz mit RDNA3 um 50% zum Vorgänger zunimmt.
Du hast da was vergessen: ">50%"

Der gezeigte Effizienzfortschritt von Ada ist allerdings bedeutend höher, und angesichts der Tatsache dass die Vorgängergenerationen sehr ähnlich waren gibt es als mögliche Lösungen nur:

- RDNA3 braucht weniger Strom ist aber auch deutlich langsamer.
- RDNA3 braucht vergleichbar viel Strom und ist immer noch langsamer.
- RDNA3 braucht deutlich mehr Strom und ist damit vergleichbar schnell oder schneller.
Hast aber wohl nicht mitbekommen das AMD selber gesagt hat dass sie nicht so hoch mit der TDP gehen werden wie zb NV. (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-ueber-RDNA-3-Verbesserung-bei-Energieverwaltung-und-Infinity-Cache-1403692/) Fällt Option 3 also weg.

Zum Mitschreiben: Ich sage nicht das RDNA3 > Ada, aber Schlussfolgerungen anhand von verdrehten oder weggelassenen Tatsachen sind bestimmt immer gut ;)

Gast
2022-10-20, 14:09:25
Du hast da was vergessen: ">50%"

Zum Mitschreiben: Ich sage nicht das RDNA3 > Ada, aber Schlussfolgerungen anhand von verdrehten oder weggelassenen Tatsachen sind bestimmt immer gut ;)

AMD war mit seinen Prognosen in den letzten Jahren ja immer recht konservativ. Die realen Produkte waren dann meistens besser als die Prognosen.

Demzufolge dürfte es wohl ein Kopf an Kopf Rennen zwischen AMD und NVIDIA werden. Dazu sollte noch beachtet werden, dass AMD in N5 fertigt und NVIDIA in N4 (beides bei TSMC)

Iscaran
2022-10-20, 14:35:59
dass AMD in N5 fertigt und NVIDIA in N4 (beides bei TSMC)

AMD = N5
nVidia =4N (was for nVidia heisst und N5 IST).

Offiziell von TSMC soo bestätigt. Mit anderen Worten, man hat quasi denselben Prozess.

Zum Effizienzgewinn von Ada muss man aber auch sagen, dass Ampere hier ~10-20% hinter RDNA 2 hing was P/W betraf:
https://www.tomshardware.com/features/graphics-card-power-consumption-tested
6900 XT vs RTX 3080 = 86.4/76.8% = +12.5% für RDNA2.

Diesen Rückstand muss man erstmal einholen (bzw. AMD reicht es hier mit ~+60% P/W anzustinken damit dann gleichstand herrscht.

Gast
2022-10-20, 14:36:56
Dann kann ja NV mit der TDP nach unten gehen. Machen sie nicht? Dann wird das schon seinen Nutzen haben, nur halt nicht überall & immer.

AMD könnte auch seinen 7950X nicht mit 230W Powerlimit ausliefern, dass sie es machen heißt aber nicht, dass die CPU ständig so viel braucht.

Bei den Grafikkarten der letzten Jahre war man gewohnt dass Powerlimit ~ Leistungsaufnahme ist, bei der 4090 ist das jetzt aber deutlich anders.



AMD selber gesagt hat dass sie nicht so hoch mit der TDP gehen werden wie zb NV. (https://www.pcgameshardware.de/Radeon-RX-7000-Grafikkarte-278190/News/AMD-ueber-RDNA-3-Verbesserung-bei-Energieverwaltung-und-Infinity-Cache-1403692/) Fällt Option 3 also weg.


Der Vergleich kommt zu einem Zeitpunkt an dem für NV noch eine Leistungsaufnahme von 600W kolportiert wurde.

Nachdem wir nun wissen, dass es real "nur" 450W Powerlimit sind, und die reale Leistungsaufnahme in vielen Fällen nochmals deutlich darunter liegt sieht das schon ganz anders aus.

Einen entscheidenden Hinweis gibt es aber doch:

Die Nachfrage nach Spielen und Rechenleistung steigt, wenn überhaupt, nur noch schneller, und gleichzeitig verlangsamt sich die zugrunde liegende Prozesstechnologie ziemlich dramatisch - und die Verbesserungsrate. Die Leistungsaufnahme wird also weiter steigen.

AMD selbst sagt also, dass die Leistungsaufnahme steigen wird.
Nachdem RDNA2 schon bei ~300W ist bleibt da bis zur realen Leistungsaufnahme der 4090 nicht mehr viel Spielraum.

Wenn wir jetzt eine maßvollen Steigerung von 300 auf 350W annehmen, ist man bei der Leistungsaufnahme kaum von der 4090 entfernt.

Und mit "nur" 50% Effizienzsteigerung wird es dann bei weitem nicht ausreichen leistungsmäßig mitzuhalten.

Wobei das Ergebnis dann ja trotzdem alles andere als schlecht wäre, architektonisch würde man immer noch aufholen, nur hab man eben keinen Fertigungsvorteil mehr.

Fragman
2022-10-20, 15:39:48
Keine Ahnung wie so die Stimmung ist, aber AMD muss aus meiner Sicht nv nicht Paroli bieten können. Nicht bei den Preisen, die nv da neuerdings aufruft.
Sollten sie beim Rasterizer 60% drauflegen, beim RT 100 (besser 150), der Preis dabei max XT Niveau, wäre viel mehr gewonnen als ein weiteres 2000 Euro GPU Monster zu haben, von dem die meisten dann wieder nur sagen "ja, viel Leistung, aber preislich nicht mein Rahmen".
AMD's Portfolio würde dann auch nach unten hin Akzente setzen können.
Nv wird nach unten hin nichts neues bieten, dank Ampere ist alles gesetzt.

Gast
2022-10-20, 15:41:12
Wenn Intel schon in den gegimpten Benchmarks in Photoshop nur pari bietet und im Gaming nur 10%, dann sieht das nicht gut aus für deren neues Top-Produkt. Der 7950X hatte ja schon bis 10% zugelegt, wenn ein Chiplet deaktiviert war.

Sowohl Intel als auch AMD haben gelernt, dass man mit gefälschten Benchmarks auf die lange Sicht verliert. Wenn Intel sagt 10%, dann sind es 10%. Wie es in anderen Programmen und Benchmarks aussieht steht auf einem anderen Blatt, aber diese Dinge sind fix.

Wenn du allerdings denkst, dass ein Chiplet deaktivieren ein legitimer Weg ist Leistung zu gewinnen ... Nein! Dann stellt man bei Intel eben HyperThreading aus und deaktiviert die eCores und schon sieht dein deaktivierter Chiplet wie Kinderfasching aus.

Die Katastrophenmeldung kommt aber zu CoD.
Nur 2GB VRAM Mindestanforderung!?!

Was ist das für ein komischer Sozialneid? "Die Plebs mit ihren billig Grafikkarten können das Spiel auch spielen? WIDERLICH!" Kannst du den Gedankengang etwas ausweiten?

Was soll da schon bei rauskommen mit den künftigen 24GB GPUs????
Herrje, wir haben seit wievielen Jahren nur 4 oder 8 GB im Einsteigersegment für dGPU und die orientieren sich an alten low budget Laptops.
Die ganze PC-Gaming Welt mit Hardware vs. AAA-Titel verkommt zur Kundenverarsche.

Wer genau wird denn verarscht? Der 4090 Käufer, der seine 4k Spiele mit 120 FPS spielen kann? Der AMD Fanboy, der in jedes Forum trollt "Nvidia Grafikkrüppel" oder der Besitzer von Low-End Grafikkarten, der das Spiel trotzdem spielen kann?

CoD war jetzt seit etwa 10 Jahren nicht mehr eine Grafikreferenz, was erwartest du dir denn? Soll Activision absichtlich den Käuferkreis einschränken, indem sie keine Low-Settings für ihr sowieso nicht High-End Spiel anbieten sollen?

Lehdro
2022-10-20, 15:45:53
AMD könnte auch seinen 7950X nicht mit 230W Powerlimit ausliefern, dass sie es machen heißt aber nicht, dass die CPU ständig so viel braucht.
CPUs und GPUs vergleichen - schwierig. Aber ja, hast Recht, AMD hätte die TDP definitiv tiefer ansetzen sollen. Aber das habe ich ja schon woanders geschrieben. Selbiges mit NV. Haben beide aber nicht gemacht, entschuldigt also keinen von Beiden.

Bei den Grafikkarten der letzten Jahre war man gewohnt dass Powerlimit ~ Leistungsaufnahme ist, bei der 4090 ist das jetzt aber deutlich anders.
Wer sagt dir dass das bei AMD auch so bleiben wird (siehe 6750XT)? Gerade die haben bei "Teillast" bisher immer brilliert mit dem GPU-Verbrauch. (https://www.capframex.com/tests/Nvidia%20hat%20ein%20Effizienzproblem) Siehe auch dein Argument dazu später noch einmal.

Der Vergleich kommt zu einem Zeitpunkt an dem für NV noch eine Leistungsaufnahme von 600W kolportiert wurde.
Ich vermute eher man bezog sich da auf die real existierende 3090 Ti, immerhin ist die Aussage schon vom Juni. Senior VPs spekulieren sonst eher wenig rum.

Und mit "nur" 50% Effizienzsteigerung wird es dann bei weitem nicht ausreichen leistungsmäßig mitzuhalten.
Wieso "nur"?
Sprich mir nach: "Mindestens". Denn das ist was ">" in dem Zusammenhang heißt. Das AMD auf solchen Folien teilweise heftiges sandbagging betreibt sollte man mittlerweile eigentlich gelernt haben

Gast Ritis
2022-10-20, 16:56:21
Wenn du allerdings denkst, dass ein Chiplet deaktivieren ein legitimer Weg ist Leistung zu gewinnen ... Nein! Dann stellt man bei Intel eben HyperThreading aus und deaktiviert die eCores und schon sieht dein deaktivierter Chiplet wie Kinderfasching aus.

Was soll denn da Kinderfasching sein? eCores off ist ausschliesslich bei CSGO und Starcraft relevant.
AMD muss nur ein SingleChiplet Zen4 Gaming-Modell mit dem CPU-Takt des 7950X auflegen und zieht im Gaming schon wieder an Intel vorbei, da braucht es nichteinmal V-Cache. Deshalb sieht es schlecht für Intel aus, weil sie auf dem anderen Blatt im Multicore auch nicht an AMD vorbeiziehen können, höchstens in der Kombi für Leute die beides unbedingt in absoluter Spitze benötigen.

Was ist das für ein komischer Sozialneid? "Die Plebs mit ihren billig Grafikkarten können das Spiel auch spielen? WIDERLICH!" Kannst du den Gedankengang etwas ausweiten?

Das hat überhaupt nichts mit Neid zu tun. Wie kommt man auch nur auf so ein schmales Brett???
Seit bald zehn Jahren haben heute billigste Alt-Konsolen 8GB RAM, selbst schrottigste 2ndHand GPUs auf eBay haben 4GB VRAM. Wer sich das nicht leisten will soll sich ein CoD zu 70.- Euro kaufen?

Wer genau wird denn verarscht? Der 4090 Käufer, der seine 4k Spiele mit 120 FPS spielen kann? Der AMD Fanboy, der in jedes Forum trollt "Nvidia Grafikkrüppel" oder der Besitzer von Low-End Grafikkarten, der das Spiel trotzdem spielen kann?

Alle Kunden, die sich für CoD oder Battlefield begeistern - so rund 50% aller dGPU-Käufer. Wenn das Spiel auf jedem Toaster-Display läuft macht die Engine kompromisse und das Designteam beim Modelling und Texturieren ebenso, und wenn es nur die Zeitverschwendung fürs Downsizing ist um möglichst viele Kunden ohne technischen Fortschritt zu bedienen. Der Spagat ist gigantisch und führt unweigerlich zu weniger Objekten pro Level-Cave im kleinsten gemeinsamen Nenner.
Und ja - das ist ein Problem - wenn die wichtigsten Titel im Jahr nicht mal die Hälfte der 8GB State of the Art von vor 10 Jahren fordern.


CoD war jetzt seit etwa 10 Jahren nicht mehr eine Grafikreferenz, was erwartest du dir denn? Soll Activision absichtlich den Käuferkreis einschränken, indem sie keine Low-Settings für ihr sowieso nicht High-End Spiel anbieten sollen?
Ja genau das - den Titel wieder High-End machen wo er mal gestartet ist statt den HomePC-Mainstream in den Stillstand zu lenken, den wir von 2012 bis 2017 schon einmal hatten.
Meine Fresse, selbst der Steamdeck hat heute 16GB.

Gast
2022-10-20, 18:42:36
So stark wie der AD102 beschnitten wurde, dürfte das Navi 31 Topmodel eigentlich kein Problem haben, diesen zu übertreffen. Eigentlich handelt es sich auch bei der "4090" um eine umgelabelte GPU - unzwar eine 4080. Wenn AMD zurückfällt, würde es mich nicht überraschen, wenn NV so dreist sein wird, beim Nachfolger einen noch stärker beschnittenen bzw. einen 103er Chip mit unter 400mm² als "5090" auszugeben.

Kulasko
2022-10-20, 21:14:41
Ich glaube, die meisten halten sich auch zu stark an den "50% P/W" auf. Ich weiß leider nicht mehr, welches Interview das war, aber in jenem wurde gesagt, dass die 50% sich primär auf die Architektur beziehen, also auch Navi 33 auf 6nm mindestens das leisten sollte. Und das 5nm noch deutlich mehr kann als 7nm, sehen wir bei Zen4.

Gast
2022-10-21, 01:00:06
Ich würde von AMD bzgl. Leistung und Leistung pro Watt nicht zu viel erhoffen. Auch wenn Leo das der Formulierung nach anders sieht. Zumeist wurden die Erwartungen enttäuscht. Die 4090 ist ja schon enorm effizient und diverse Tests haben gezeigt, dass der Sweetspot noch viel tiefer liegt. Navi31 muss bei gleicher Wattage deutlich mehr fps bringen oder gleiche fps bei deutlich weniger Watt.

Wo ich weiterhin wirklich auf AMD hoffe, ist Preis/Leistung. Die Preisvorstellungen von Nvidia sind einfach durchgeknallt zu hoch.

Den ganzen Unsinn in den Kommentaren kann man nur ignorieren.

Leonidas
2022-10-21, 04:29:50
Zumeist wurden die Erwartungen enttäuscht.

Stimmt. Also besser mit etwas weniger rechnen. Hersteller-Angaben - gerade im Vorfeld - sind zuletzt immer etwas übertrieben angesetzt.

Gast
2022-10-21, 11:48:43
Was soll denn da Kinderfasching sein? eCores off ist ausschliesslich bei CSGO und Starcraft relevant.
AMD muss nur ein SingleChiplet Zen4 Gaming-Modell mit dem CPU-Takt des 7950X auflegen und zieht im Gaming schon wieder an Intel vorbei, da braucht es nichteinmal V-Cache. Deshalb sieht es schlecht für Intel aus, weil sie auf dem anderen Blatt im Multicore auch nicht an AMD vorbeiziehen können, höchstens in der Kombi für Leute die beides unbedingt in absoluter Spitze benötigen.

Hat AMD so ein Zen4 Modell? Nein? Ohh!

Das hat überhaupt nichts mit Neid zu tun. Wie kommt man auch nur auf so ein schmales Brett???
Seit bald zehn Jahren haben heute billigste Alt-Konsolen 8GB RAM, selbst schrottigste 2ndHand GPUs auf eBay haben 4GB VRAM. Wer sich das nicht leisten will soll sich ein CoD zu 70.- Euro kaufen?

Du hast absolut keine Ahnung was RAM und VRAM sind oder? Beispiel: 970 ... keine 4GB. Reif für die Schrottpresse, weil DU nicht willst, dass man die Grafik runterschrauben kann?!?

Alle Kunden, die sich für CoD oder Battlefield begeistern - so rund 50% aller dGPU-Käufer. Wenn das Spiel auf jedem Toaster-Display läuft macht die Engine kompromisse und das Designteam beim Modelling und Texturieren ebenso, und wenn es nur die Zeitverschwendung fürs Downsizing ist um möglichst viele Kunden ohne technischen Fortschritt zu bedienen. Der Spagat ist gigantisch und führt unweigerlich zu weniger Objekten pro Level-Cave im kleinsten gemeinsamen Nenner.
Und ja - das ist ein Problem - wenn die wichtigsten Titel im Jahr nicht mal die Hälfte der 8GB State of the Art von vor 10 Jahren fordern.

Hast du das neue CoD gesehen? Das sieht klasse aus! Wer also soll hier betrogen worden sein? CoD ist übrigens ein ESPORT Titel! Da geht es darum eine möglichst große Userbase zu haben! Da soll auch Timmy mitspielen können, der den Rechner von seinem großen Bruder der das Elternhaus verlassen hat mitspielen können. Da soll auch Uwe auf seinem Home-Office Rechner nach erledigter Arbeit eine Runde zum entspannen reindaddeln können. Und vor allem soll der Profi selbst in hektischsten Situationen keine Ruckler haben. Das alles opfern, weil du hier Pauschalaussagen zu einer Engine triffst, die du gar nicht kennst? Sollte man nicht eher bejubeln wie Anpassungsfähig das Spiel läuft? Es läuft sogar auf einem Toaster JUHU, nicht Buuh!

DU bist also angepisst, weil DU DEINEN Grafikkartenkauf anzweifelst, weil EIN Spiel auch auf schwächerer Hardware läuft.


Ja genau das - den Titel wieder High-End machen wo er mal gestartet ist statt den HomePC-Mainstream in den Stillstand zu lenken, den wir von 2012 bis 2017 schon einmal hatten.
Meine Fresse, selbst der Steamdeck hat heute 16GB.

Du weißt eben nicht was das Spiel will und auch nicht was RAM/VRAM sind ... toll!

bad_sign
2022-10-21, 12:18:05
Ich würde von AMD bzgl. Leistung und Leistung pro Watt nicht zu viel erhoffen. Auch wenn Leo das der Formulierung nach anders sieht.

Schaut man im CB Test, dann liegt die 4090 mit gut 40% besserer Effizienz vor ggü 6900X
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/#abschnitt_energieeffizienz_im_werkszustand

Und auch bei AMD ist es Tradition die Chips weit außerhalb ihrer Sweetspots zu betreiben.
Ich erwarte ein spannendes Kopf an Kopf im Bereich ~350W (wo auch die 4090 ohne Probleme hin spezifiziert hätte werden können)

Nazar
2022-10-21, 15:11:52
Nicht wirklich, seit bekannt ist dass die 4090 ihr Powerlimit großteileils recht deutlich nicht ausnützt.

Nach bisherigen Informationen geht es sich für AMD auch rechnerisch nicht aus beeindruckend zu sein.

Auf einer AMD-Eigenen Folie war zu lesen, dass die Effizienz mit RDNA3 um 50% zum Vorgänger zunimmt.

Der gezeigte Effizienzfortschritt von Ada ist allerdings bedeutend höher, und angesichts der Tatsache dass die Vorgängergenerationen sehr ähnlich waren gibt es als mögliche Lösungen nur:

- RDNA3 braucht weniger Strom ist aber auch deutlich langsamer.
- RDNA3 braucht vergleichbar viel Strom und ist immer noch langsamer.
- RDNA3 braucht deutlich mehr Strom und ist damit vergleichbar schnell oder schneller.

Bitte lesen lernen. Da stimmt absolut nichts. ;)