PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 7. November 2022


Leonidas
2022-11-08, 09:16:47
Link zur News:
https://www.3dcenter.org/news/news-des-7-november-2022

Gast
2022-11-08, 09:54:11
Unter dem CUDA-Test des Geekbench 5 wird das Ergebnis der Spiele-Benchmarks nicht geschlagen, während hingegen der TimeSpy Extreme klar oberhalb dessen herauskommt.

Selbst nach 5x lesen hab ich nicht den Funken einer Ahnung was dieser Satz aussagen soll.

bad_sign
2022-11-08, 10:00:36
@Gast
D.h. für den Vergleich 3000 vs 4000 (und speziell 4080 vs 4090), ist der Cuda-Test von Geekbench5, viel näher am realen Spiele Leistungsverhältnis, als es ein TSE Score.

Gast
2022-11-08, 10:08:31
"Schließlich ist dieses Problem nun exakt so eingetreten, auch AMDs RDNA3-Architektur liefert pro FP32-Einheit klar weniger Performance ab als die Vorgänger-Architektur."
AMD braucht die FP32 Leistung ja unter anderem für RT. Wird daher interessant, ob man es geschafft hat, RT BVH Berechnung und klassisches Rasterizing in einem Shader laufen lassen zu können (oder eine Dual-Issue Einheit komplett für RT zu nutzen). Wenn das klappt, könnte man RT merklich beschleunigen. Wenn nicht, hätte man sich das Dual-Issue auch sparen können und RDNA3 würde Erinnerungen an Vega wecken.
Daher bin ich mir nicht sicher, ob man RT bei RDNA3 nicht etwas unterschätzt. Bisher gab es ja nur wenige Angaben bezüglich FSR&RT. Andererseits hat AMD angegeben, die RT Einheiten wären 50% schneller als bei RDNA2, dazu dann noch 20% mehr (da mehr Kerne). Dafür sind von AMD vorgestellten Werte eher vorsichtig, da müsste eigentlich mehr bei rum kommen (man müsste da laut Hardware eher Richtung 3090TI kommen).

Troyan
2022-11-08, 10:24:07
"Schließlich ist dieses Problem nun exakt so eingetreten, auch AMDs RDNA3-Architektur liefert pro FP32-Einheit klar weniger Performance ab als die Vorgänger-Architektur."
AMD braucht die FP32 Leistung ja unter anderem für RT. Wird daher interessant, ob man es geschafft hat, RT BVH Berechnung und klassisches Rasterizing in einem Shader laufen lassen zu können (oder eine Dual-Issue Einheit komplett für RT zu nutzen). Wenn das klappt, könnte man RT merklich beschleunigen. Wenn nicht, hätte man sich das Dual-Issue auch sparen können und RDNA3 würde Erinnerungen an Vega wecken.
Daher bin ich mir nicht sicher, ob man RT bei RDNA3 nicht etwas unterschätzt. Bisher gab es ja nur wenige Angaben bezüglich FSR&RT. Andererseits hat AMD angegeben, die RT Einheiten wären 50% schneller als bei RDNA2, dazu dann noch 20% mehr (da mehr Kerne). Dafür sind von AMD vorgestellten Werte eher vorsichtig, da müsste eigentlich mehr bei rum kommen (man müsste da laut Hardware eher Richtung 3090TI kommen).

Also AMD hat haufenweise Angaben zur Leistung mit Raytracing gemacht - sechs Stück von 1,5x bis 1,8x.

Und Dual-Issue-Ausführung ist ein günstiger Weg mehr Rechenleistung zur Verfügung zu stellen. Da Spiele aber nunmal nicht Rechenleistungslimitiert sind, sieht man das Ergebnis auch nicht 1:1 widerspiegeln.

Gast
2022-11-08, 10:51:22
Wird daher interessant, ob man es geschafft hat, RT BVH Berechnung und klassisches Rasterizing in einem Shader laufen lassen zu können (oder eine Dual-Issue Einheit komplett für RT zu nutzen).

"RT BVH Berechnung" und "klassisches Rasterizing" werden niemals "in einem Shader" laufen, diese Aussage macht überhaupt keinen Sinn.

Das Ganze Prinzip "GPU" basiert davon Massenhaft (tausende) Threads zu spawnen und die alle das selbe Programm abarbeiten.

"Klassisches Rasterizing" und "RT BVH Berechnung" (was auch immer das jetzt sein soll) müssen zwangsweise was unterschiedliches Berechnen und können damit per Definition nicht der selbe Shader sein.

Gast
2022-11-08, 11:15:13
@Gast
D.h. für den Vergleich 3000 vs 4000 (und speziell 4080 vs 4090), ist der Cuda-Test von Geekbench5, viel näher am realen Spiele Leistungsverhältnis, als es ein TSE Score.

Das steht aber nicht da.

Gast
2022-11-08, 12:38:55
Wenn man überlegt was Nvidia dafür verlangt, eine Katastrophe. Das die Ampere Preise reine Mondpreise waren, um genau dies bei Lovelace zu ermöglichen und vorzubereiten, dürfte jeden klar sein. Die deztiigen Marktpreise um 1249 waren wohl eher repräsentativ. Eine 3090ti kostete im besten Marktpreis 1099 Euro.

Auch der Absatz der 4090 hat nun einen Dämpfer bekommen, man kann die Karten gut bestellen. Nun wartet der Großteil wohl auf die 7900 Benchmarks und die dürften für die 4080 gesalzen ausfallen. Ähnliches RT Potential, aber deutlich höhere Rasterleistung, mit der Option FSR3 und XeSS darauf ausführen.

Nvidia ist voll am Ar*ch. Die haben sich mit ihren Preisen einen richtigen Bock geschossen, Gier und Verstand. Will man jetzt, 4 Wochen nach Launch schon die Preise senken, oder gibt es jetzt eine 4080 SE (ligth)? Lol. AMD hat alles richtig gemacht.

hq-hq
2022-11-08, 12:51:08
Das steht aber nicht da.

schau halt auf das Bild,

GeForce RTX 4080 4k Spiele 117,6% CUDA 300'728 (116%) TimeSpy-E 14'178 (132%)

bad_sign
2022-11-08, 12:54:36
Das steht aber nicht da.
Das ist aber gemeint

The_Invisible
2022-11-08, 13:01:03
Die 4080 ist wirklich zu sehr abgespeckt, da muss es wohl eine 4080 Ti 20GB oder so richten, wird allerdings nach derzeitigen Preisen wohl auch recht nahe an den 2k dran sein, schon arg irgendwie...

H0fn43rrchen
2022-11-08, 13:03:08
Ein anderer Punkt, der in vielen Foren-Diskussionen zu AMDs neuen Grafikkarten erwähnt wird, ist deren suboptimale Benennung. AMD wäre wohl deutlich besser gefahren, wenn man die Radeon RX 7900 Serie einfach als "Radeon RX 7800 Serie" hätte laufen lassen. Dies hätte nicht nur die Konkurrenz-Situation zur GeForce RTX 4080 klarer gemacht, sondern damit wäre AMD auch einfacher aus dem mehr oder weniger automatischen Vergleich zur GeForce RTX 4090 herausgekommen. Schließlich könnte man die 7900er Serie später dann immer noch mit einem Refresh und/oder mittels Modellen mit mehr Infinity Cache besetzen. Hier hat AMD eine Chance verpasst, viel Kritik aus dem Weg zu gehen. Denkbar zwar, dass man so spät nichts mehr an den Namen ändern wollte, die aktuelle Situation zeigt aber, dass dies dennoch sinnvoll gewesen wäre. Denn letztlich tritt man sowieso nur gegen die GeForce RTX 4080 an und kann mangels passender RayTracing-Performance selbst diesen Zweikampf nicht dominieren.

Die Bezeichnung der GPU dürfte sich nach dem verwendeten Chip (Navi31) richten und nicht nach dem Verhältnis der Performance zur Konkurrenz. Das Gejammere in den Foren 78xx XT/XTX wäre der bessere Name entspringt einfach entäuschten Erwartungen - und einer gewissen Weltfremdheit was die Benennung von Produkten betrifft. Kann mich nicht daran erinnern, dass es schon einmal einen derartigen Aufschrei bei CPUs (als Ryzen intels Produktportfolio alt aussehen ließ) gegeben hätte. Außerdem bleibt AMD beim Refresh ja noch die Möglichkeit ein 50 an die vorhandenen Namen anzuhängen. Außerdem sollte man nicht vergessen, dass - so wie bei RTX 4080 12GiB - eine Änderung des Namens recht gravierende Auswirkungen auf GPU-Shrouds und Verpackungen hat was im schlimmsten Fall zu Verzögerungen, aber definitiv zu unnötigen Kosten führt. Über das etwaige PR-Dilemma, sollte dies - und davon darf man ausgehen - publik werden, gar nicht zu reden. Da ist es besser man steht zu seinem Produkt.

Lehdro
2022-11-08, 14:22:07
Die Namensdiskussion ist so absurd. AMD hat Schelte bezogen dass die 6900XT nicht 6800XTX hieß (https://www.computerbase.de/forum/threads/radeon-rx-6900-xt-im-test-amds-rx-6800-xtx-im-duell-mit-nvidias-geforce-rtx-3090.1987635/) und man deswegen zwei verschiedenen Brandings für ein und denselben Chip benutzt hat - geht anscheinend gar nicht.

Jetzt umgeht man das, wie früher wohlgemerkt (https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_HD_6000_series), weil man jetzt anscheinend einfach die Formel x9xx = Top Dog Chip nutzt. Und jetzt sind die Leute sauer weil die 6900XT angeblich mit der 3090 konkurriert, bei 50%(!) weniger UVP. Also soll auch die 7900XTX mit der 4090 konkurrieren, bei 60%(!) weniger UVP. Geht es vielleicht noch ein wenig unsachlicher? Der Vergleich war schon bei RTX 30 vs RX 6000 grenzdebil, heute ist er es umso mehr. Das wäre ungefähr so fair wie eine RTX 3050 (https://geizhals.de/asus-geforce-rtx-3050-v93537.html) mit einer RX 6750 XT (https://geizhals.de/?cat=gra16_512&xf=9816_02+04+12+-+RX+6750+XT) zu vergleichen, sind ja auch "nur" 60% Preisunterschied. Das ergibt doch überhaupt keinen Sinn.

Jungs, Namen sind Schall und Rauch und dienen primär dem Marketing. Siehe NV mit deren abgesägter 4080 12 GiB, die jetzt eine 4070 Ti wird (https://twitter.com/kopite7kimi/status/1589844924014661632). Es bleibt aber exakt die selbe Grafikkarte :)
Richtet euch gefälligst nach Preis/Leistung und dem Produktportfolio untereinander, nicht im Vergleich mit der Konkurrenz, das KANN nur in die Hose gehen. Könnte ja ein Trollverein auf die Idee kommen deren Highendprodukt x1xx zu nennen, gibts dann Schelte für NV wenn deren xx9x Produkt damit konkurrieren muss, obwohl es etwas anderes suggeriert?! Lächerlich.



//Edit: Korrektur: Ich wollte eigentlich schreiben dass NV eine UVP hat, die um die angegeben Werte höher ist. Nicht das AMD um den Wert günstiger ist. Mea Culpa.

Gast
2022-11-08, 14:25:27
Also AMD hat haufenweise Angaben zur Leistung mit Raytracing gemacht - sechs Stück von 1,5x bis 1,8x.

Und Dual-Issue-Ausführung ist ein günstiger Weg mehr Rechenleistung zur Verfügung zu stellen. Da Spiele aber nunmal nicht Rechenleistungslimitiert sind, sieht man das Ergebnis auch nicht 1:1 widerspiegeln.
Aber die Spiele-Benches von RT waren alle mit FSR, das ist wenig aussagekräftig/verzerrt das Ergebnis. RT Benches ohne FSR habe ich keine gesehen. Oder habe ich da was übersehen?
Wenn RDNA rein für's Gaming ist, dann braucht man deiner Aussage nach die DI-Shader nicht, weil man die höhere FP32 Leistung eh nicht/kaum nutzen kann. Dann hätte man sich die sparen können (Platzverbrauch/Leistungsaufnahme). Warum hat AMD das dann eingebaut? Mein Gedanke war da eben: Für RT, weil das bei AMD ja teilweise über die Shader laufen muss. Nur, um mit der FP32 Leistung zu werben, macht ja keinen Sinn, AMD wird sich da sicher was davon erhoffen. Oder gibt's noch weitere Gründe?

Gast
2022-11-08, 15:58:34
Ich sag nur "The Callisto Protocol" offfizieller AMD Partner (no DLSS), das Spiel hat das Zueg die Nr. 1 in 2022 zu werden. Wird AMD richtig Schub geben.

Nv hat es ehrlich gesagt zu sehr übertreiben, zwei Jahre lang hat man die Gamer zugunsten der Miner verarscht und dann sowas. Nv sollte sich mal erinnern, wer sie groß gemacht hat und immer zu denen gehalten hat. Eigentlich wäre es Zeit den Gamern dafür auch mal etwas zurückzugeben! Mit diesem ganzen RTX/ML/KI Gedöns und dazugehörigem dediziertem Krempel wird das nix. Ist wie bei den E-Autos, rettet die Umfeld, ja klar nur muss auch bezalhbar bleiben. 50/60/70K für einfachste Kisten, merken die es noch. Bekomme ich jetzt 100% mehr Lohn?

So ist es beim KI gestützten Gaming auch, ich kanns nicht mehr bezahlen. Tut mir leid dann muss sich Abstriche machen Nvidia und genau schauen was ich für mein Geld bekomme. Denke da ist auch AMD einen gute Option mittlerweile. Kumpel von mir hatte eine Tahiti Pro 10 Jahre lang, läuft immer noch das Ding. 1080p mittlere Detail DX11 rockt das Teil noch.

Ich kanns nicht mehr...stecke noch bei der 1080ti fest und die war für mich schon fettes Brot.

Gast
2022-11-08, 16:27:41
Und jetzt sind die Leute sauer weil die 6900XT angeblich mit der 3090 konkurriert, bei 50%(!) weniger UVP. Also soll auch die 7900XTX mit der 4090 konkurrieren, bei 60%(!) weniger UVP.

Woher kommen diese Zahlen?
In Dollar kostet die 7900XTX 32,5% weniger als die 4090.
Selbst wenn du den Dollarpreis der 7900XTX nimmst und mit dem Euro Preis der 4090 vergleichst sind es weniger als 50%.

Deine 60% weniger stimmen vorne und hinten nicht.

Bei der 3090 und 6900XT stimmt es übrigens auch nicht.

Gast
2022-11-08, 20:55:38
Ich sag nur "The Callisto Protocol" offfizieller AMD Partner (no DLSS), das Spiel hat das Zueg die Nr. 1 in 2022 zu werden. Wird AMD richtig Schub geben.

Ein Survival-Horror Spiel? Haha, guter Witz.
War hoffentlich von dir nicht ernst gemeint.

Booby
2022-11-08, 21:34:44
In Dollar kostet die 7900XTX 32,5% weniger als die 4090.
Selbst wenn du den Dollarpreis der 7900XTX nimmst und mit dem Euro Preis der 4090 vergleichst sind es weniger als 50%.


Auf welchem Planeten lebst du?
UVP 4090 $1599
UVP 7900XTX: $999
Retailpreise in Euro sind noch schlimmer: (vermutlich) höchstens 1300 fur die 7900XX vs min. 2200 (4090).

Abgekartetes Duopol
2022-11-08, 21:54:22
Und die Mehrheit der Tech-Urinalisten und Reviewer wird auch weiterhin keine Eier haben Nvidia und AMD zu rügen, für deren abehobene Mondpreise und Melkerei.
Unter der Lüge von "Neutralität bewahren" weiterhin "Au weia, wollen nicht auf Nvidias/AMDs schwarze Liste kommen, wir verblumen die Kritik, und Testsamples erhalten. Ja, NDA wird unterschrieben" folgen.

AMDs Führung hat die rx 7800xt in rx 7900xt umbenannnt. Gleicher 90 % Navi 21/31 gpu-die wie zuvor, Preissprung von 650 auf $ 900 msrp.

Rtx 4060 = umgelabelte rtx 4080 12 GB
Rtx 4070 = umgelabelte rtx 4080 16 GB

Die neue "rtx 4070 Ti" bleibt weiterhin eine rtx 4060.

Das macht alles keinen Spaß mehr, weil ich weiß dass beide Seiten die Kunden ausnehmen wollen. Grafikkarten-Schnäppchen oder "Value king" wie Generationen zuvor gibts es keine mehr.

Wird man ja mit Zwang zum Konsolenspieler oder Bücherleser.

https://uploads.disquscdn.com/images/c06fb98c711d54ad91908d115249dbe1a5bcf7596cb1e10725c52a754754cf7f.png

Gast
2022-11-08, 23:00:49
Auf welchem Planeten lebst du?
UVP 4090 $1599
UVP 7900XTX: $999
Retailpreise in Euro sind noch schlimmer: (vermutlich) höchstens 1300 fur die 7900XX vs min. 2200 (4090).
Du hast recht, die 7900XTX ist 37,5% günstiger als die 4090, nicht 32,5%.
Ändert aber nichts daran, dass das meilenweit von 60% günstiger weg ist.

Booby
2022-11-09, 00:28:52
Du weißt ganz genau, dass Lehdro den Kehrwert gemeint hat. Niemand drückt 2.5-fachen Preisunterschied bewusst als "60% günstiger" aus.

Gast
2022-11-09, 01:45:11
Ein Survival-Horror Spiel? Haha, guter Witz.
War hoffentlich von dir nicht ernst gemeint.
Achso, Dead Space war ja auch totaler Müll.Lol.

Aber klar, steht ja nicht Gamewürks drauf, dann ist das sicher nichts für dich.

Leonidas
2022-11-09, 02:50:23
Selbst nach 5x lesen hab ich nicht den Funken einer Ahnung was dieser Satz aussagen soll.

Das war wohl zu verkürzt geschrieben. Es sagt aber genau das aus, was andere Kommentatoren schon ausgedrückt haben: Der Perf-Gewinn der 4080 zur 3090Ti ist bei CUDA niedriger als bei Spielen und bei TSE am höchsten. Gemäß der Prozentwerte der nachfolgenden Tabelle.




Aber die Spiele-Benches von RT waren alle mit FSR,

Nein, nur die extra Slide rein RT war mit FSR. Die erste Slide, wo es Raster + RT gab, war ohne FSR. Eine Perf-Differenz gab es da im übrigen nicht, sprich FSR augenscheinlich ohne Effekt auf die (relative) fps-Differenz. Trotzdem unsaubere Angaben - aber sie ändern wenigstens nichts zur Performance-Projektion.

Gast
2022-11-09, 07:29:35
Aber die Spiele-Benches von RT waren alle mit FSR, das ist wenig aussagekräftig/verzerrt das Ergebnis. RT Benches ohne FSR habe ich keine gesehen. Oder habe ich da was übersehen?

Die relativen Performanceunterschiede waren ohne FSR.

Das konnte man eben für die Slides die FPS zeigen nicht verwenden, weil dann würde man sehen, dass von 10 auf 17FPS zwar auch +70% sind, aber von unspielbar auf unspielbar eben auch irrelevant.

Gast
2022-11-09, 11:21:12
Nein, nur die extra Slide rein RT war mit FSR. Die erste Slide, wo es Raster + RT gab, war ohne FSR. Eine Perf-Differenz gab es da im übrigen nicht, sprich FSR augenscheinlich ohne Effekt auf die (relative) fps-Differenz. Trotzdem unsaubere Angaben - aber sie ändern wenigstens nichts zur Performance-Projektion.
Ah, danke! Das hatte mir gefehlt.

Was mir gerade noch auffällt: Hieß es nicht mal, Navi33 wird grob so schnell als die 6900XT? Wenn die 7900XTX und 7900XT sich im Bereich der 4080 tümmeln, welche wiederum knapp über 3090TI Niveau liegt (ca. 15% drüber), wo genau soll dann da noch Navi32 rein passen? Im Endeffekt müsste Navi32 doch vielleicht im Bereich der 6900XT und 6800XT liegen, Navi33 dann wohl im Bereich der 6700XT. Ich bin gespannt, wie die dann preislich liegen. Die müssten ja dann irgendwo im Bereich 550$ & 600$ sowie vielleicht 400$ liegen (im Vergleich zu Navi 31). Das wäre preislich dann für Navi33 eine ähnliche Region wie für Navi 22 damals. Dann müsste man aber eigentlich deutlich schneller sein als der Vorgänger... Irgendwie passt das noch nicht.

Gast
2022-11-09, 12:30:31
Du weißt ganz genau, dass Lehdro den Kehrwert gemeint hat. Niemand drückt 2.5-fachen Preisunterschied bewusst als "60% günstiger" aus.
Ach, ob ein Produkt 60% günstiger oder doch nur 37,5% günstiger ist, ist also egal?
Alternative Mathematik oder was?

Seine 60% sind falsch, warum auch immer (evt. hat er auch Straßenpreis und UVP verglichen).
Darauf habe ich hingewiesen, nicht mehr, nicht weniger.

Dino-Fossil
2022-11-09, 12:31:45
Naja, Gerüchteküche halt.
Gibt auch Aussagen, wonach es ursprünglich nur hieß, N33 könnte einige N21 Modelle erreichen, womit aber womöglich eher die 6800 gemeint war. Hat sich also womöglich einfach verselbstständigt.

Richtig schlüssig kam mir das nie vor, wenn man sich die kolportierten Daten mal angesehen hat.

Lehdro
2022-11-09, 13:38:19
Ach, ob ein Produkt 60% günstiger oder doch nur 37,5% günstiger ist, ist also egal?
Alternative Mathematik oder was?

Seine 60% sind falsch, warum auch immer (evt. hat er auch Straßenpreis und UVP verglichen).
Darauf habe ich hingewiesen, nicht mehr, nicht weniger.
Es tut mir leid, da ist mir beim formulieren ein Fehler unterlaufen. Natürlich meinte ich dass die NV Karten um diesen Prozentwert bei der UVP teurer sind, nicht die AMD Karten um diesen Wert günstiger. Freudscher Verschreiber oder so.

Du weißt ganz genau, dass Lehdro den Kehrwert gemeint hat. Niemand drückt 2.5-fachen Preisunterschied bewusst als "60% günstiger" aus.
So ist es, habe das mehrfach umformuliert und irgendwann war es dann falsch. Gemeint war aber definitiv "NV um xy%" teurer.

Gast
2022-11-09, 13:55:13
Das war wohl zu verkürzt geschrieben. Es sagt aber genau das aus, was andere Kommentatoren schon ausgedrückt haben: Der Perf-Gewinn der 4080 zur 3090Ti ist bei CUDA niedriger als bei Spielen und bei TSE am höchsten.
Das zeigt das Nvidia vor allem synthetische Benchmarks pusht, wenn die Konkurrenz stärker wird. Ala Intel.

treiber, Hardware und der rest wird dabei genau darauf optimiert, der länsgte Balken zählt vor allem bei si umstrittnenen Layout und Designs wie die neuerliche 4080. Das sind doch komplette Gurken, sorry...billiger Schrott für viel Geld in Szene gesetzt. Die Ver*rsche geht also weiter.

Gast
2022-11-09, 14:37:35
Es tut mir leid, da ist mir beim formulieren ein Fehler unterlaufen. Natürlich meinte ich dass die NV Karten um diesen Prozentwert bei der UVP teurer sind, nicht die AMD Karten um diesen Wert günstiger. Freudscher Verschreiber oder so.
.

Alles gut, so rum passt es dann ja perfekt :)

Leonidas
2022-11-09, 16:23:04
Hieß es nicht mal, Navi33 wird grob so schnell als die 6900XT?

Hieß es. Ich hab es immer etwas bezweifelt, weil der technische Ansatz von N33 viel kleiner ist. Das letzte Gerücht lautet aber: Wie N21, aber nicht wie schnellster N21. Sprich, eher Richtung 6800 & 6800XT.

Gast
2022-11-09, 16:26:25
Richtig schlüssig kam mir das nie vor, wenn man sich die kolportierten Daten mal angesehen hat.
Aber selbst wenn es die 6800 ist, passt es dann nicht wirklich. Denn rein von der Hardware her müssten die N31 Modelle dann doch eher im Bereich der 4090 liegen und nicht nur im Bereich der 4080. Irgendwie passt das alles nicht. Wenn die tatsächlich nur auf 4080 Niveau sind, dann ist ja schon fraglich, ob N33 als 7700XT es überhaupt schafft, seinen direkten Vorgänger (N22 aka. 6700XT) zu schlagen.
Die Modellbezeichnung ist ja inzwischen mehr oder weniger fix: 7900XT(X) für N31, 7800(XT) für N32 und N33 müsste dann als 7700(XT) kommen.
Und als Kunde erwarte ich, dass eine 7700XT schneller als eine 6700XT ist. Daher ist die 6800 Leistung für N33 m.M.n. durchaus realistisch und eigentlich das Mindeste.
Mit der bisher im Umlauf befindlichen Anzahl an Shadern und SI, müsste N31 aber grob 2,5x so schnell sein, was dann wiederrum grob im Bereich der 4090 wäre.
Die einzige Erklärung, warum nicht, wäre eine extrem schlechte Skalierung von N31. Das könnte daran liegen, dass N33 sehr viel höher taktet als N31, oder dass die Chiplet Technik merklich bremst oder die TBP N31 stark limitiert. Wie gesagt, aktuell passt das für mich nicht zusammen...

Gast
2022-12-02, 22:28:58
Achso, Dead Space war ja auch totaler Müll.Lol.

Aber klar, steht ja nicht Gamewürks drauf, dann ist das sicher nichts für dich.

Na, glaubst du immer noch, dass das Spiel DAS Spiel wird und AMD einen richtigen Schub geben wird?

Die Träume mancher Leute...