PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 10. März 2023


Leonidas
2023-03-11, 10:45:58
Link zur News:
https://www.3dcenter.org/news/news-des-10-maerz-2023

iamthebear
2023-03-11, 12:04:47
Wenn AMD mit dem Energieverbrauch argumentiert so machen sie sich meiner Meinung nach ziemlich lächerlich. Die 4090 braucht in der Praxis laut igorslab um die 370W. Das ist weniger als so manche 7900 XTX AIB Modelle.

Was Netzteile angeht: Die 4090 hatte im igorslab Review weniger Lastspitzen als die 7900 XTX. Für den 16 Pin Stecker gibt es ja genug Adapter, mittlerweile auch in abgewinkelter Form wenn das Gehäuse eng ist.

Gast
2023-03-11, 12:50:26
Sehe ich auch so, dummes Argument. Welche 600w Karten sind denn bisher groß erschienen? Wenn so eine Karte käme, wird sie doch deutlich schneller sein als das was AMD am Markt hat, vermutlich sogar effizienter Frame pro Watt. Ist doch komisch wenn so eine für 600w entwickelte Karte dann effizienter unter Spielen ist, als sein eigenes Modell das für 350w konzipiert wurde. Sry, die Aussage ist vorne und hinten nicht plausibel.

Auch der Formafaktor spielt dabei keine Rolle, den größere Karten sind nunmal leiser und kühler bei gleichem Verbrauch, was auch der Effizienz beiträgt. AMDs Partner selbst entlassen Modelle die auf 525w Leistung konzipiert sind in den Markt (von AMD selbst erlaubt), werden aber kaum schneller und kommen an eine Nvidia 320w/450w Karte kaum ran! RT sowieso nicht und mit DLSS inklusive FG sowieso nicht. AMD wieder, aber man kanns ja mal versuchen...erst das Rumgehacke auf dem 12Pin Anschluss und nun das. Die machen sich bei fehlender Endleistung selbst lächerlich. Gerade AMDs Effizinz ist doch zu hinterfragen.

Der 12PIN würde für AMD bedeuten, dass man den Formfaktor der Paltinen noch verkleinern könnte um mehr Kühlleistung rauszuholen. Die PEG Stecker brauchen nunmal mehr Platz, mal abgeshenen von dem Kabelsalat im PC. Unfähigkeit+fehlender Markteinschätzung mit Kritik an der Konkurrenz kaschieren, ziemlich unfein wenn mich jemand fragt. Zuallererst wäre mal Selbstkritik wichtig. Kein Anzeichen davon, Größenwahn und Preiswucher trifft es zuletzt eher bei AMD. Da kann man nur noch mit dem Kopf schüttel, die leben echt ihn ihrer eigenen Entwicklungsblase.

Gast
2023-03-11, 12:55:49
Sollen die halt endlich mal 2x n32 oder gar 2x n31 (bei deutlich reduzierten Frequenzen) mit 450-600w rausbringen! Dann wird auch nvidia gezwungen sein die 4090ti im nahe vollausbau zu bringen.
Das wäre doch was spannendes.

Exxtreme
2023-03-11, 14:06:34
Sollen die halt endlich mal 2x n32 oder gar 2x n31 (bei deutlich reduzierten Frequenzen) mit 450-600w rausbringen! Dann wird auch nvidia gezwungen sein die 4090ti im nahe vollausbau zu bringen.
Das wäre doch was spannendes.

Dualchip-Grafikkarten sind tot. :) Sie werden bei fast keinem aktuellen Spiel funktionieren und man wird nur mit einem Chip spielen müssen.

Rabiata
2023-03-11, 14:53:13
Dualchip-Grafikkarten sind tot. :) Sie werden bei fast keinem aktuellen Spiel funktionieren und man wird nur mit einem Chip spielen müssen.
Ja, da müßte AMD noch einen größeren Chip für die Leistungsspitze bringen. Navi 30 sozusagen. Das GCD von Navi 31 hat gerade mal 306 mm², und das ist der Teil des Chips welcher der Flaschenhals ist. Da geht noch was, Nvidia hat schon Dies um die 600mm² gebaut :wink:.
Und was die Effizienz angeht:
Liebe Grafikingenieure bei AMD, fragt mal die Kollegen von den CPUs. Die wissen, wie man massive Einsparungen erzielt und dabei nur wenige Prozent an Performance verliert.

bad_sign
2023-03-11, 15:08:06
Ach marketing Geschwätz :)

Der_Korken
2023-03-11, 15:09:16
Beim Verbrauch bekleckert sich N31 wahrlich nicht mit Ruhm. Da finde ich das Argument schwach man wollte angeblich nicht mit Nvidia 600W konkurrieren. Der Sweetspot von GA102 ist kaum höher, wenn nicht sogar etwas geringer als der von N31, denn die 2,5Ghz sind schon sehr weit unten auf der V/f-Kurve, verglichen mit den vorigen Topdogs (N10 und N21). Was ich eher verstehen würde ist, wenn AMD gesagt hätte sie sehen zu wenig Marktpotenzial für große 5nm-GPUs, weil die Produktion viel zu teuer wäre. Da hätten sie bei den absurden 4090er Preisen tatsächlich einen Punkt. Ich hätte ihnen gegönnt, wenn das RDNA3-Konzept aufgegangen wäre und z.B. einen super kleinen N32 mit 4070Ti-Performance (ohne RT versteht sich) hinbekommen hätten. Der wäre im aktuellen Markt eingeschlagen wie eine Bombe.

Gast
2023-03-11, 18:19:42
Man hätte einfach so fair sein müssen, und nach der missglückten Testphase für N31 seine Produktpalette aufstellen müssen. Das heißt etabliertes Namesschema und realistische Preise. Die 7900XTX wäre dann eine 7800XT für 900€ (nach steuern btw) und die 7900XT eine 7800 für 700€ geworden. Alle reviews hätten das gute Preis-Leistungs Verhältnis gelobt und RDNA3 wäre zwar nicht so gut wie RDNA 2 angekommen, aber besser als RDNA1.

Mittlerweile ist klar, das RDNA3 nur der Testballon für RDNA4 ist, dann sollte einfach das beste aus dem mache nwas man hat, und nicht versuchen sich hinter irgendwelchen Marketing und PR Sprüchen zu verstecken, das kann man NV überlassen.

DSD512
2023-03-11, 18:37:36
NV und ihr Schmarn mit ihren abgewixten, proprietären 1000 Watt Stromkabeln\Steckern.

Exxtreme
2023-03-11, 18:46:01
Man hätte einfach so fair sein müssen, und nach der missglückten Testphase für N31 seine Produktpalette aufstellen müssen. Das heißt etabliertes Namesschema und realistische Preise. Die 7900XTX wäre dann eine 7800XT für 900€ (nach steuern btw) und die 7900XT eine 7800 für 700€ geworden. Alle reviews hätten das gute Preis-Leistungs Verhältnis gelobt und RDNA3 wäre zwar nicht so gut wie RDNA 2 angekommen, aber besser als RDNA1.

Mittlerweile ist klar, das RDNA3 nur der Testballon für RDNA4 ist, dann sollte einfach das beste aus dem mache nwas man hat, und nicht versuchen sich hinter irgendwelchen Marketing und PR Sprüchen zu verstecken, das kann man NV überlassen.

Für die Preise kann Amd nichts. Die sind so hoch weil die Grafikkarten offenbar gut weggehen.

Gastxyz
2023-03-11, 19:03:50
[quote=AMD...um in die Mainstream-Infrastruktur (Hardwareumgebung) zu passen, die von heutigen PC-Gaming-Enthusiasten verwendet wird.[/quote]

"Mainstream Enthusiast"? Was soll das sein? AMD erfindet gerade auf der eignen Unvermögenheit was Neues. Entweder sind die Karten Mainstream oder eben Enthusiast, was die 4090 ist. Die AMD Karten sind Highend was Rasterleistung angeht, aber nur Mainstream wenn es um RT geht, ja.

Marketingheinis die nicht mal wissen was sie in welcher Kategorie bzw. Verbrauchergruppe veröffentlicht haben. Was will man dazu noch sagen. Peinlich. Seit wann kaufen Enthusiasten Mainstream. AMD hat keine Mainstreaminfrastruktur die zu Enthusiast passt - nirgends. Kann man nicht einfach zugeben das Nave31 eine "Gurke" ist und man die Designziele um Längen verpasst hat. Hoher Verbrauch, wenig Leistung, Vega. Komplett verwachst haben sie sich. Von wegen die Effizienz stimmt, ja klar.:rolleyes:

Gast
2023-03-11, 19:07:31
Für die Preise kann Amd nichts. Die sind so hoch weil die Grafikkarten offenbar gut weggehen.
Wo? Anscheinend ist dir vorbeigegangen, dass der Absatz um 41% eingebrochen ist und man daher einfach die Preise verdoppelt, um die gleiche Gewinne zu generieren.

AMD ist dabei einn der Firmen die kräftig mitverdienen wollen.

OpenVMSwartoll
2023-03-11, 19:46:49
Die 600 Watt von NVs Top Dog waren ja durchaus im Gespräch. Nun hatte NV das Glück, sparsamer agieren zu können und AMD zugleich das Pech, mehr Saft zu benötigen.

Also zwei Extreme, die man hier sieht.

Wenn der Gegner die 4080 ist, liegt man bei der Performance auch gar nicht so schlecht. Selbst bei der RT-Leistung ist man zwar nicht gleichauf (was schön gewesen wäre), aber auch nicht in einem Bereich, der die Karten nutzlos werden lässt.

Lassen wir FG mal außen vor.

Exxtreme
2023-03-11, 19:51:33
Wo? Anscheinend ist dir vorbeigegangen, dass der Absatz um 41% eingebrochen ist und man daher einfach die Preise verdoppelt, um die gleiche Gewinne zu generieren.

AMD ist dabei einn der Firmen die kräftig mitverdienen wollen.

Absatz eingebroch ggü. dem Mining-Boom? Natürlich. Das war auch die Ausnahme. Es ist aber trotzdem so: in einer Marktwirtschaft kann man keine Ware zu billig anbieten, ohne diese auf irgendeine Art und Weise zu subventionieren. Deal with it oder wandere nach Nordkorea aus wo Preise per Dekret festgelegt werden. Aber ob du da Radeons kaufen kannst, das steht in den Sternen.

Gast
2023-03-11, 20:00:33
Dualchip-Grafikkarten sind tot. :) Sie werden bei fast keinem aktuellen Spiel funktionieren und man wird nur mit einem Chip spielen müssen.

Es ist ja nicht dual chip. Es ist dual die, MCD, dargestellt als Single chip nach außen für den Rest des PCs/die Software. Die Verbindung zur Aussenwelt läuft ja angeblich über die io dies bzw. Den interposer?

Platos
2023-03-11, 20:01:59
Also bezüglich billige AM5 Plattform: Bis die (inkl. RAM und CPU) gute Preise hat, wird Zen4 schon lange vorbei sein.

Beispielsweise die "normalgängigen" Grafikkarten müsste man sowieso bringen, ganz egal ob man etwas an der Leistungsspitze stehen hat oder nicht. Das eine schließt das andere keineswegs aus, der Idealweg besteht darin, beides zu machen.

Das sehe ich nicht so. Dieses ewige "immer mehr" mit absurden Stromverbrauchen erkaufen, sehe ich nicht als "Idealweg".

Das heisst natürlich nicht, dass AMD das jetzt nicht als Ausrede benutzt. Aber diese absurden Stromverbräuche an der Spitze(n) sehe ich nicht als Ideal an.

OpenVMSwartoll
2023-03-11, 21:06:36
Es ist ja nicht dual chip. Es ist dual die, MCD, dargestellt als Single chip nach außen für den Rest des PCs/die Software. Die Verbindung zur Aussenwelt läuft ja angeblich über die io dies bzw. Den interposer?

Sachlich richtig, war ja auch zu erwarten. Aber mich deucht, dass es irgendwo bei der Implementierung noch hakte.

hardtech
2023-03-11, 21:17:49
amds marketing war schon zu athlon zeiten nicht das beste und scheinbar haben sie kein geld für gute leute.
die aussage amds, nicht oben mitspielen zu wollen ist lächerlich wie haltlos.
die cpus verbrauchen idle zu viel. die gpus sind auch net besser.
energieeffizienz steht bei amd nicht an 1. stelle. leistung auch nicht.
also bleibt nur platz 2 von 3 (marktplayern, wenn man intel ernsthaft dazu zählt) und damit müssen sie über den preis kommen. 7900xt sinkt bereits.

Aroas
2023-03-11, 23:10:07
Was für eine gequirlte Kacke, die AMD da von sich gegeben hat.
Man will also angeblich in Sachen Stromverbrauch in das "Mainstream" Segment passen, ja? Warum verkauft man die Karten dann zu Preisen, die mit Mainstream nichts das Geringste zutun haben?
Weit über 1000€ für eine 7900XTX sollen "Mainstream" sein?
Wieviel Lack haben die gesoffen?

Leute, die sich für dieses Geld eine Grafikkarte kaufen, haben mit Sicherheit auch kein Problem damit, sich ein 1000W Netzteil zu kaufen bzw. den entsprechend hohen Stromverbrauch bezahlen zu können.

AMDs Erklärung wirkt lächerlich, ja geradezu erbärmlich.

Linmoum
2023-03-11, 23:32:55
Sie können sich halt schlecht hinstellen und sagen, dass das Ding eigentlich mit 3GHz++ geplant war, man aber schlicht gefailed und die eigenen (Design)Ziele verpasst hat.

Und jetzt kommt mir keiner mit "das muss ja gar nicht stimmen und ist nur ein Gerücht". Der Chip schafft in Compute Tasks spielend leicht deutlich (!) über 3GHz, ohne den Verbrauch dabei explodieren zu lassen.

Außerdem braucht mir AMD nicht erzählen, dass man mit RDNA2 noch einen xx90-Konkurrenten hatte, sich dann mit RDNA3 aber gegen einen xx90-Konkurrenten entschieden hat. Zum einen wusste AMD vor Jahren gar nicht, wie ein AD102 aussieht um beurteilen zu können, ob das ja nie das Ziel gewesen ist. Und zum anderen ist dieses "600W!!"-Argument auch nur noch lächerlich. Der Verweis auf die Kühlerausmaße genauso, die meisten RDNA3-Customs sind da auch kein Kind von Traurigkeit. Die Hersteller wissen halt, dass Leute trotzdem eher leise(re) Karten haben wollen und das geht unter Luft bei 350W-400W+ nur mit hohem Materialeinsatz.

necro1970
2023-03-12, 01:34:34
Eine verständliche Marketingausrede, da auch AMD davon überrascht wurde, dass die 4090 eben doch nicht wie geplant in Samsung 8nm (wo man evtl. 600W gebraucht hätte), sondern in TSMC 4nm gebaut wird...
Und da AMD mit ihren Prognosen NV so verunsichert hat - dass diese mit der 4090 gleich eine unerreichbare Karte gebaut haben...tja.
So überrascht wie die Boardpartner, die ihre schon gebauten 600W fähigen Kühler nicht verschrottet, sondern eben verbaut haben.

Also das Resulat überzeugt mich auf voller Linie - sowas von.
Die 4090 (eine Gigabyte Variante) ist die potenteste, leiseste und kühlste Karte, die ich je nutzte. Das komplette Gegenteil zu meiner damaligen 3090, die ich ob ihrer affig hohen Speichertemperaturen weggeben habe.
Passt locker in den Midi/Bigtower.
Mit dem original Corsair 12VHPWR sleeved Kabel zum existierenden HX1200i Netzteil sauber und aufgeräumter in der Installation, als selbst eine Karte mit nur einem klassischen PCIe 6/8 Pin Stecker.

Braucht in der Praxis quer durch alle Games bzw. Programme teils erheblich weniger, als meine alte 3080ti (bei um Welten besserer Performance). Inkl. 0 Fan Betrieb/<50°C bei leichten Lasten im 3 Monitorbetrieb.

Da im Vergleich ein Witz, liegt die 3080ti nun auch wieder i.d. Schachtel im Hardware-Reserve-Kasten.
Dass die neuen 7900er Karten weder Konkurrenz noch Option sind (für mich zu wenig Leistung mit zu viel Stromverbrauch, im Verhältnis zu teuer, sehr maue Kühllösungen (der reference Karten) - geschenkt.
Denn es ist sehr wichtig, dass AMD am Ball bleibt - ohne den Druck und Konkurrenz gäbe es die 4090 in der Form schlicht nicht (und lediglich die üblichen homöopathischen Leistungssprünge ala GTX1000->2000)

GerryB
2023-03-12, 03:00:46
So viel Schmarrn wie hier Einige von sich geben, Wow!

4090 GCD=600mm²@450W
7900 GCD=306mm²@350W

Wo hätte AMD da ein Problem gehabt von 6 Shaderengines auf 8 hochzugehen mit 400mm² GCD?
Lt. Locuza sinds ca. 27mm²/je Shaderengine (8 Stck geht daher genauso mit 450W wie 12 bei NV)

Einzig und Allein die Kundschaft fehlt, weil eh die kleinen Jungs mit der dicken Hose green gekauft hätten.
(wg. ein paar Enthusiasten macht AMD halt keinen extra Chip)

btw.
Der FrontEnd-Takt ist bei den OCern übrigens schon größer als 3,7Gig in MW2!
(das Silizium kann, was es soll)
https://www.youtube.com/watch?v=qVEHxzMG9XA&t=29s

Leonidas
2023-03-12, 05:22:05
Jetzt mal kurz hochrechnen, wo N31 mit 3.7 GHz herausgekommen wäre ... da hätte die 4090 kaum noch gereicht.

Gast
2023-03-12, 08:40:07
Jetzt mal kurz hochrechnen, wo N31 mit 3.7 GHz herausgekommen wäre ... da hätte die 4090 kaum noch gereicht.
Na ja auch die shader gehen auf 3,0-3.3ghz, sehr dynamisch. Aber auch hier 460w dauerlast und hart im powerlimit.
Gibt es irgendwo einen guten Review mit solchen settings für ein ganzes testparcour?

Gast
2023-03-12, 10:56:21
Sie hat aber keine 3,7 GHz Takt und wäre dann wohl bei weit über 6000w herausgekommen. AMD ist einfach unwillens Enthusiast zu bedienen und die Aussagen dazu bestätigen das nun. Es wird keine Rdna3 Karte geben, die die 4090 schlägt. Die 4080ti, sollte sie noch kommen, werden sie genauso wenig schlagen.

Warum man dann Preise wie Enthusiast verlangt muss man mal erklären, es gibt keine Zulieferprobleme, es gibt keinen Mangel an Bauteilen, es gibt keinen Stopp in Fertigingsstrecken (ausser den den AMD bei den 7900xtx MBA Karten selbst verursacht hat=fehlende Qualitätskontrolle). Der Markt ist komplett ubersattigt, dazu fehlt AMD das Vermögen zur Konkurrenz aufzuschliessen.
Die Marge liegt bei 49%! Dann muss die Marge runter weil das Produkt eben klar unterlegen ist! Die Lager liegen voll Inventar, niemand am Markt braucht noch GPUs die sich nicht verkaufen. AMD ist selbst Schuld, nur das kann man sich nicht eingestehen. Poor Rdna 3...

Frontendtakt, lol wen interessiert das. Wieder so ein Marketingefasel das den Fans die Hardware schmackhaft machen soll. Und nur so, OC Karten saufen bei Rdna3 als gäbe es kein morgen mehr. Genau die würden wohl auf 600w entwickelt und im Nachgang künstlich beschnitten weil da was schief gelaufen ist. AMD nennt es zukünftigen Experimentierstatus. Wer glaubt das noch, die Liste hohler Versprechen ist lang bei AMD.

Das war imo der schlechteste und schlimmste Launch seit Jahren, Schade um den Namen Radeon.

MiamiNice
2023-03-12, 11:23:29
Einzig und Allein die Kundschaft fehlt, weil eh die kleinen Jungs mit der dicken Hose green gekauft hätten.
(wg. ein paar Enthusiasten macht AMD halt keinen extra Chip.

Dummes Problem für AMD. Die kleinen Jungs kaufen nämlich nur da wo der Balken am längsten ist. Wenn AMD also kein 4090 Killer bringen will, will auch fast niemand deren kleinere Produkte kaufen.

Linmoum
2023-03-12, 11:45:41
So viel Schmarrn wie hier Einige von sich geben, Wow!
4090 GCD=600mm²@450W
7900 GCD=306mm²@350W
Ersteres kann man nur zurückgeben. Oder wie kommt man darauf, dass die 608mm2 der 4090 nur AMDs GCD entsprechen?

Nvidia verkauft wahrscheinlich von der 4090 mehr Karten, als es AMD von N31 je tun wird. Das Halo-Produkt findet immer seine Käufer, so sehr Nische ist das gar nicht (mehr), wie vielleicht noch vor ein paar Jahren. Zumindest dann nicht, wenn die GPU auch extrem schnell ist und alles andere in den Schatten stellt.

Warum der hohe Takt in Spielen nur bei absurd hohem Verbrauch möglich ist (und auch dann längst nicht in der Form wie in Compute Tasks), darüber lässt sich nur mutmaßen. Gewollt sein kann das bei einer Gaming-Architektur sicher nicht. Kann mir auch keiner sagen, dass AMD sowieso nur einen AD103 (Raster) bzw. AD104 (RT) angepeilt hat. Alleine AMDs GCD ist größer als der gesamte AD104 und auch AD103 ist nur unwesentlich größer und wird dank des monolithischen Dies vermutlich sogar günstiger zu fertigen sein. Was AMD hier wieder an Silizium aufwenden muss, um mit der Konkurrenz mithalten zu können (also in der Form, wie die Karten tatsächlich auf den Markt gekommen sind und nicht das, was potentiell vielleicht möglich war/ist), ist schon nicht mehr lustig.

Gast
2023-03-12, 13:52:08
Sieht eher danach aus, dass man nun offiziell seitens AMD bestätigt das es keinen 4090 Konkurrenten geben wird. Als Enthusiast kannst du nun bei der 4090 zuschlagen. AMD bleibt im eigenen Mainstream gefangen, wie sie selbst bestätigen und will wohl auch nicht mehr. Ob mehr ginge steht daher gar nicht zur Debatte. Enthusiasten gehen bei AMD mal wieder leer aus.

Warum man dann solche Preise verlangt, und zusätzlich eine 7900xtx als Prosumer bewirbt weiß nur AMD selbst. Wegen 24GB VRAM die diese GPU wird nie füllen können? Den werfen sie dir als stinknormalen GDDR6 mittlerweile hinterher. IMO stehen die sich selbst im Weg. Was sie bei den CPUs richtig machen, machen sie im Bereich GPU falsch. Warum auch immer liegen ihre Prioritäten seit Jahren auf CPUs, genau deshalb hat ja auch Koduri den Laden verlassen. Denke ihre Anteile werden nach solchen Aussagen weiter schwinden. Die haben Nvidia komplett unterschätzt und die wiederum haben ihnen eine 4090 vor den Latz geknallt was noch nicht mal der Vollausbau ist. Was haben die sich vorgestellt, was da kommt?

Kann man leider nicht anders erklären und um die kleineren Chips soll es ja noch übler bestellt sein. Die schicken sie erst gar nicht in den Markt. Komplett verwachst, mal wieder, abhaken.

Was alle bereits vermutet haben ist nun offiziell bestätigt, dass es keinen ADA102 Konkurrenten im Bereich Gaming geben wird. Na dann haut mal rein AMD. Eure überteuerten CPUs kaufe ich ebenfalls nicht.

Gast
2023-03-12, 15:16:46
Dualchip-Grafikkarten sind tot. :) Der Smiley ist unangebracht.
AMD & NVidia haben das zu großen Teile selbst verursacht. Rächt sich jetzt. Zugegeben war ich als Befürworter immer Mini-Minderheit.

necro1970
2023-03-12, 18:08:11
Ersteres kann man nur zurückgeben. Oder wie kommt man darauf, dass die 608mm2 der 4090 nur AMDs GCD entsprechen?

Nvidia verkauft wahrscheinlich von der 4090 mehr Karten, als es AMD von N31 je tun wird. Das Halo-Produkt findet immer seine Käufer, so sehr Nische ist das gar nicht (mehr), wie vielleicht noch vor ein paar Jahren. Zumindest dann nicht, wenn die GPU auch extrem schnell ist und alles andere in den Schatten stellt.

Bingo. Da ich damit nicht nur neue Titel auf max/ultra (d.h. 100% "as intented", sprich so wie eigentlich designed) mit mehr als anständigen Frameraten geniessen kann, dito anspruchsvollere ältere Titel endlich ebenso - ohne dabei jemals auch nur in die Nähe von 450W zu kommen - ist das eine.
Dass ich geliebte ältere Titel mit 144 FPS CAP auf teils unter 100W und lüfterlos geniessen kann, wie auch ein 3 Monitor Setup für's Arbeiten - ist noch lässiger.
Wie gesagt, meine (damals als neu sehr geschätzte) 3080ti ist im Vergleich zu meiner 4090 beinahe in jeder Beziehung obsolet und witzlos - und nun wieder i.d. Schachtel/auf Reserve.
Und sie hat auch noch 1-2 CPU Generationen bzw. Refresh's Luft nach oben, da dzt. ohnehin jede CPU/Plattform "zu langsam" ist.
Und das für real weniger € als damals die 3090...da musste ich nicht 2x nachdenken...

Zu AMD sag ich nur 2 Dinge:
1. Gut dass es sie als Konkurrenz gibt.
2. So sehr sie bei CPUs rocken, so wenig tun sie das mit der Radeon. Hatte kurz eine 6800xt, um es nach Jahren wieder mal, mit wirklich wohlwollendem Herangehen, zu probieren, als Update für einen der anderen Familien PCs - Resultat: den Versuch hätte ich mir sparen können.

Gast
2023-03-12, 21:19:21
Wenn AMD mit dem Energieverbrauch argumentiert so machen sie sich meiner Meinung nach ziemlich lächerlich. Die 4090 braucht in der Praxis laut igorslab um die 370W. Das ist weniger als so manche 7900 XTX AIB Modelle.
Ja, aber das liegt daran, dass die 4090 bei Igor wohl im CPU Limit gemessen wurde. Da kann sie dann entsprechend runter takten, die voltage droppen und somit schön Strom sparen. Bei TPU war sie in CP2077 bei 477W, was doch ziemlich krass von Igor abweicht. Siehe hier auf der Seite ganz unten:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/39.html
Den Fehler von Igor haben wohl einige Reviewer gemacht, weil es damals halt kaum CPUs gab, die eine 4090 wirklich auslasten konnten (eigentlich nur die Alder Lake Topmodelle, inzwischen halt Raptor Lake und R7k 3d; Igor hatte einen 7950X, dem da halt grob 10% Leistung fehlt). Aber wenn die GPU halt statt Maximaltakt mit 100-200MHz weniger klar kommt, sinkt der Verbrauch halt massiv ab.
Insofern würde ich das mit dem Verbrauch durchaus passend sehen, wenn auch als vorgeschobenes Argument. Aber das war nicht AMDs wirkliches Problem. Das ist nämlich, dass niemand eine AMD Karte in dem Preisbereich kaufen würde. Insofern macht es einfach keinen Sinn, so eine Karte zu bringen, weil das Ding zu wenig Absatz hätte und damit nur Miese machen würde. Und das kann man sich halt nicht erlauben.

Auch ein paar Argumente finde ich nicht ganz passend. AMD musste die RT Leistung deutlich erhöhen, dadurch musste man auch viel am Chip anpassen und erweitern. Und die Dual Issue Sachen hat man vermutlich eher für CDNA gebraucht. Die werden sicherlich viele Ansätze mit verwenden. Letztendlich hatte NVidia ja das Thema auch bei Ampere, da muss AMD klar gewesen sein, dass es beim Gaming nicht so viel bringt.

Gast
2023-03-13, 07:32:50
So viel Schmarrn wie hier Einige von sich geben, Wow!

4090 GCD=600mm²@450W
7900 GCD=306mm²@350W



Allen voran du.

1. Das GCD von AD102 ist keine 600mm² die 600mm² entsprechen "GCD + MCD", wenn du schon so rechnest, dann bitte mit der vollen DIE-Size (GCD + MCDs) auf AMD seite.

2. Das GCD ist bei AMD nicht für die 350W verantwortlich, selbst die 450W bei Nvidia stimmen nicht, da hier auch der Verbrauch der Bauteile auf der Platine inkludiert ist. Bei AMD geht aber mit Sicherheit ein nicht unerheblicher Teil des Verbrauchs auf die Kommunikation zwischen GCD und MCDs.

Wo hätte AMD da ein Problem gehabt von 6 Shaderengines auf 8 hochzugehen mit 400mm² GCD?
Lt. Locuza sinds ca. 27mm²/je Shaderengine (8 Stck geht daher genauso mit 450W wie 12 bei NV)

Einzig und Allein die Kundschaft fehlt, weil eh die kleinen Jungs mit der dicken Hose green gekauft hätten.
(wg. ein paar Enthusiasten macht AMD halt keinen extra Chip)

btw.
Der FrontEnd-Takt ist bei den OCern übrigens schon größer als 3,7Gig in MW2!
(das Silizium kann, was es soll)
https://www.youtube.com/watch?v=qVEHxzMG9XA&t=29s[/QUOTE]

Legendenkiller
2023-03-13, 08:55:18
das AMD 4090 Gegenstück war ja auch mal mit bis zu 15.360 Shader angekündigt. Die 7900XTX hat "nur" 12.288.
Was noch mehr zeigt das bei AMD die Kartennamen auch nicht passen.

eine 7900XT ist ebend nur eine 7800 und eine 7900XTX nur eine 7800XT.
und die 7900XT mit 15.360 Shadern fehlt schlicht noch.

eine echte 7900XT mit 15.360 Shadern und 450W würde Nvidia zwingen eine 4090ti rauszubringen ;-)

PS: aber ich denk auch das die Zielgruppe für AMD einfach zu klein ist, das sich das lohnen würde.

Exxtreme
2023-03-13, 08:57:57
das AMD 4090 Gegenstück war ja auch mal mit bis zu 15.360 Shader angekündigt. Die 7900XTX hat "nur" 12.288.
Was noch mehr zeigt das bei AMD die Kartennamen auch nivht passen.


Vielleicht bringt AMD auch noch eine 7950 XXXTXXTTTXXXX als Refresh oder so? X-D

Ja, die Namen sind echt dämlich gewählt bei AMD. Nvidia hat sich da ehrlicher gemacht und die RTX 4080 12 GB ind 4070Ti umbenannt was auch besser passt.

Lehdro
2023-03-13, 13:45:26
Nvidia hat sich da ehrlicher gemacht und die RTX 4080 12 GB ind 4070Ti umbenannt was auch besser passt.
Das ist nichts positives für NV, versucht haben sie es trotzdem, sind nur krachend gescheitert. Die 4080 12 GiB ist der Beweis das sich beide bei dämlichen Namensgebungen halt gar nix nehmen. Bei der 3060 (8 GiB vs 12 GiB) treibt NV dieses Benehmen sogar noch auf die Spitze - was wohlgemerkt NACH dem 4080 12 GiB Desaster passierte. Top! :rolleyes:

Leonidas
2023-03-14, 04:55:13
und die 7900XT mit 15.360 Shadern fehlt schlicht noch.

Die wird es natürlich nicht mehr geben. N31 hat 12k FP32, da bringt kein Mensch einen extra Chip mit 15k raus - weil: Differenz zu klein. Wenn, dann würde es deutlich größer werden. Die 15k sind sowieso nur eine Alt-Spec von N31, aber der Chip hat nun einmal final nur 12k bekommen.

Gast
2023-03-21, 08:49:18
Der Funken Wahrheit an der Sache:

Außerhalb von NV dürfte lange niemand über die wahre Performance der Lovelace Generation bescheid gewusst haben. Mittlerweile gibt es ja bis kurz vor Marktstart nicht mal funktionierende Treiber außerhalb von NV. Die ganzen Testtreiber taugen rein als Heizkörper um die thermale Lösung testen zu können.

AMD dürfte aber sehr wohl von den 600W Testboards mitbekommen haben, was für AMD das Zeichen war, dass NV die Krone um jeden Preis will.
Es war wohl tatsächlich eine bewusste Entscheidung die 600W nicht mitzugehen, und damit die Performancekrone bei 600W nicht anzugreifen.

Was sicher keine bewusste Entscheidung war, ist das Ergebnis, dass man selbst bei gleicher Leistungsaufnahme weit weg von der Konkurrenz ist.

Leonidas
2023-03-21, 09:05:55
So ähnlich denke ich mir das auch. NV hat gut gepokert - und AMD hat das bessere Blatt gesehen und lieber auf "Verluste geringhalten" gesetzt.

Lehdro
2023-04-05, 14:03:51
AMD hat sich gegenüber GN nochmals zu dem Interview bzw. dessen Interpretation geäußert:
qlPSNOU2WEA

Relevanter Timestamp (https://youtu.be/qlPSNOU2WEA?t=633)

Leonidas
2023-04-07, 05:59:52
Exzellent. Danke für den Hinweis!