Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 4. November 2022
Leonidas
2022-11-05, 10:18:00
Link zur News:
https://www.3dcenter.org/news/news-des-4-november-2022
Das dürfte doch jedem klar sein, seit wann werden denn 999$ mit 1699$ Produkten verglichen. Das tun nur Fanbois um sich den Preis der 4090 schönzureden.
Ich vergleiche auch keinen 7600x mit dem 13900k, jedenfalls nicht direkt. Ich glaube nicht mal das AMD sowas nicht entwicklen würde oder könnte. Sie haben schlichtweg keinen Markt dafür und damit wäre es kompletter Nonsens, auch wenn sich die Fans das erhoffen. Sie tun es aber hauptsächlich aus Gründen der Preiskonkurrenz um davon zu profitieren. Das hat AMD jahrelang zu spüren bekommen, selbst als sie einigermaßen auf Augenhöhe waren wurde Nv gekauft, warum sollten sie hier den Messias spielen. Gibt keinen Grund. RTG muss so wirtschaften das sie auch Gewinne einfahren, um das Zeug das sie in Zukunft vermarkten wollen auch entwickeln zu können.
Bei Nv ist ganz klar und mittlerweile erkennbar was der gesamte Support, Devrel, dedizierter Kram, RTX, Tensor und Leistungssteigerungen kosten. Auf einer 4090 hat man definitiv keine 60-70% Marge. Die liegt wohl eher bei 20%. Da wird es für die nächste Gen schon eng, das gegenzufinanzieren. 60-70 und derzeit 40-50% ist die Gesamtbruttomarge des Unternehmens, nicht die einzelner Produkte. Ich vermute mal das die Marge bei Ampere Gamer ab der 3080 mittlerweile deutlich unter 20% liegt.
AMD kann sowas gar nicht leisten, deren Anteile sind viel zu klein um soetwas kompensieren zu können, dann macht es mehr Sinn sich da zu positionieren wo man es kann. Nv beitet diese Lücke im eigenen Portfolie dann auch noch an (ADA102 to ADA103). Zuerst vergleicht man sich immer selbst und intern, Gen zu Gen und da liefert AMD zu fast gleichbeliebenen Preis mehr Leistung, höhere Effizienz und eine bessere Ausstattung (VRAM), Später noch einen braichbaren Anteil an Support und dazugehöriger Softwarebasis, wie eben FSR3. Diese ewigen Vergleiche mit Nvidias Haloprodukten oder Insellösungen für nicht mal 1% der User (die vermutlich viel weniger wirklich kaufen), also Titanen nerven.
Die RX7000 Serie zeigt klar auf dass es keine 4090ti geben wird! Auch da haben die Insider den Markt mit kompletten Fakenews versorgt. Die derzeitig vorherrschende Ernüchterung und Enttäuschung, ist klar der Vorberichtsersttung auf Basis der Insiderinfos geschuldet und da hat sich 3dcenter sogar noch mit beteiltigt. Jetzt auf AMD einzuschlagen halte ich komplett für falsch, sry. Ihr solltet prüfen ob eure Insiderinfos überhaupt solche Vorabnews um Hardware als glaubwürdige Quelle und Informationsgeber erlauben. Ich persönlich glaube das nämlich nicht.
Ich spreche in dem Fall für AMD und Nvidia. Man muss sich nicht wundern wenn sich Unternehmen gegenüber solcher Berichterstattung dann immer mehr verschließen.
3dcenter war einer dieser Quellen, wo man immer wieder darauf hinweisen musste das die Insidernews kompletter Quatsch sind, man hier aber vehement darauf beharrt hat. Mit der Kritik müsst ihr in jedem Fall leben und lernt daraus hoffentlich etwas. Letztlich macht ihr euch selbst unglaubhaft.
Gibt es denn schon handfeste Infos über die Media Engine von AMD? Auf der Produktseite sind zwar alle möglichen Features vorgestellt aber nichts über die Media Engine zu lesen. Av1 de- und encoding wurde ja in der Präsi hervorgehoben, was Nvidia ja scheinbar noch ausgespart hat. Wenn hevc in verschiedenen Farbabtastungen unterstützt wird (die Präsentation hatte ja hervorgehoben dass es für multiple 4k Streams optimiert ist) ist diese AMD-Generation möglicherweise Nvidia vorzuziehen für Content Production zumal die Speicherbestückung bestens geeignet ist für Videoschnitt. Ich bin sehr gespannt auf erste Tests von Pugetsystems.
Hier gibt es auch noch keine Infos zu der Veröffentlichung von reviews oder? Die letzten Launches wurden ja immer sehr nah an die Konkurrenz gelegt, vllt dürfen wir ja auch schon mit reviews kurz nach dem 4080 Launch rechnen - so ließen sich evtl einige potentielle Nvidia-Käufer umstimmen lassen.
Hervorgehoben wurde ja auch, dass die Am5 Plattform für de- und encoding einen Vorteil bietet in der koordinierten Lastverteilung auf CPU und GPU, das lässt hoffen, dass dieses Mal ein Schwerpunkt auf Content Production gelegt wurde.
Gastein
2022-11-05, 13:04:00
Die Videoengine wird erstmals von Adobe und von OBS erstmals in Zusammenarbeit mit AMD unterstützt. Von daher sollte das besser laufen als wie zuvor.
Die Smart Tech funktioniert dann angeblich so, dass wenn die CPU den gleichen AV-Codec eingebaut hat die Last zwichen CPU und GPU aufgeteilt wird, also AMD only.
Bei 3 GHz overclocking sind 20% mehr Leistung drin. Ob es das Wert ist muss man abwarten, vermutlich nicht. Die FPS Zahlen mit FSR sind ja so schon teils absurd hoch, da wird man dann den Cap bei 144Hz oder ganz Verrückte bei 240Hz mit FSR einstellen und darüber hinaus doch eher ne kühlere GPU geniessen.
H0fn43rrchen
2022-11-05, 13:20:43
Bei der Diskussion um 4090vs7900vs4080 zeigt sich mal wieder wie verquer unsere Welt zwischenzeitlich ist. Immer muss ein Produkt - vor allem, wenn man ein unbelehrbarer Verehrer einer Marke ist - das Konkurrenzprodukt in den Schatten stellen. Als ob das eigene Ego davon abhängen würde. Nun ja, angesichts der Tatsache, dass sich das Selbstwertgefühl mancher Personen an den Likes in den Sozialen Medien misst und manche Personen auch aus diesem Grund horrende Summen ausgeben um in selbigen besser dastehen zu können oder entsprechenden Einfluss ausüben zu können, ist das auch keine Überraschung mehr.
Lange Rede kurzer Sinn: Wenn man das künftige Angebot von AMD nüchtern betrachtet - endgültig lässt sich dies erst nach unabhängigen Tests sagen - ist es durchaus gut. Vor allem auch deswegen, weil AMD - im Gegensatz zur Konkurrenz - die Preise nicht nach oben getrieben hat. Wenn man es ganz genau nimmt, dann wurde der Preis der RX 7900 XT im Vergleich zur RX 6900 XT sogar um 100$ reduziert und dafür gibt es zusätzlich noch einen merkenswerten Performanceaufschlag ohne den Verbrauch zu erhöhen. Aber das scheinen einige gern zu vergessen, wenn man nicht die Leistungskrone erringt. Schließlich gilt in machen Kreisen der zweite Platz ja als der erste Verlierer und diese Einstellung ist wirklich armselig.
Robinsky
2022-11-05, 13:39:33
Die RX7000 Serie zeigt klar auf dass es keine 4090ti geben wird! Auch da haben die Insider den Markt mit kompletten Fakenews versorgt.
Das lässt sich so noch nicht sagen. Zwar wird die Yieldrate eines so großen Chips samt neuer N4-Fertigung nicht Unmengen an Binning-Möglichkeiten bieten, aber die letzten Jahre haben gezeigt, dass die verlängerten Releaseabstände aufgrund größerer Abstände neuer Fertigungsverfahren für einen gewissen Refreshdruck sorgen. Ich halte einen Vollausbau von Ampere als 4090ti oder Super / Titan whatsoever für durchaus realistisch. Die Tests der 4090 haben ja auch gezeigt, dass die Chips auch mit weniger Strom betrieben werden können, gleichzeitig findet ja immer eine gewissen Chipoptimierung im Hintergrund statt, sodass Yieldrate und Prozessoptimierung im Hinblick auf P/W innerhalb eines Jahres auch zu gewissen Reserven führen, die widerum ihren Weg als Refreshlösung in den Markt finden könnten.
Gerüchte bzgl. 2 GCD-Chiplets gab es ja auch immer wieder. Und für AMD besteht genauso die Möglichkeit entweder mithilfe der Brechstange und Taktreserven in den Enthusiastenbereich vorzudringen oder über die Chipbreite im Sinne von 2 GCD's. Hier von Fakenews zu schreiben ist - denke ich - übertrieben. Entsprechend benannte "Gerüchten" sollte man eben als Leser/in auch als solche behandeln auch wenn die hier oft zitierten (sehr knappen) Twitternarichten nicht immer im konjunktiv verfasst sind. Es sind halt keine "News" und somit kann man auch nicht von "Fakenews" sprechen sondern eine Art Besprechung und Einordnung verschiedener Gerüchte, die ich als durchaus unterhaltsam empfinde.
3dcenter war einer dieser Quellen, wo man immer wieder darauf hinweisen musste das die Insidernews kompletter Quatsch sind, man hier aber vehement darauf beharrt hat. Mit der Kritik müsst ihr in jedem Fall leben und lernt daraus hoffentlich etwas. Letztlich macht ihr euch selbst unglaubhaft.
Dieser "komplette Quatsch" hat sich jetzt auch nicht selten als im Nachhinein zumindest Teilwahrheit in den tatsächlichen Produkten manifestiert. In Zeiten von 2-jährigen Releasezeiträumen oder mehr würden tatsächliche News bezüglich neuer Hardware eben dann nur grob alle 2 Jahre zu lesen sein. Der (auch bei mir vorhandene) scheinbar hohe Bedarf an Infos, Diskussionen und Performance-Projektionen künftiger Hardware wird hier im 3DCenter eben fast täglich (!), unentgeltlich und so wie ich das verstehe nahezu in Personalunion gefüttert. Dabei kann ich nicht behaupten nicht ständig beim lesen darauf hingewiesen zu werden, dass es sich um Gerüchte handelt weshalb sich hier nach meinem Verständnis auch niemand "unglaubhaft" veröffentlicht.
3 Sachen:
1. Warum wurden die n31 Karten dann 7900xt/x und nicht 7800xt/x tituliert? Das würde viel Verwirrung abschaffen und AMD die Möglichkeit eine tatsächliche 79xx Serie mit dem 3dcache oder 2x n32 aufzulegen.
2. AMD hat den Preis und die Leistung wieder mit Absicht so gestaltet, dass es keinen direkten Konkurrenzkampf mit Nvidia gibt, um teurer verkaufen zu können.
3. Wie schnell wäre denn 7900xtx mit 450w, wie stark würde die Effizienz zurück gehen? Vermutlich rasterizer schneller als 4090. AMD hatte ja eine kllimited Edition oder lc Edition mit 450w machen können.
Gastein
2022-11-05, 14:47:33
Dieser "komplette Quatsch" hat sich jetzt auch nicht selten als im Nachhinein zumindest Teilwahrheit in den tatsächlichen Produkten manifestiert. In Zeiten von 2-jährigen Releasezeiträumen oder mehr würden tatsächliche News bezüglich neuer Hardware eben dann nur grob alle 2 Jahre zu lesen sein. Der (auch bei mir vorhandene) scheinbar hohe Bedarf an Infos, Diskussionen und Performance-Projektionen künftiger Hardware wird hier im 3DCenter eben fast täglich (!), unentgeltlich und so wie ich das verstehe nahezu in Personalunion gefüttert. Dabei kann ich nicht behaupten nicht ständig beim lesen darauf hingewiesen zu werden, dass es sich um Gerüchte handelt weshalb sich hier nach meinem Verständnis auch niemand "unglaubhaft" veröffentlicht.
Zumal Gerüchte 6 Monate vor Release ja nur aus den Planungsunterlagen und Labors kommen können. Logisch dass da sich manches nicht in Endprodukten zeigt oder auch mal später oder wo anders auftaucht als gedacht.
Preise und Produktnamen und Klassen können gar wenige Tage bis Wochen zuvor noch neu festgelegt werden.
Würde jetzt nicht sagen es wäre eine Bringschuld den Leuten das jeden Monat aufs Neue zu erklären. Ist wohl auch nur ein Thema fürs Fanboi gehate. Bei Erlkönigen kommt auch keiner hinterher mit nänänä wenns nicht genau gleich aussieht, nur um mal wieder Autovergleiche zu bemühen ;D
madshi
2022-11-05, 15:34:54
Auf einer 4090 hat man definitiv keine 60-70% Marge. Die liegt wohl eher bei 20%.
Hängt davon ab, wen Du mit "man" meinst. Nvidia hat immer noch sehr hohe Margen. Die AIBs dafür deutlich weniger.
Die RX7000 Serie zeigt klar auf dass es keine 4090ti geben wird! Auch da haben die Insider den Markt mit kompletten Fakenews versorgt.
Puh, geht's noch? Die Leaker sagen schon seit Wochen, daß es wohl vorerst keine Titan oder 4090 Ti geben wird. Haben die irgendwann mal gesagt, daß es definitiv eine geben wird? Ich denke nicht. Daß es eine geben könnte? Natürlich.
Du tust so, als hätte Nvidia schon vor 1 Jahr alle Entscheidungen getroffen, und alles ist in Stein gemeißelt und ändert sich nicht mehr. Das ist aber vollkommener Blödsinn. Viele Entscheidungen werden kurzfristig getroffen. Viele Entscheidungen können überhaupt erst getroffen werden, nachdem die ersten Chips aus der Fertigung kommen und man damit testen kann. Und dann spielt auch noch eine sehr große Rolle, was die Konkurrenz macht.
Leaker wissen natürlich nicht mehr als Nvidia selbst weiß. Wenn ein Leaker die volle Wahrheit berichtet, aber Nvidia dann seine Pläne ändert, dann sieht es so aus als hätte der Leaker Blödsinn erzählt. Aber vielleicht hat Nvidia einfach nur die Pläne geändert.
Klar gibt's immer auch falsche Gerüchte und Enten. Z.B. wurde gesagt, daß Lovelace keine kombinierten FP32/INT Einheiten mehr haben würde, und daß hat sich als ganz einfach falsch heraus gestellt.
Grundsätzlich aber bin ich überzeugt davon, daß die zuverlässigeren Leaker (Kopite, Greymon, MLID und ein paar andere) in der Regel korrekte Infos berichten.
Um NV zu übertreffen, müsste AMD nur die Größe des GDC verdoppeln und mehr Cache stapeln. NV hätte dann (ähnlich wie Intel) das Problem, mit monolithischen Chips an die Grenzen der Fertigung zu stoßen. :)
MadManniMan
2022-11-05, 17:41:40
Jetzt mal ganz blöde gesprochen ... ich hätte in Anbetracht der Leistungs- und Preisregionen "Radeon RX 7800 XT(X)" erwartet ¯\_(ツ)_/¯
Bei 3 GHz overclocking sind 20% mehr Leistung drin. Ob es das Wert ist muss man abwarten, vermutlich nicht.
Vega56 benötigt für ~20% mehr Leistung über 600W. :ugly:
https://www.gamersnexus.net/guides/3382-rtx-2070-versus-power-modded-vega-56
1. Warum wurden die n31 Karten dann 7900xt/x und nicht 7800xt/x tituliert? Das würde viel Verwirrung abschaffen und AMD die Möglichkeit eine tatsächliche 79xx Serie mit dem 3dcache oder 2x n32 aufzulegen.
Bis Dezember bleibt ja noch lange genug Zeit für einen unlaunch 😁
SkybeAT
2022-11-05, 18:02:06
3 Sachen:
1. Warum wurden die n31 Karten dann 7900xt/x und nicht 7800xt/x tituliert? Das würde viel Verwirrung abschaffen und AMD die Möglichkeit eine tatsächliche 79xx Serie mit dem 3dcache oder 2x n32 aufzulegen.
Hallo Gast, wieso sollte AMD seine Namensgebung an Nvidia festmachen?
Der n31 ist der größte Chip und der bekommt die höchste Nummer. So wie beim Vorgänger.
Würden die Karten 7800 heißen, würden alle erwarten das ein 7900 kommt. Davon ist aber nicht auszugehen. Refresh ja, aber kein höherer Chips als n31 aka 7900.
Platos
2022-11-05, 19:08:39
Hallo Gast, wieso sollte AMD seine Namensgebung an Nvidia festmachen?
Der n31 ist der größte Chip und der bekommt die höchste Nummer. So wie beim Vorgänger.
Würden die Karten 7800 heißen, würden alle erwarten das ein 7900 kommt. Davon ist aber nicht auszugehen. Refresh ja, aber kein höherer Chips als n31 aka 7900.
Dann hast du anscheinend RDNA 1 vergessen.
Bei 3 GHz overclocking sind 20% mehr Leistung drin.
Vielleicht kommt ja noch eine AMD RX 7970 Kilowatt Edition, in Anlehnung an die HD 7970 GHZ Edition..
Was ist denn das für eine Aussage:
"Denn im Enthusiasten-Segment wird halt noch stärker als in anderen Segmenten pur nVidia gekauft."
Wann gab es denn zuletzt eine AMD GraKa die im Enthusiasten-Segment gewesen ist? Das ist doch Jahrzehnte her.
Wenn es in einem Segment nur einen Hersteller gibt, kauft man den zwangsläufig.
Daraus dann einen Nvidia-Bias zu machen ist schon stark.
Denn im Enthusiasten-Segment wird halt noch stärker als in anderen Segmenten pur nVidia gekauft.
Was soll man den sonst kaufen wenn es nur Nvidia gibt?
iamthebear
2022-11-05, 22:00:17
Dann hast du anscheinend RDNA 1 vergessen.
Das war eine andere Situation. Damals gab es keinen klaren Vorgänger. Vega 64 und Radeon VII hat ein ganz anderes Namensschema also hat es Sinn gemacht sich an Nvidia zu koppeln.
Mit der 7000er Serie ist das anders. Die 7900 XTX ist 50% schneller als die 6900 XT also verdient sie den Namen.
Abgesehen davon waren RDNA2 Karten um die 10% hinter namensgleichen Nvidia Karten. Die 7900 XTX wird jedoch um die 10-20% vor der 4080 liegen. Da würde der Name "7800 XTX" etwas verwirrend sein.
Es wäre jedoch sinnvoller gewesen wenn man sich das zusätzliche T gespart hätte und die Karten einfach "7900" und "7900 XT" genannt hätte.
Platos
2022-11-05, 22:33:23
Das war eine andere Situation.
War klar, das sowas kommt :freak:
Mit RDNA1 hat AMD sich ganz klar an die Namensgebung von nvidia angepasst.
Darum ging es in meinem Zitat. Er hat was anderes behauptet. Dabei haben sich die Namen wunderbar ergänzt. Auch bei RDNA2 hat das mehr oder weniger gestummen.
Jetzt aber nicht mehr. Allerdings muss man fairerweise sagen, dass nvidia mit ihren Preisen und Namen mit Lovelace nicht gerade normal ist (gerade die 4080), also who cares... Sind nur Namen. Wichtig ist der Preis und der ist bei beiden zu hoch. Bei nvidia bei Rasterperfomance natürlich noch schlechter.
Virtual
2022-11-05, 22:48:15
Jetzt mal ganz blöde gesprochen ... ich hätte in Anbetracht der Leistungs- und Preisregionen "Radeon RX 7800 XT(X)" erwartet ¯\_(ツ)_/¯Da hat dich ja NVidia völlig perfekt justiert. Meinen Glückwunsch!
Duopol.Intel zur Rettung?
2022-11-05, 22:48:48
Beide Unternehmensführungen melken die Kundschaft. Keiner ist ein Freund.
Nvidia benennt rtx 4070 in rtx 4080 um. Nein. Vor 10 Jahren war was heute rtx 4070 ist, ein AD 104 Chip, eine xx60-er Karte.
900 Schekel. Top!
Amd benennt rx 7800xt in rx 7900xt um und hebt den Preis von 650 auf 900 Schekel.
4 GB Vram als Argument? Bekommt man 20 GB selbst unter 8K (32 megapixel) voll?
Es ist ein verfluchtes Duopol, bei dem AMD die Rolle des Underdog-Retters einnimmt und Nvidia des pösen gierigen Preistreibers.
1) Nvidia setzt haarsträubend vor mit 1200 und 900 Schekel
2) AMd unterbietet den Preis nun mit 20 %
3) Nvidia kontert erneut und setzt rtx 4080 16GB von 1200 auf 1000/1100 Schekel, und rtx 4070 12 GB von 900 auf 700 - 800 Schekel.
4) Psychologischer Effekt: Die Käuferschaft ist verleitet zu denken "die neuen Preise sind okay und Nvidia hat verdient auf die Nase bekommen".
In Wirklichkeit hat AMD die rx x800 xt Karte um 250 Schekel angehoben und etabliert und Nvidia die rtx x070 und x080 Karte erneut um 200 - 400 Schekel.
K.A. das machen die 10 Jahre, 15?
Vermerkt merke ich es seit rtx 2000 in 2018, wo AMD die rx 5700 und xt erstmal für 450 und 500 Schekel anbieten wollte (die Marketingfolie kurz vor Release hat sie verrraten), danach aber um 50 Schekel gesenkt.
Und Amds Marketing klopft große Sprüche. Deren Windows Treiber kann mit rdna 2 Grafikkarten seit Monaten keinen AV01 Codec (AV1) gescheit wiedergeben. Da ruckelt es und gibt Framedrops.
Unter Linux mit Mesa Treibern und Firefox hingegen läuft mit meiner rx 6800xt selbst ein 8K 60 fps Video mit AV01 Codec flüssig.
Was ist schekel für eine währung und wo kommt es her?
Hält man bei AMD die Leistung der rdna 3 Grafikkarten zurück (für kommenden Refresh und erneute Preissteigerungen)?
Die gpu clock Frequenz ist selbst bei 7900xtx nicht sonderlich hoch.
Der L4 IF-cache von 128 MB auf 96 MB. Warum?
War auch nicht irgendwas von 192 MB stacked IF-cache die Rede?
Wann kommt dies?
Laut AMD hat man die Hit Rate bzw. Zitat "Data Reuse" verbessert, sodass weniger Kapazität ausreicht. Die Modelle mit mehr bzw. dichteren MCDs kommen wohl 2023. Das zusammen mit etwas mehr Suff könnte dann doch einen 4090er-Kontrahenten bringen.
MfG
Raff
Leonidas
2022-11-06, 04:59:47
3 Sachen:
1. Warum wurden die n31 Karten dann 7900xt/x und nicht 7800xt/x tituliert? Das würde viel Verwirrung abschaffen und AMD die Möglichkeit eine tatsächliche 79xx Serie mit dem 3dcache oder 2x n32 aufzulegen.
Jetzt mal ganz blöde gesprochen ... ich hätte in Anbetracht der Leistungs- und Preisregionen "Radeon RX 7800 XT(X)" erwartet ¯\_(ツ)_/¯
Das wäre wohl besser gewesen. Für die 7900er Serie ist mit X3D immer noch Platz genug.
Daraus dann einen Nvidia-Bias zu machen ist schon stark.
Das war keine Aussage zu irgendeinem Bias. Das war einfach eine Beschreibung des realen Kaufgeschehens. Nebenbei war 6900XT durchaus schon "Enthusiast". Zwar langsamer als 3090, aber schneller als 3080 und mit deutlich Enthusiasten-freundlicherer Speicherbestückung. Auch Fury X war Enthusiast. Dazwischen war leider nix.
Hallo Gast, wieso sollte AMD seine Namensgebung an Nvidia festmachen?
Der n31 ist der größte Chip und der bekommt die höchste Nummer. So wie beim Vorgänger.
Würden die Karten 7800 heißen, würden alle erwarten das ein 7900 kommt. Davon ist aber nicht auszugehen. Refresh ja, aber kein höherer Chips als n31 aka 7900.
Wie gesagt n31 3dcache und höheres tdp/freq oder dual n32.
Wäre wirklich besser. Ist schneller als die 6900xt, aber trotzdem nicht genug für enthusiast Segment. Die x9xx sertie wurde damals eingeführt als die Karten Nvidia schlagen oder zumindest konkurrieren konnten.
Und es geht nicht sich an Nvidia zu orientieren, sondern Verwirrung abzuschaffen, damit sie Kunden vertrauen in die Marke haben und nicht denken ,hey das beste Model ist nur so schnell wie das zweitbeste von Nvidia...
TheGood
2022-11-06, 08:20:53
Das wäre wohl besser gewesen. Für die 7900er Serie ist mit X3D immer noch Platz genug.
Das war keine Aussage zu irgendeinem Bias. Das war einfach eine Beschreibung des realen Kaufgeschehens. Nebenbei war 6900XT durchaus schon "Enthusiast". Zwar langsamer als 3090, aber schneller als 3080 und mit deutlich Enthusiasten-freundlicherer Speicherbestückung. Auch Fury X war Enthusiast. Dazwischen war leider nix.
Ist vielleicht die Logik nicht die dass gar keine 7900 mit X3D erscheinen wird. Weil warum hätte man sonst schone ine 7900XTX auftischen sollen.
Dieses X3D anhängsel ist imho ja auch nicht wirklich sinnvoll und eien 7900XTX3D wäre ja der Zungenbrecher schlechthin...
MadManniMan
2022-11-06, 09:02:03
Da hat dich ja NVidia völlig perfekt justiert. Meinen Glückwunsch!
Ist das so abwegig? Die x9x-Karten sind seit ~15 Jahren unmittelbare Kontrahenten und wenn man sich nicht auskennt, ist es naheliegend, in den Diagrammen nach den "9er-Karten" von Team Rot und Team Grün zu gucken und die für ein erstes Gefühl zu vergleichen. Same mit den 8ern, 7ern etc.
Was ist schekel für eine währung und wo kommt es her?
Der Schekel ist die israelische Währung und ich werde das Gefühl nicht los, dass der User zumindest unbewusst einen leichten Antisemitismus verinnerlicht hat, da er hier das Bild der Raffgier mit eben der israelischen Währung transportiert.
etp_inxession
2022-11-06, 09:39:47
Ich finde es sogar gut, das AMD nicht ganz oben angreift.
Somit steht nVidia mit den Mondpreisen absolut alleine da. > Kein gutes Bild.
Zudem wird in diesem Segment wahrscheinlich wenig gekauft. Völlig unabhängig wie viele AD102 Chips schon vom Band gelaufen sind.
Für absolute Enthusiasten mit Rendering Affinität ist die 4090 sicher interessant.
Für Spiele reicht die Generation darunter für 99,x Prozent bei weitem aus.
Das weiß AMD auch.
So gesehen ist Navi 31 wahrscheinlich schon ein Dorn im Auge von nVidia. Da die Raster Leistung direkt in die freie Fläche zwischen 4090 und 4080 schlägt.
AMD gibt dazu 24 GB VRAM, günstigere Preise und AV1 ...
Kein schlechtes Angebot.
Mit Custom Designs und hohen Taktraten, wird man evtl sogar näher an der 4090 sein, wie viele vermuten.
Auf der anderen Seite könnte man fast wieder über ein "ausgemachtes" Duopol sprechen ...
Wie war das mit der Krähe?...
Ätznatron
2022-11-06, 10:15:49
Der Schekel ist die israelische Währung und ich werde das Gefühl nicht los, dass der User zumindest unbewusst einen leichten Antisemitismus verinnerlicht hat, da er hier das Bild der Raffgier mit eben der israelischen Währung transportiert.
Das sehe ich auch so. Ob hier ein leichter oder schwerer Fall von Antisemitismus vorliegt, ist unerheblich. Im Kontext gesehen ist es antisemitisch.
Limit
2022-11-06, 10:21:02
3 Sachen:
1. Warum wurden die n31 Karten dann 7900xt/x und nicht 7800xt/x tituliert? Das würde viel Verwirrung abschaffen und AMD die Möglichkeit eine tatsächliche 79xx Serie mit dem 3dcache oder 2x n32 aufzulegen.
Ich erwarte stacked Cache nicht vor dem Refresh, also vielleicht eine 7950xtx.
2. AMD hat den Preis und die Leistung wieder mit Absicht so gestaltet, dass es keinen direkten Konkurrenzkampf mit Nvidia gibt, um teurer verkaufen zu können.
Würde AMD sich hier nach nVidias Preisen richten, müsste sie eher >200$ teurer sein, sofern AMDs eigene Leistungsangaben halbwegs stimmen. Nach diesen wäre die Raster-Performance knapp unter der 4090. Ich denke man hat sich wegen der RT-Performance preislich weiter nach unten orientiert. Die sieht im Vergleich zur 4080 nicht ganz so schlecht aus.
Beide Unternehmensführungen melken die Kundschaft. Keiner ist ein Freund.
Nvidia benennt rtx 4070 in rtx 4080 um. Nein. Vor 10 Jahren war was heute rtx 4070 ist, ein AD 104 Chip, eine xx60-er Karte.
900 Schekel. Top!
Amd benennt rx 7800xt in rx 7900xt um und hebt den Preis von 650 auf 900 Schekel.
Der Vergleich hinkt. Die 7900xt dürfte gut 50% mehr Leistung bringen als die 6900xt bei gleicher UVP. Das liegt im Bereich dessen, was wir auch in der Vergangenheit bei einem Generationswechsel gesehen haben. Bei nvidia hingegen hat man die Preise hingegen entsprechend der Leistungssteigerung nach oben gesetzt.
Der L4 IF-cache von 128 MB auf 96 MB. Warum?
War auch nicht irgendwas von 192 MB stacked IF-cache die Rede?
Bei Caches ist das immer so eine Sache, man muss immer einen Kompromiss zwischen Größe und Geschwindigkeit finden. Größer Caches sind bei gleicher Fertigung tendenziell langsamer. Die Designer müssen daher versuchen den Sweetspot zu finden und der ist neben der Fertigung auch von der Architektur abhängig.
Ich sehe nicht, dass AMD nicht wusste das eine 4090 schneller wird als eine 3090. Die 7900 Serie scheint also komplett Absicht zu sein. Man lässt NVidia da oben allein. Auch eine Strategie nicht Unmengen zu verpulvern, um dann doch nichts zu verkaufen. Es ist also rein aus der Wirtschaftlichkeit her genau richtig und muss Absicht seitens AMD sein. Zu sehen auch daran das man das Clock Potential nicht ausscböpft.
NVidia bekommt ohne wirkliche Konkurrenz über kurz oder lang Probleme. Es ist immer schwierig, noch einen draufzusetzen wenn man schon ganz oben steht. Ging Intel jahrelang so. Man soll also nicht erwarten, dass die kommenden Gens bei NVidia viel Mehrleistung mitbringen. Monopole sind immer schlecht.
AMD wird genau schauen, wo sie dazwischenpassen. Machen so Nvidia das Leben schwer. Die 7900 Serie zeigt das schon gut auf.
100k chips in einem Monat? Ehrrlich Leo, das ist nix, Miniserien gesehen über alle Partner (dazu zählen auch was OEMs fertigen lassen, die eher als Hrossabnehmer gelten), für die man kaum die Bänder anschmeisst und die vor allem massiv Kosten dadurch entwickeln. Vor allem weil man schon Monate lang das Zeug gestapelt hat. Es ist auch bekannt das NVidia wegen ausbleibendem Absatz von ADA102 die Fertigung u d Wafwrverfügbarkeit zu Ungunsten von ADA102 auf Hopper verlagert hat. Die gehen also selbst davon aus, daß sie kaum was verkaufen. Eine FE bekommst du jetzt schon nicht mehr.
Die News ist mal wieder kompletter Käse. Wieder Lobgehuddel für die 4090.
AMD hat einfach keinen Markt für 1% Anteil Produkte und ehrlich gesagt verdient man dort auch kaum was. Hier wird ja so getan als wenn alle 2k Euro Karten kaufen, es werden nicht mal 1k Euro Karten gekauft. Das zeigt GA102 gut auf. Damit kann sich NVidia immer noch die Strassen pflastern.
Es wird für AMD also genauso schwierig die 7900 Serie überhaupt zu verkaufen. Auch die haben bereits die Fertigung von RDNA3 zurückgefahren. Mit Absätzen wie in der Pandemiezeit sollte man nicht rechnen.
Platos
2022-11-06, 10:40:43
Die 7800XT muss einfach 35-40% mehr Leistung bringen und 699$ kosten UND der Strassenpreis muss auch wirklich da sein. Dann bin ich zufrieden, nicht überglücklich, aber immerhin ok (Ich rede nicht von Euro).
Eigentlich sollte ne 7800 Non Xt den Vorgänger-Top Dog bei gleichem Preis ablösen, aber ich nehme dann lieber nur + 30-40 % Leistung bei gleichem Preis als viel mehr Leistung und dafür auch teurer.
Auch wenn das nach 2 Jahren ziemlich wenig ist. Wären ja pro Jahr nur +17% bei +37% nach 2 Jahren.
Schnitzl
2022-11-06, 10:44:24
Dass nVidia somit an der absoluten Leistungsspitze keine direkte Konkurrenz bekommt, ist klar und sicherlich ein benennbarer Negativ-Punkt der RDNA3-Vorstellung.
warum?
Weil Audi einen R8 hat MUSS jetzt jeder andere Hersteller auch sowas im Programm haben?
:confused:
Linmoum
2022-11-06, 11:15:50
Weil fehlende Wettbewerbsfähigkeit für Kunden und den Markt immer nachteilig ist. Der Autovergleich hinkt davon ab, da der Automarkt kein Duopol ist.
Die 7800XT muss einfach 35-40% mehr Leistung bringen und 699$ kosten UND der Strassenpreis muss auch wirklich da sein.
Eigentlich sollte ne 7800 Non Xt den Vorgänger-Top Dog bei gleichem Preis ablösen, aber ich nehme dann lieber nur + 30-40 % Leistung bei gleichem Preis als viel mehr Leistung und dafür auch teurer.
Ich weiß ehrlich gesagt auch nicht wie Nvidia das machen will? Gehen wir von Straßenpreisen aus, kostet die 4090 derzeit 2300-2500, die 4080 soll bei 1500 bis 1800 liegen. Was will man dann für eine 4070 verlangen? Soviel wie für eine 7900xtx? Die 4070 ist langsamer als eine 3090, jetzt schon. Die beitet 12Gib Mehr VRAM und ist ein Highendchip, nicht irgendwelcher selektierter Schrott und auch kein ADA106.
Eine 4060 wird dann ja auf Level der 7900xt liegen (800-900?) und das Teil wird die 4060 dann locker ins Nirvana benchen, Rasterleistung extrem und viel mehr Speicher. DXR wahrscheinlich auch schneller.
Oder Nvidia lässt riesige Lücken in der Preisgestaltung offen, die niemand versteht. Die Preisgestaltung bei Nvidia und die Umsummen die man nun verlangt, hat erst möglich gemacht das AMD da so einsteigt, die greifen also genau da gezielt an und müssen dafür RDNA3 gar nicht ausreizen. Gewinnen Zeit und sparen Kosten. Irgendwie clever.
Man muss ehrlicherweiser sagen, egal was die 4090 leistet, die Preisgestaltung bei Nvidia hat zu diesem Dilemma geführt. AMD hat anscheinend genau damit gerechnet. Also zu behaupten da wäre was schief gelaufen, ist wirklich umstritten. Ich halte das für pure Absicht. Das man nun die möglichen 3GHz nicht ausnutzt ist genauso zu sehen, wie Nvidia die möglichen 600w nicht stetig ausreizt.
AMD hat so das Potentail Marktanteile über den Preis zu gewinnen und darum geht es denen wohl.
Gastanjette
2022-11-06, 11:19:27
Wenn ich mir die 350w Werte der 4090 ansehe und dann die Leistungsprognose von AMD zur 7900XTX, dann war das mit mehr als doppelt 8pin und dem neuen 600W Stecker eine komplett schwachsinnige Aktion. Aber mal sowas von.
Wenn überhaupt jemand Chaos in die Produktbezeichnungen gebracht hat, dann ist das zu vorderst auch Nvidia, und nicht das erste mal.
Ätznatron
2022-11-06, 11:59:03
Warum sollte AMD das idiotische Spielchen um die absolute Leistungsspitze mitmachen?
Dazu besteht überhaupt kein Grund, zumal nVidia sich diese Spitzenposition mit einer exorbitanten und völlig unzeitgemäßen Leistungsaufnahme erkaufen muss. Und der Kunde zusätzlich schwer zur Kasse gebeten wird.
AMD soll sich ruhig darunter positionieren und den Weg der Vernunft gehen, vor allem, was Verkaufspreis und Leistungsaufnahme angeht.
Niall
2022-11-06, 12:01:11
Weil fehlende Wettbewerbsfähigkeit für Kunden und den Markt immer nachteilig ist. Der Autovergleich hinkt davon ab, da der Automarkt kein Duopol ist.
Ist aber bei einem solchen Nischenprodukt nicht wirklich relevant, weil der Gros einfach im Bereich <= 800€ kauft. Solange dieser Bereich halbwegs ausgeglichen ist, ist es erstmal halb so wild. Schlimmer wäre es gewesen, AMD hätte auch eine 1900€+ Karte rausgebracht, bei dem GEdanken hatte ich im Vorfeld viel größere Bauchschmerzen. Von demher kann man AMD quasi danken, dass sie trotz der schon sportlichen Bepreisung, noch halbwegs "human" blieben. :D
Noch ein Vergleich: Beyerdynamic bringt einen KH für 2000€ raus, alle anderen Hersteller bauen aber nur KH für max. 700€, was für viele schon "drüber" ist. Beyerdynamic erntet das Prestige für den "Heilige Mutter ist das ein tolles Stück Hardware", am Ende juckt es aber niemanden so wirklich, außer jene oberen paar Tausend, die es sich leisten können und wollen.
Convertible
2022-11-06, 12:06:19
Also ich fasse mal zusammen.
Die 7900XTX konkuriert mit RTX 4080, vor allem wegen der vermutlich vergleichbarer Leistung unter hinzuschalten von Raytracing.
Nvidia: 379 mm² 5+nm Chip +16 GB RAM
AMD: 300mm² 5nm Chip + 6x37mm² + 24 GB RAM
Das heißt, bei dem teuersten 5nm-Chip spart AMD 20 Prozent Fläche. Muss dafür aber noch 222mm² an 6nm Wafer einkaufen und das Packaging bezahlen und noch 8 GB mehr RAM kaufen, dafür aber vielleicht günstigeren RAM (GDDR6 vs. GDDRX6).
Grob gesehen, würde ich mal sagen, dass hier Nvidia auch bei gleichem Preis mehr Marge haben sollte. Die 20 Prozent, die man bei der 5nm-Chipfläche gespart hat, werden durch die anderen Kosten bestimmt mehr als aufgewogen.
Fazit: In der heutingen Umsetzung ist AMDs Chipletdesign nicht wirklich kostensparrend, was ja der Sinn der Sache war.
Liegt aber vielleicht gar nicht am Chiplet-Ansatz an sich, sondern eben an der schwachen Raytracing-Leistung. Wäre die Raytracing-Leistung besser, würde man die RTX4080 auch in Raytracing-Spielen schlagen und damit wäre Herstellungspreis/Leistung auch besser.
AMD muss viel mehr Entwicklungsenergie in die Verbesserung der Raytracing-Leistung stecken. Nvidia hat hier einen deutlichen Vorsprung, was bei AMD die Marge drückt...
Schnitzl
2022-11-06, 13:02:58
Weil fehlende Wettbewerbsfähigkeit für Kunden und den Markt immer nachteilig ist.
Der Satz ist an sich richtig. Jedoch in diesem Fall würde das heissen, für jeden Irrsinn, den nVidia rausbringt, muss AMD ein vergleichbares Produkt für den Wettbewerb herausbringen?
d.h. nVidia bringt ne 4090 Ultra mit 3,5Ghz und PT 1kW für 4.999,- ... muss AMD das dann auch?
Hört endlich mal auf, euch von nVidia als Marketing-Assistenten vergewaltigen zu lassen, nVidia ist nicht der Maßstab oder Gott.
Der Autovergleich hinkt davon ab, da der Automarkt kein Duopol ist.irrelevant, es geht darum ob eine Firma den anderen (ob 1 oder 100) bestimmen kann was sie produzieren sollen.
Das war keine Aussage zu irgendeinem Bias. Das war einfach eine Beschreibung des realen Kaufgeschehens. Nebenbei war 6900XT durchaus schon "Enthusiast". Zwar langsamer als 3090, aber schneller als 3080 und mit deutlich Enthusiasten-freundlicherer Speicherbestückung. Auch Fury X war Enthusiast. Dazwischen war leider nix.
Ansichtssache.
Angesicht der RT Leistung der 6900XT war die IMO nicht "Enthusiast".
High-End ja, so wie eine 2080 High-End, aber 2080TI Enthusiast war.
Du musstest bei der 6900XT bei diversen RT Titeln massiv Abstriche machen und RT deaktivieren.
Bei der 3090 musstest du das nicht (oder konntest im Worst-Case unter RT Ultra mit 4K noch DLSS aktivieren).
Damit ist die 6900XT keine Enthusiastenkarte sondern "nur" High-End.
Die 3090 war deutlich überlegen (und ja, auch deutlich teurer - aber das ist ja nicht das Thema).
Warum sollte AMD das idiotische Spielchen um die absolute Leistungsspitze mitmachen?
Dazu besteht überhaupt kein Grund, zumal nVidia sich diese Spitzenposition mit einer exorbitanten und völlig unzeitgemäßen Leistungsaufnahme erkaufen muss. Und der Kunde zusätzlich schwer zur Kasse gebeten wird.
AMD soll sich ruhig darunter positionieren und den Weg der Vernunft gehen, vor allem, was Verkaufspreis und Leistungsaufnahme angeht.
Schöne Fake-News.
Hättest du dir die tatsächliche Leistungaufnahme der 4090 angesehen würdest du wissen, dass die bei ca. 350-370W liegt. Nur leicht über einer 3090 und - voraussichtlich - nur leicht über einer 7900XTX.
Und dabei teilweise 75% mehr Leistung bietet als eine 7900XTX.
Was hat da jetzt wohl die bessere Effizienz?
Beim nächsten Mal bitte bei der Wahrheit bleiben, auch wenn Nvidia dann nicht ganz so mies weg kommt wie du gerne hättest, ja?
Kritisiere doch einfach den lächerlichen Preis der 4080 16GB - das ist legitime Kritik.
Aber der reale Verbrauch der 4090 ist im Verhältnis zur Leistung sehr gut und vermutlich weit effizienter als eine 4080 16GB oder RDNA3.
Wenn ich mir die 350w Werte der 4090 ansehe und dann die Leistungsprognose von AMD zur 7900XTX, dann war das mit mehr als doppelt 8pin und dem neuen 600W Stecker eine komplett schwachsinnige Aktion. Aber mal sowas von.
Wenn überhaupt jemand Chaos in die Produktbezeichnungen gebracht hat, dann ist das zu vorderst auch Nvidia, und nicht das erste mal.
Völlig richtig, absolut Schwachsinnig die 4090 mit den 450W zu bringen.
Meist zieht sie die ja nicht mal, aber sie steht so auf dem Papier und alles muss darauf ausgelegt sein (weil teilweise die 450W ja gezogen werden.)
Für eine handvoll Prozent holt man sich durch den neuen Stecker Probleme - und ermöglicht jedem der will wunderbar über den ach so hohen Stromverbrauch zu reden.
In der Realität zieht es die ja meist nicht mal, aber die meisten schauen eben nur auf eine Zahl die irgendwo steht. Oder lügen bewusst, kann natürlich auch sein.
Wie auch immer, das hätte Nvidia klar sein müssen, so ist es einfach nur eine völlig idiotische Aktion.
Dazu der totale Murks mit der 4080 12GB - meine Fresse, wer kam auf diese beschissene Idee?
Dazu noch die geisteskranken Preise der 4080 16GB und 4080 12GB (bzw. jetzt halt wohl 4070) - glatte Preisverdoppelung im Vergleich zur 3080 und 3070.
Womit die 4090 tatsächlich das beste Preis-Leistungs-Verhältnis hat.
Wie krank ist das?
Die letzten 20% haben normalerweise immer viel GEld gekostet.
1070 vs 1080 vs 1080TI, 2070 vs 2080 vs 2080TI.
Egal wann, eine xx70 war immer besser was das anging.
Und nun?
Der Top-Dog bietet am meisten fürs Geld.
Nur bleibt es eben eine 2000 Euro GraKa.
Einfach nur krank.
Toll für jene, die sich sowieso den Top-Dog kaufen wollten, die bekommen irre viel für ihr Geld.
Aber wer - warum auch immer - keine Lust hat 2000 Euro für eine GraKa zu zahlen?
Hoffentlich hält meine 2070 noch eine Weile durch...
Das war keine Aussage zu irgendeinem Bias. Das war einfach eine Beschreibung des realen Kaufgeschehens. Nebenbei war 6900XT durchaus schon "Enthusiast". Zwar langsamer als 3090, aber schneller als 3080 und mit deutlich Enthusiasten-freundlicherer Speicherbestückung. Auch Fury X war Enthusiast. Dazwischen war leider nix.
Fury X war ein joke, und um eine Auswahl für Enthusiasten zu sein reicht es nicht beim Rastern gleichzuziehen wenn man dann beim RT dermaßen zurückhängt.
Waren jetzt sicher keine schlechten Karten, aber garantiert kein Enthusiast, zu keinem Zeitpunkt.
Troyan
2022-11-06, 14:22:34
Fazit: In der heutingen Umsetzung ist AMDs Chipletdesign nicht wirklich kostensparrend, was ja der Sinn der Sache war.
Liegt aber vielleicht gar nicht am Chiplet-Ansatz an sich, sondern eben an der schwachen Raytracing-Leistung. Wäre die Raytracing-Leistung besser, würde man die RTX4080 auch in Raytracing-Spielen schlagen und damit wäre Herstellungspreis/Leistung auch besser.
Der Ansatz ist in Zeiten von teuren Fertigungsprozessen sinnvoll. Nur liegt das Problem bei AMD beim 5nm Chiplet. Die Architektur ist zu ineffizient, um den Vorteil nutzen zu können. Man muss sich das immer vor Augen halten: AD104 mit 298mm^2 wird mit Raytracing sogar schneller sein als der 300mm^2 Compute-Chip von AMD. Das Ding dürfte nicht größer als 200mm^2 sein, um den MCD-Ansatz wirtschaftlich nutzen zu können...
Der Satz ist an sich richtig. Jedoch in diesem Fall würde das heissen, für jeden Irrsinn, den nVidia rausbringt, muss AMD ein vergleichbares Produkt für den Wettbewerb herausbringen?
Es ist ja kein Irrsinnsprodukt, dass 3x so viel braucht und dafür 10% vorne ist.
Es ist ein Produkt das minimal mehr braucht und dafür wahrscheinlich mindestens 70% (unter RT) vorne ist.
Und es geht ja nicht nur um die Konkurrenz zu Nvidia, sondern dass die ungenügende RT-Umsetzung von AMD ein Bremsklotz für die gesamte Technologie ist.
Und wenn man sieht, dass selbst die Intel Arc Generation gar nicht mal weit von den eigentlich viel schnelleren RDNA Karten entfernt ist wird es richtig peinlich.
Gast Ritis
2022-11-06, 15:01:51
Und wenn man sieht, dass selbst die Intel Arc Generation gar nicht mal weit von den eigentlich viel schnelleren RDNA Karten entfernt ist wird es richtig peinlich.
Ist ja nicht dass AMD das nicht könnte, das Mehr vom Gleichen für RT.
Die haben sich nur anders entschieden und lieber Shader-Leistung weiter hochgeschraubt, mehr Generisches Compute statt BVH Berechnungen.
Ob da für RT wirklich so viel die nächsten Jahre noch kommt muss schon bezweifelt werden. Die AAA-Games werden vorallem auch über Konsolen refinanziert. Das Konzept muss da auch passen, bei PC gibts neben mehr Auflösung höchstens kleine Optionen extra, es sei den die GPU-Hersteller schieben den Entwicklern Geld rüber.
Exxtreme
2022-11-06, 15:10:36
Ob da für RT wirklich so viel die nächsten Jahre noch kommt muss schon bezweifelt werden. Die AAA-Games werden vorallem auch über Konsolen refinanziert. Das Konzept muss da auch passen, bei PC gibts neben mehr Auflösung höchstens kleine Optionen extra, es sei den die GPU-Hersteller schieben den Entwicklern Geld rüber.
Wobei RT nicht gleich RT ist. :) Da gibt es auch Features, die man an- und ausknipsen kann. Die Radeons halten sehr gut mit solange es keine Reflexionen zu berechnen gibt.
Hier sieht man das:
https://www.pcgameshardware.de/World-of-Warcraft-Shadowlands-Spiel-72321/Specials/WoW-Raytracing-Vergleich-Test-1362425/
WoW benutzt keine RT-Reflexionen.
Und es ist so: für richtig gute RT-Reflexionen, dazu fehlt auch der RTX 4090 die Power. Und zwar um mindestens Faktor 5. Ergo glaube ich auch nicht, dass man RT-Reflexionen sehr oft in Spielen sehen wird. Und es ist auch so, man kann Reflexionen auch ohne RT sehr gut hinbekommen.
Die Radeons halten sehr gut mit solange es keine Reflexionen zu berechnen gibt.
Kleine Korrektur: Die Radeons halten gut mit so lange es nur wenig Strahlen zu berechnen gibt.
Ob da für RT wirklich so viel die nächsten Jahre noch kommt muss schon bezweifelt werden.
Wenn nicht ist AMDs mangelhafte RT-Performance auf jeden FAll dafür mit verantwortlich.
TheGood
2022-11-06, 17:44:33
Wenn nicht ist AMDs mangelhafte RT-Performance auf jeden FAll dafür mit verantwortlich.
OK dan hat die 3090 also auch nur Mangelhaftes RT.....
Gut zu Wissen, dann ist die Entschiedungsfindung ja sehr einfach....
TheGood
2022-11-06, 17:54:49
Ansichtssache.
Angesicht der RT Leistung der 6900XT war die IMO nicht "Enthusiast".
High-End ja, so wie eine 2080 High-End, aber 2080TI Enthusiast war.
Du musstest bei der 6900XT bei diversen RT Titeln massiv Abstriche machen und RT deaktivieren.
Bei der 3090 musstest du das nicht (oder konntest im Worst-Case unter RT Ultra mit 4K noch DLSS aktivieren).
Damit ist die 6900XT keine Enthusiastenkarte sondern "nur" High-End.
Die 3090 war deutlich überlegen (und ja, auch deutlich teurer - aber das ist ja nicht das Thema).
Schöne Fake-News.
Hättest du dir die tatsächliche Leistungaufnahme der 4090 angesehen würdest du wissen, dass die bei ca. 350-370W liegt. Nur leicht über einer 3090 und - voraussichtlich - nur leicht über einer 7900XTX.
Und dabei teilweise 75% mehr Leistung bietet als eine 7900XTX.
Was hat da jetzt wohl die bessere Effizienz?
Beim nächsten Mal bitte bei der Wahrheit bleiben, auch wenn Nvidia dann nicht ganz so mies weg kommt wie du gerne hättest, ja?
Kritisiere doch einfach den lächerlichen Preis der 4080 16GB - das ist legitime Kritik.
Aber der reale Verbrauch der 4090 ist im Verhältnis zur Leistung sehr gut und vermutlich weit effizienter als eine 4080 16GB oder RDNA3.
Völlig richtig, absolut Schwachsinnig die 4090 mit den 450W zu bringen.
Meist zieht sie die ja nicht mal, aber sie steht so auf dem Papier und alles muss darauf ausgelegt sein (weil teilweise die 450W ja gezogen werden.)
Für eine handvoll Prozent holt man sich durch den neuen Stecker Probleme - und ermöglicht jedem der will wunderbar über den ach so hohen Stromverbrauch zu reden.
In der Realität zieht es die ja meist nicht mal, aber die meisten schauen eben nur auf eine Zahl die irgendwo steht. Oder lügen bewusst, kann natürlich auch sein.
Wie auch immer, das hätte Nvidia klar sein müssen, so ist es einfach nur eine völlig idiotische Aktion.
Dazu der totale Murks mit der 4080 12GB - meine Fresse, wer kam auf diese beschissene Idee?
Dazu noch die geisteskranken Preise der 4080 16GB und 4080 12GB (bzw. jetzt halt wohl 4070) - glatte Preisverdoppelung im Vergleich zur 3080 und 3070.
Womit die 4090 tatsächlich das beste Preis-Leistungs-Verhältnis hat.
Wie krank ist das?
Die letzten 20% haben normalerweise immer viel GEld gekostet.
1070 vs 1080 vs 1080TI, 2070 vs 2080 vs 2080TI.
Egal wann, eine xx70 war immer besser was das anging.
Und nun?
Der Top-Dog bietet am meisten fürs Geld.
Nur bleibt es eben eine 2000 Euro GraKa.
Einfach nur krank.
Toll für jene, die sich sowieso den Top-Dog kaufen wollten, die bekommen irre viel für ihr Geld.
Aber wer - warum auch immer - keine Lust hat 2000 Euro für eine GraKa zu zahlen?
Hoffentlich hält meine 2070 noch eine Weile durch...
Jetzt shcaust du dir einmal die Prognose von Leo hier an und dann fällt dein aufgebautes Kartenhaus in sich zusammen.
Nvidia hat null Mehrwert bzw.minmalen Mehrwert mit der 4090 bzgl Preis Leistungs geliefert. (Stand heute)
RT ist P/L Normiert auch fast gleich.
Jetzt warten wir mal ab was im Durchschnitt bei den Tests dabei rumkommt und vor allem was bei der 4080 rumkommt. Dann machen wir um Weihnachten einen neuen Thread auf um zu sehen wie es sich entwickelt hat. Bis dahin tut sich ja auch noch was an den Preisen.
Nvidia hat einfach aus einer Titan Graka eine 4090 gemacht und aus der 90 serie die 80 und aus der 70 serie die 80. Sieht man ja gut an der 4080. Das war das Ziel und das hatte Jensen ja auch genau so angekündet.
Das können hier jetzt einige weiters schönreden oder sie können bzw. sollten dringend mal ins reale Leben zurücktreten um zu sehen was da so läuft.
AMD hat im Gegenzug zum gleichen Preis die Performance wohl zwischen 50 und 70% erhöht (sogar zu einem etwas niedrigeren Preis).
Warum macht Nvidia das, ja weil sie ein paar dumme brauchen die Ihre Verluste aus den nicht verkaufbaren Ampere generation gegenfinanizieren müssen und alle Ampere Käufer die jetzt noch gekauft haben machen das gleich mit. Denn spätenstens mit dem 13. Dezember sind die Grafikkarten auf einen Schlag 40% weniger wert. (sofern AMD liefern kann)
Das ist doch am Ende die Realität.
Die 6900 XT kostet aktuell grad nur noch 800 Euro und gabs auch schon für 700 €. Das passt wohl am Ende ganz gut zur neuen Realität mit der 7900 XTX....
Bei den Preisen muss man sich schon fragen warum man eine 4080 kaufen sollte, ausser weil man unbedingt RT braucht.
Wie der vorredner schon gesagt hat, die Basis vor allem für GI und Schatten geben die Konsolen vor und damit ist RDNA 2 oder RDNA 3 zumindest im Minimum dabei.
UE5 Eninge demo lief mit absoluter WOW Grafik (wann hat man das je von einem RT titel sagen können) problemlos auf der PS5... Auch das ist leider die Realität...
Ja RT ist wichtig und wird immer wichtiger werden, aber Stand heute und auch in 4 Jahren wird das immer noch kein KO Kriterium sein. Zumindest nicht im Mainstream.
Ausserdem musste doch froh sein dass RDNA2 bis in die APUS das RT mit reinträgt, das stärkt die Verbreitungsbasis und führt am Ende dazu, dass es früher zum FAll kommen kann, dass ein Spiel Hardware RT voraussetzen wird...
Troyan
2022-11-06, 17:58:35
Alter, musst du selbst am Sonntag arbeiten? Unglaublich, welche Bedingungen bei AMD herrschen.
Stress dich einfach mal nicht so. Navi31, wie Zen4, ist eben ein Flop. Passiert. Welt geht nicht unter (hoffe ich jedenfalls für einige Mitarbeiter von AMD hier).
Achja, die 4090 liefert 80%+ Leistung zur 3090 für $100 mehr, die 7900XTX 50%+ zur 6900XT beim selben Preis. Selbst hier ist die 4090 einfach besser. Lmao.
Also ich fasse mal zusammen.
Die 7900XTX konkuriert mit RTX 4080, vor allem wegen der vermutlich vergleichbarer Leistung unter hinzuschalten von Raytracing.
Nvidia: 379 mm² 5+nm Chip +16 GB RAM
AMD: 300mm² 5nm Chip + 6x37mm² + 24 GB RAM
Das heißt, bei dem teuersten 5nm-Chip spart AMD 20 Prozent Fläche. Muss dafür aber noch 222mm² an 6nm Wafer einkaufen und das Packaging bezahlen und noch 8 GB mehr RAM kaufen, dafür aber vielleicht günstigeren RAM (GDDR6 vs. GDDRX6).
Grob gesehen, würde ich mal sagen, dass hier Nvidia auch bei gleichem Preis mehr Marge haben sollte. Die 20 Prozent, die man bei der 5nm-Chipfläche gespart hat, werden durch die anderen Kosten bestimmt mehr als aufgewogen.
Fazit: In der heutingen Umsetzung ist AMDs Chipletdesign nicht wirklich kostensparrend, was ja der Sinn der Sache war.
Liegt aber vielleicht gar nicht am Chiplet-Ansatz an sich, sondern eben an der schwachen Raytracing-Leistung. Wäre die Raytracing-Leistung besser, würde man die RTX4080 auch in Raytracing-Spielen schlagen und damit wäre Herstellungspreis/Leistung auch besser.
AMD muss viel mehr Entwicklungsenergie in die Verbesserung der Raytracing-Leistung stecken. Nvidia hat hier einen deutlichen Vorsprung, was bei AMD die Marge drückt...
die ausbeute ist deutlich höher, zudem bekommt man mehr chips aus einem wafer und für 6nm braucht man keine teuren dinger. ihr habt echt keine ahnung.
die 4090 liefert 80%+ Leistung zur 3090 für $100 mehr, die 7900XTX 50%+ zur 6900XT beim selben Preis. Selbst hier ist die 4090 einfach besser. Lmao.
Wen interessieren UVP, wenn Straßenpreise ganz andere sind?
Linmoum
2022-11-06, 19:11:31
Nvidia hat null Mehrwert bzw.minmalen Mehrwert mit der 4090 bzgl Preis Leistungs geliefert. (Stand heute)
RT ist P/L Normiert auch fast gleich.
AMD hat im Gegenzug zum gleichen Preis die Performance wohl zwischen 50 und 70% erhöht (sogar zu einem etwas niedrigeren Preis).
Häh? Launch-Analyse von Leo:
4090: 100% // 100% / 100% (Raster/RT/UVP)
3090: 58,7% / 53.5% / 93.7% (Raster/RT/UVP)
Muss ich dir die Zahlen wirklich erklären oder merkst du selbst, dass du hier ganz großen Unsinn von dir gibst? Vor allem zu behaupten, dass AMD die Performance bei identischem bzw. niedrigerem Preis um 50-70% erhöhen wird und dann zu behaupten, dass das bei Nvidia nicht der Fall ist und P/L sogar schlechter geworden ist... So hart an Fakten kann man eigentlich gar nicht vorbeischreiben.
Man kann viel an Nvidias Line-Up und vor allem den (geplanten) Karten unterhalb von AD102 kritisieren. Zurecht übrigens, gerade die 4080 ist schlicht albern. Aber vor allem bei der 4090 ist das dann doch abenteuerlich, denn die ist - kurioserweise für die teuerste GPU - die mit der besten P/L.
Warum macht Nvidia das, ja weil sie ein paar dumme brauchen die Ihre Verluste aus den nicht verkaufbaren Ampere generation gegenfinanizieren müssen und alle Ampere Käufer die jetzt noch gekauft haben machen das gleich mit. Denn spätenstens mit dem 13. Dezember sind die Grafikkarten auf einen Schlag 40% weniger wert. (sofern AMD liefern kann)
Das ist doch am Ende die Realität.
Jetzt warten wir mal ab was im Durchschnitt bei den Tests dabei rumkommt und vor allem was bei der 4080 rumkommt. Dann machen wir um Weihnachten einen neuen Thread auf um zu sehen wie es sich entwickelt hat. Bis dahin tut sich ja auch noch was an den Preisen.
Dein kompletter Beitrag ist voller Widersprüche und... komischer Argumentation. Da ergibt fast gar nichts einen Sinn.
Ja RT ist wichtig und wird immer wichtiger werden, aber Stand heute und auch in 4 Jahren wird das immer noch kein KO Kriterium sein. Zumindest nicht im Mainstream.
Das ist doch hier auch die Argumentation vieler: Dort ist es wenig(er) relevant, weil die dortigen Karten sowieso eine ganz andere Zielgruppe haben.
Aber: N31 ist nicht Mainstream. Woher kommt der Einwand also? Damit gibst du ja selbst zu, dass RT schon heute abseits des Mainstreams relevant ist - also auch genau dort, wo N31 positioniert wird: High-End bzw. Enthusiast-Segment. Und gibst denen Recht, die die RT-Performance bei einem solchen Chip kritisieren. Und nicht nur bei einem Teil davon.
Wer Premium-Preise verlangt - und das ist ein hoher dreistelliger bis quasi vierstelliger $-Betrag (Euro nehme ich bewusst nicht, da AMD und Nvidia für den miesen Eurokurs nichts können) - sollte auch durchaus Premium-Produkte abliefern. Und zwar bei allen relevanten Performance-Kriterien.
Wie du auch schon sagst: Realität. Da sind die RT-Implementierungen in ihrer aktuellen Form erst einmal relevant und wie AMD dort performt. Das ist der erste Schritt. Der andere ist dann der Umstand, dass RDNA3 in der Hinsicht 2(+) Jahre damit durchhalten muss. Und das ist die große Unbekannte und ein Unsicherheitsfaktor. Bei so viel Geld finde ich das schon... mutig.
Wen interessieren UVP, wenn Straßenpreise ganz andere sind?
Oh Gott, bitte nicht. Das ist mindestens so eine sinnlose Diskussion wie "warum bencht man 720p bei CPUs spielt ja keiner!!" Nummer 3000.
Alter, musst du selbst am Sonntag arbeiten? Unglaublich, welche Bedingungen bei AMD herrschen.
Stress dich einfach mal nicht so. Navi31, wie Zen4, ist eben ein Flop. Passiert. Welt geht nicht unter (hoffe ich jedenfalls für einige Mitarbeiter von AMD hier).
Achja, die 4090 liefert 80%+ Leistung zur 3090 für $100 mehr, die 7900XTX 50%+ zur 6900XT beim selben Preis. Selbst hier ist die 4090 einfach besser. Lmao.
Alter, du hast in Mathe aber auch nicht unbedingt aufgepasst, oder?
Die 4090 kostet 1949 als FE und eine Custom geht ab 2249 los. Die 3090 startete real für 1499 included Mwst, wobei Nvidia später den Euroverfall mit 100 Euro draufschlug.
Wenn man die jetzigen Marktpreise nimmt kostet eine 4090 2299 (FE bekommst du nirgends, auch keinen Angebote mehr für 1949 - sondern eher um 2500) und die 3090 für 1149, das heißt die 60-80% und dabei gehst du immer nur von RT unter 4K aus (anderes wurde bisher nicht verglichen), lässt sich Nvidia oder deren Partner mit min 1150 Aufpreis vergolden. Merkt du was? 60-80% Mehrleistung für 1150?, also 60-80% für 100% mehr? das eine 4090ti die sich mit der 3090ti vergleichen muss nicht kommt, ist nicht klar. Das Ding kostet sicher noch mehr.
100%-tig braucht Nvidia ziemlich schnell eine 4080ti, und die muss günstiger sein als eine 4080-16G! Oder du schaltest ab heute nur noch DLSS3 an, dann ist aber nichts vergleichbar bis FSR3 erscheint. Ihc will den Matsch jedenfalls nicht sehen, das Gezucke und Geruckel im Bild. DLSS3 ist nix weiter als DLLs 2, schneller wird es nur mit Framegeneration und das ist bisher der letzte Müll wenn es um die erste Umsetzung geht.
3dcenter=Pippielangstrumpfland?
An deiner Stelle würde ich selbst mal 'ne Pause machen. Ich prophezeie wenn die 7900xt/7900xtx auf den Markt kommen hat Nvidia ein riesiges Problem. Verbockt haben sie das aus Gier selbst. Alles für die Aktionäre, ja dann haut rein! Was gehen mich diese geldgeilen P*mmel an...
Oh Gott, bitte nicht. Das ist mindestens so eine sinnlose Diskussion wie "warum bencht man 720p bei CPUs spielt ja keiner!!" Nummer 3000.
Sinnlos so so, Nvidia sagt UVP 699 oder später 720, verkauft die 3080 aber knapp um 1800, ist doch egal. Nimm weniger von dem, was auch immer.
Das ist Igors Labs Gequatsche, Preise sind doch egal, ja für größenwahnsinnig gewordene Influenzer. Ihr könnt euch mit Trump die Hand geben.
TheGood
2022-11-06, 20:49:45
Häh? Launch-Analyse von Leo:
4090: 100% // 100% / 100% (Raster/RT/UVP)
3090: 58,7% / 53.5% / 93.7% (Raster/RT/UVP)
Muss ich dir die Zahlen wirklich erklären oder merkst du selbst, dass du hier ganz großen Unsinn von dir gibst? Vor allem zu behaupten, dass AMD die Performance bei identischem bzw. niedrigerem Preis um 50-70% erhöhen wird und dann zu behaupten, dass das bei Nvidia nicht der Fall ist und P/L sogar schlechter geworden ist... So hart an Fakten kann man eigentlich gar nicht vorbeischreiben.
Ja das war aus dem Kopf raus geschreiben und hab da STraßenpreise mit UVPs durcheinandergewirbelt. Macht natürlich keinen Sinn. Man sollte immer korrekt vergleichen... Also warten wirs ab.
Ja und beim nächsten war auch der Vergleich mit UVP vs STraßenpreis. Passt natürlich bei der Ampere generation auch nicht mehr.
Ist nicht so gut Dinge zu vermischen....
Einigen wir uns auf den 15. Dezember und gucken wie es dann da aussieht :)
Ich schrieb bewusst in 4 Jahren im Mainstream. Für mich ist RT im High End heute auch kein KO Kriterium.... in 4 Jahren sieht es definitiv anders aus, da wie schon oft geschrieben, RT die Zukunft gehört.
Wenn in 4 Jahren vielleicht mal Titel kommen die das massiv nutzen ist eine 4090 genauso zu langsam für das. Das ist doch das gleiche, dass du sagst, 7900XTX ist ein Fail was RT betrifft. Am Ende wird das RT auf Level der 3090 rauskommen und das kann man doch nicht als Fail bewerten. Vor allem weil es bei GI und Schatten ja ordentlich funktioniert.
Find ich gut, dass es nicht viel schneller geworden ist? Nein. Kann ich damit leben? Je mehr ich hier diskutiere: ja :)
Dazu kommt dann noch aus welchen Hintergrund ich eine High End karte kaufe. Wenn ich die Mehrzahl der 3DCenter user verstehen sind vor allem die High End käufer diejenigen die immer das beste kaufen und von daher gibts alle 2-4 Jahre ne neue Graka, für die ist das ggf. völlig unrelevant.
Derjenige der die KArte 6+ Jahre halten will, hat da wohl eine andere Sichtweise drauf.
Wenn du den UVP vergleichst sind das über 50% mehr für die 4090. Da ist da Frage schon ob der Mehrpreis die Mehrleistung wert ist.
In der Regel ist es immer "sinnvoller" nicht das TOP Produkt zu kaufen sondern wenigstens eines drunter, da das P/L dort besser ist.
Aber auch das kann man bei uns erst sinnvoll bewerten wenn Euro Preise da sind und natürlich für die persönliche Zielauflösung.
Die 7900 XTX hätte aber mit der 4090 konkurieren müssen.
AMD hat das einfach nicht hinbekommen.
Nun wird so getan als ob die 4080 das Gegenstück ist.
Oder dachten man die 4080 ist nvidias Topmodell.
Exxtreme
2022-11-07, 08:50:34
Die 7900 XTX hätte aber mit der 4090 konkurieren müssen.
AMD hat das einfach nicht hinbekommen.
Nun wird so getan als ob die 4080 das Gegenstück ist.
Oder dachten man die 4080 ist nvidias Topmodell.
Was Rastersizer-Performance angeht da werden sie wohl in Schlagreichweite kommen. Aber mal sehen was Tests so ans Tageslicht bringen werden. :)
Troyan
2022-11-07, 10:19:07
Wen interessieren UVP, wenn Straßenpreise ganz andere sind?
Ampere-Karten waren 2020 auch nicht erhältlich und die Straßenpreise deutlich über UVP. Im Grunde liegt aktuell der Unterschied zwischen UVP und Straßenpreis sogar niedriger, da der Euro alleine zu 20% Aufpreis führt. Zieh das mal ab und die 4090 lägen bei 2000€ und das war Ende 2020 3090 Niveau...
Limit
2022-11-07, 12:31:36
Man muss sich das immer vor Augen halten: AD104 mit 298mm^2 wird mit Raytracing sogar schneller sein als der 300mm^2 Compute-Chip von AMD. Das Ding dürfte nicht größer als 200mm^2 sein, um den MCD-Ansatz wirtschaftlich nutzen zu können...
Das wäre nur dann ein sinnvoller Vergleich, wenn auch die Raster-Performance auf Augenhöhe wäre, ansonsten könntest du mit Blick auf diese sagen, dass die 4090 60% teurer als die 7090 ist bei kaum besserer Performance. Beide Vergleiche hinken.
Zudem ist der Zweck von Chiplets Kosten zu sparen und wenn man die Preise vergleicht scheint das durchaus zu funktionieren.
Disco_STFU
2022-11-07, 13:06:04
Dieses X3D anhängsel ist imho ja auch nicht wirklich sinnvoll und eien 7900XTX3D wäre ja der Zungenbrecher schlechthin...
Ich glaube du hast die Radeon X1950 XTX vergessen! ;D
Leonidas
2022-11-07, 13:08:47
Die von XFX?
Disco_STFU
2022-11-07, 13:17:34
Die von XFX?
Sehr gut! :biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.