PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMDs Navi 41 und Navi 42 angeblich gestrichen


Leonidas
2023-08-06, 07:33:08
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-amds-navi-41-und-navi-42-angeblich-gestrichen

TheGood
2023-08-06, 08:14:28
Liest sich nicht so gut, die news der letzten Tage, aber deine Zuversicht ist toll :)

Mit dem Baukastensystem hast du natürlich recht, das sollte AMD eine geisse flexibilität liefern um solche Dinge auch entsprechend "kuzrfristig" durchzuziehen.
Vermtulich ist es so, dass diese Chips, den zwischengenerationen der konsolen entsprechen werden.

Iscaran
2023-08-06, 09:28:55
Das scheint mir nun eine erster Gerüchtehinweis darauf zu sein, dass AMD hier den Weg des 1 GCD wählt und nicht mehr wie noch bei Navi 3x mehrere GCDs kreiiert.

Die höheren GPU Klassen entstehen dann als Chiplets mit multiplen GCDs.

Navi 43 dann z.B. 1x20 WGP
Navi 42 dann z.B. 3x20 WGP
Navi 41 dann z.B. 5x20 WGP

oder jede beliebige andere ganzzahlige Kombination von n X GCD (1, 2, 4) oder (1, 2, 3, 4, 5, 6)
Das bestätigt IMHO also dass AMD nun vollständige auf den Chiplet weg geht.

Navi 3x war ja da noch eine Art Hybrid. Man hatte 3 unterschiedliche GCDs kombinierte diese aber mit immer gleichen MCDs in variabler anzahl.

Gast
2023-08-06, 10:18:35
Ist doch sehr voller persönlicher Argumentationen und Wünsche (was natürlich aus Sicht eines GPU Enthusiasten normal sein dürfte), dass das MCM mit mehr als einem GDC im Consumer gescheitert ist, pfeifen die Spatzen von den Dächern. NVidia scheint ein riesen Ding raushauen zu wollen. AMD hängt nun immer weiter hinterher.

Das man soetwas so einfach ersetzt bekommt und RTG zwei Designteams am Start hat ist eher unglaubwürdig. Das ist um es mal bei Namen zu nennen Katastrophe. Man hat sich wie mit Bulldozer komplett verrannt.

AMD ist wohl zuerst weit abgeschlagen und ob man das in so kurzer Zeit aufholt, würde dann eher NVidia zu verdanken sein, wenn die Ada erst mal Ada sein lassen und dann selbst aus Kostengrunden eher nur einen Refresh bringen. Das wäre denkbar und man sich zurücklehnt, wobei man nur das bringt was einen vorne hält und bringen muss, nur wird dann die nachfolgende Gen um so schlimmer.

Gut möglich das derzeit wegen dieser Fehlentwicklung sogar RTG auf der Kippe steht. Anscheinend bekommt man das Problem Enthusiast nicht allein gelöst und fokussiert sich nur noch aufs Midrange bis Mainstream.

Enthusiasten kaufen AMD eben zu wenig, wobei AMD gerade Enthusiast immer hinten dran hängt. Es ist AMDs grösstes Problemkind. Nur etwas innovativ und kostengünstig bauen oder beim Namen nennen, bedeutet nicht gleich das es von der Geschwindigkeit konkurrenzfähig ist.

Ich habe AMD jahrelang die Treue gehalten und immer gehofft man kann umsetzen was man verspricht. Vega und Vega 2 damals mitgenommen, RDNA2 auch. Leider bin ich seit dieser Gen auch raus. Es macht keinen Sinn für gleiche Preise weniger Leistung einzukaufen, wobei bei steigenden Kosten und Preisen jeder genau hinschaut was er kauft.

Sorry AMD, aber so ist es nunmal mal.

GerryB
2023-08-06, 11:23:06
Ball flach halten statt vorschnell urteilen?

Ob z.Bsp. N43 ähnlich gut funzt wie das Gegenstück von NV kann man net kategorisch ausschließen. (IPC-Gleichstand)

Mir geht das in der jetzigen Gen. total auf den Geist, das Viele die XTX mit ner 4090 vgl. wollen.
(ne 4090 hat 90% mehr Shaderflächen im Silizium und kann bei weniger Takt+Volt effizienter sein = normal)

Wie das Lineup ausschauen mag, ... erstmal abwarten.

Ob AMD vllt. in anderer Reihenfolge launcht, why not, N43+44 für Mobil ist wichtig.(vs BM)
Der größte N4x hat wohl eeh Zeit bis 2025/26, wenn NV auch auf 3 Jahre-Rhythmus geht, = Ende 2025.

Leonidas
2023-08-06, 11:33:03
Wenn man jetzt alles umgehend umändert, braucht man die Reihenfolge nicht ändert. Dann kann N45 trotzdem vor N43 kommen. Der Tape-Out-Termin des ersten RDNA4-Chips liegt frühestens bei Ende 2023. Zeit genug, wenn man nur die Chip-Konfiguration ändern muß und nichts neues erfinden muß.

vinacis_vivids
2023-08-06, 11:35:46
AMD wird keine 2000 USD GPUs für den Gaming-PC bauen.

Bei RDNA4 wird sich das Logik-GCD bei max. 250-280mm² Größe sich bewegen.
Bei N3E / N3P sind das 223 - 238 Mio. Tr. /mm² , also 55,75 bis 66,64 Mrd. Transistoren für das Logik-GCD. Das sind Zahlen, mit denen man auch arbeiten kann.

Irgendwelche emotionalen Huldigungen für Halo-Produkte wird es nicht geben. Es kaufen nicht alle Leute das Neueste von Apple, es gibt genügend Leute mit günstigen Android.

N3P kostet derzeit 22.000 USD pro 12-Inch Wafer bei magerer 55% Ausbeute.

Bei 250-280mm²

250mm² (25mm X 10mm)
DPW: 232
Ausbeute 55%: 127 ,6
22000 USD / 127,6 = 172,41 USD pro GCD

280mm² (28mm X 10mm)
DPW: 203
Ausbeute 55%: 111 ,65
22000 USD / 111,65 = 197,04 USD pro GCD


N5 - 304,35mm² N31XTX (~ 25,12mm X 12,12mm)
DPW: 186
Ausbeute 75%: 139,5
17000 USD / 139,5 = 121,96 USD pro GCD


Egal wie wir es drehen wollen. Der Anstieg pro GCD von 5N 122 USD auf 3NE 172 USD oder auch N3P 200 USD muss zwingend beim Kunden auch ankommen.

122 USD auf 172 USD ~ +41%
122 USD auf 200 USD ~ +64%


RDNA4 wird vllt. der erste Versuch (nach RDNA2 und RDNA3) für AMD Grafikkarten oberhalb der 999 USD Grenze zu verkaufen. Performance-Target ist dann die 4090Ti 142 (144) SM für 1100-1200 USD, also 8900XTX 120 (128) CU.

Allerdings nicht heute, sondern erst 2024 wenn N3E / N3P verfügbar ist.

Der Hotspot ist allerdings N42 im Preisbereich von 500-800 USD, N43 bei 300-500 USD und N44 bei 200-300 USD. Der Fokus sollte daher ganz klar in den dreistelligen USD-Bereichen liegen.

Fragman
2023-08-06, 11:38:48
Vielleicht schichtet AMD auch einfach die Produktionskapazitäten um damit der Profimarkt mit AI Beschleunigern entsprechend bedient werden kann?
Was würden sie im Gamingbereich verlieren?
Ihr Anteil hier ist klein, High End läuft wohl nicht so richtig und nv zeigt, das man mit AI Beschleunigern selbst Geld drucken kann.

Dazu kann man wohl davon ausgehen, das RDNA5 in die neuen Konsolen rein kommt und man dafür massig Kapazitäten braucht, die man dann nicht für das Profisegment reservieren kann. Also warum nicht jetzt die Chance nutzen und die Umsätze mitnehmen?

Ist eine wilde Spekulation, aber durchaus denkbar.

Exxtreme
2023-08-06, 11:45:42
Japp. Die Kunden haben mit dem Geldbeutel abgestimmt, dass sie keine High-End-Grafikkarten von AMD wollen also wird es so schnell keine mehr geben. Da steckt man die Kapazitäten lieber woanders hin. Ist vollkommen verständlich.

Buddy Casino
2023-08-06, 11:46:25
Vielleicht schichtet AMD auch einfach die Produktionskapazitäten um damit der Profimarkt mit AI Beschleunigern entsprechend bedient werden kann?
Niemand benutzt AMD für AI, weil der Software Stack Mist ist. NV hat sich bereits die TSMC Kapazitäten gesichert um den Boom bedienen zu können. Was soll AMD da genau machen?
Nach dem Mining Boom gibt es jetzt den AI Boom, die Zeiten waren nie besser für GPUs, und AMD hockt im Sandkasten und backt Kuchen die keiner haben will. Muss man erstmal schaffen.

Leonidas
2023-08-06, 11:47:43
Die Frage ist eben:
1) nur keine Enthusiasten-Lösungen mehr, was in gewissem Sinn verständlich ist
2) Rückschrauben auf Mainstream-Performance mit maximal N43

Zwischen beiden Ansätzen sehe ich schon einen Dimensions-Unterschied.

MD_Enigma
2023-08-06, 12:11:14
Man darf nicht vergessen, dass AMD parallel an einer next-gen PlayStation werkelt. Es wäre gar nicht so schlimm, als nächstes einen soliden AD103-Konkurenten zu bringen. Der Markt lechzt nach solchen Chips zu fairen Preisen. Sobald die Playstations draussen sind, braucht auch der Gaming-Markt neues Futter.

Daredevil
2023-08-06, 12:21:43
Und wie man aktuell sieht, ist Nvidia im mittleren Pressegment eh nur so halbherzig zur Stelle, also dort genau wäre ein richtiger Angriff ziemlich gut. ( RX480/RX580 war dort sehr erfolgreich )

Man sagt ja, man soll sich dort hinbewegen, wo der Ice Hockey Puck ankommt und nicht dort, wo er aktuell ist. Wenn Nvidia nun Gaming halbherzig abfrühstückt und im AI Bereich unaufholbar Geld verdient, wäre der Angriff im Gaming durch AMD vielleicht ja der beste Schritt. Dort angreifen, wo die Konkurrenz abgelenkt ist. Nicht im 1000€+ Bereich, sondern bei 200-500€ und Gaming mal wieder richtig attraktiv machen.

Oder Nvidia schafft es, aus ihren AI Beschleunigern soviel Gaming-Abfall zu produzieren, dass sie gut genug für AMDs HighEnd Gaming Lösung sind. Das wäre ein ziemlich schlechtes Zeichen für die Geldbeutel der Gamer. :usad:

ENKORE
2023-08-06, 13:34:43
Niemand benutzt AMD für AI, weil der Software Stack Mist ist. NV hat sich bereits die TSMC Kapazitäten gesichert um den Boom bedienen zu können. Was soll AMD da genau machen?
Nach dem Mining Boom gibt es jetzt den AI Boom, die Zeiten waren nie besser für GPUs, und AMD hockt im Sandkasten und backt Kuchen die keiner haben will. Muss man erstmal schaffen.

Es gibt Installationen von AMD-Beschleunigern, aber das ist eher im HPC/Supercomputer-Bereich. Ich vermute im kommerziellen HPC und natürlich auch AI-Bereich wird AMD erstmal keinen Stich sehen, eben weil 99.9% der kommerziellen Solver bei GPGPU auf CUDA setzen (soweit ich weiß gibt es nach wie vor keine Möglichkeit CUDA-Anwendungen ohne neu zu kompilieren auf ROCm laufen zu lassen, das ist bei kommerziellen Solvern also eh nicht möglich, aber selbst wenn es was binärkompatibles gäbe, viel Glück mit dem Herstellersupport - macht also keiner). Bei den Beschaffungsdiskussionen hier ist das AMD-Wort jedenfalls für GPUs gar nicht gefallen, die Frage war nur "was" und "wie viel" von NV... naja und selbst das "was" ist ja ziemlich klar. Also eigentlich nur "wie viel".

AI ist vielleicht noch am ehesten für AMD zugänglich, weil CUDA meist nicht direkt benutzt wird, sondern "lediglich" ein Backend für die üblichen Frameworks nötig ist.

Gibt es noch Leute, die "Profi-AMD"-Karten im CAD-Bereich etc. einsetzen? Gefühlt schon ewig nicht mehr gesehen - alles NV. Die Karten gibt's ja (PRO WX etc.), aber kauft die irgendjemand?

Korvaun
2023-08-06, 14:19:10
Problem ist leider aktuell das AMD sich offensichtlich entschlossen hat auch eine möglichst hohe Marge zu generieren. Wie soll ein aggressiver Kampf um Marktanteile funktionieren wenn die eigenen Karten technologisch hinten dran sind und Preis/Leistung nur wenig besser als bei nV ist? Und rein über den Preis gehen? Könnte nV jederzeit problemlos mitgehen, oder einfach nichts tun, die doofen Consumer-Schafe kaufen trotzdem genügend, solange AI brummt ist alles gut...

Was mich auch immer wundert... seit 2 Generationen hat AMD ein Monopol bei den Konsolen (mal Nintendo nicht gewertet) und es bringt 0,0 Vorteil für AMD PC Grakas. Keinerlei bessere Optimierung, keine Engines die für AMD GPUs vorteilhaft sind, nix...

Dino-Fossil
2023-08-06, 14:44:34
Vielleicht kommt es so, nur - die frühen Gerüchte zu den letzten Generationen waren oft komplett abwesend oder enthielten ne Menge Unsinn.
Muss also gar nix heißen, meiner Meinung nach.

Gast
2023-08-06, 15:02:56
Vielleicht schichtet AMD auch einfach die Produktionskapazitäten um damit der Profimarkt mit AI Beschleunigern entsprechend bedient werden kann?
Was würden sie im Gamingbereich verlieren?
Ihr Anteil hier ist klein, High End läuft wohl nicht so richtig und nv zeigt, das man mit AI Beschleunigern selbst Geld drucken kann.

Dazu kann man wohl davon ausgehen, das RDNA5 in die neuen Konsolen rein kommt und man dafür massig Kapazitäten braucht, die man dann nicht für das Profisegment reservieren kann. Also warum nicht jetzt die Chance nutzen und die Umsätze mitnehmen?

Ist eine wilde Spekulation, aber durchaus denkbar.

Hab ich schon im anderen Thread erwähnt.
Denke auch, dass AMD die CoWoS kapazitäten, die sie ergattern konnten auf die Instinct MI300/350x umschichtet.

Gast
2023-08-06, 15:48:17
RDNA4 wird vllt. der erste Versuch (nach RDNA2 und RDNA3) für AMD Grafikkarten oberhalb der 999 USD Grenze zu verkaufen. Performance-Target ist dann die 4090Ti 142 (144) SM für 1100-1200 USD, also 8900XTX 120 (128) CU..
Wer bitte kauft eine gehobene Mittelklassekarte für 1000 Dollar? Den Müll wird AMD nie los, so wie jetzt schon die 7900xt und 7900xtx in den Regalen vergammeln und man die Preise unter 1000$ senken muss.

4090ti wird es nie geben und die Leistung kriegt du bei Nv vermutlich dann um die 5070 für 650-800 Dollar. Da kauft kein Mensch einen Navi für um 1000, was für Wunschträume. Die 4060ti mit 16GiB ist heute schon auf 2080ti Level.

AMD bestätigt mit der Streichung nunmehr das sie Enthusaist komplett abgeschlagen sind und es keine Produkte in der nächsten Gen für Enthuisasten geben wird, mal wieder. Viel Gelaber und Hype um nix, wie es bei denen typisch ist. Vega 7 war auch nichts weiter als eine umgelabelte Pro/HPC Karte. Energie hungrig, laut und lahm - angekündigt hatte man was anderes. Das eignet sich bekannterweise aber nicht expliziet zum spielen.

RDNA2 war wohl nichts weiter als ein bereinigter Glückwurf und nun geht es jahrelang mit dem alten Trott weiter, hohe Preise für abgeschlagene Leistung gegenüber der Konkurrenz (Intel TIC TIC TIC lässt grüßen). Braucht keiner. Irgendwann wird das auch dem Letzten einleuchten. Mich erinnert das an viele Publisher, wenns erstmal gekauft wurde - viel versprechen und davon nichts einlösen.

Zudem entwickelt man sich mit seinem Gehabe immer mehr zu Nvidia (dann kann man gleich das Original kaufen), kann aber deren Leistung nie liefern. Siehe Starfield wo man DLSS ausschließt weil man einfach nichts hat was dem ebenbürdig ist. Früher haben sich alle aufgeregt wo Nvidia PhysX nur für sicht entwickelte und AMD ausschloss. Wenns AMD macht, ist es ok.

Wenn man dann mit der 6060ti bei 150w 4080-4090 Leistung um 500-600$ kauft, gehen bei AMD die Lichter aus. Das künstliche Aufpumpem bringt nichts, die Effizienz liegt im Code versteckt, damit hat sich AMD noch nie auseinander gesetzt. Die kommen lieber alle Nase lang mit neuen gutklingenden Ansätzen, wobei der Hype darum schnell verpufft und den Entwicklern gar nichts bringt. Die brauchen Stabilität, langjährige Konzepte die aufeinander aufbauen und eine gute Codebasis mit dazugehörigen funktionalen Tools, und da hapert es bei AMD gezielt. Nvidia ist nun in Vulkan schneller und das will was heißen.

AMD klatschen dir immer irgendwas hin und meinen das sei das open source Nonplustultra, kümmer dich um den Rest allein. Der Aufwand in der Entwicklung ist heute so groß, dass man das kaum noch schafft und da ist jede hilfreiche Code- und Toolsbasis willkommen. Die haben einen wichtigen Trend komplett verschlafen und hängen meilenweit hinterher.

Gast Ritis
2023-08-06, 16:07:37
Alles eine recht alberne Diskussion wenn man die Zeiträume bedenkt um die es geht.
Die 4090 ist schon heute so unterfordert wie ne 1080 zur letzten Konsolengeneration. Mir graust heute schon wieder vor den künftigen Forenbeiträgen, die die Konsolen für Stagnation verantwortlich machen werden, statt die kleiner als 16gb GPUs die heute noch den Massen angepriesen und verkauft werden zu verteufeln.
Die Shader der teuren 40er werden doch auch nur für DirectStorage missbraucht um mal ausgelastet zu werden wo nen ASIC das auch günstiger könnte.
Es wird keinen Bedarf an viel schnelleren Gaming GPUs geben bis 2027. Die „ich kaufs weil ich es kann“ Fraktion ist eh grün konditioniert.
AMD muss in RT übertrieben nachlegen um nicht wie bei Tesselation im Brute Force Benchmark-Race zu verlieren.

Wen juckt schon CUDA im Gaming, im AI wird jede Menge auch auf AMD hin optimiert und wer skalierende Businessmodelle rechnet setzt auch nicht auf Nvidia, siehe Autoindustrie…. da ist noch viel in Bewegung bis die Blase platzt. AI auf dem Desktop bleibt doch auch schon etwas zu lange ein Luftschloss in Marketing-Seifenblasen. :D

Gast
2023-08-06, 16:16:16
N3P kostet derzeit 22.000 USD pro 12-Inch Wafer bei magerer 55% Ausbeute.

Warum gehen eigentlich alle davon aus, dass AMD den preisgünstigeren 4nm-Prozess auslässt? Sogar bei Prozessoren will AMD N4 und N3 nutzen. Bei Prozessoren macht N3P Sinn, da will man maximalen Takt und hat nur kleine Chiplets. Bei Grafikkarten braucht man gute Ausbeute und brauchbare Preise für größere Chips, da nimmt man N4, auf die letzten 5 Prozent Taktpotential kann man verzichten, in dem man den Chip einfach fünf Prozent breiter macht.

iamthebear
2023-08-06, 18:56:05
N3P kostet derzeit 22.000 USD pro 12-Inch Wafer bei magerer 55% Ausbeute.

55% passt doch perfekt für eine 8900 XTX.
Die restlichen 45% verkauft man dann teildeaktiviert als 8900 XT oder die ganz schlimmen Fälle als 8900.

Was N3 vs. N4 angeht:
Ich denke hier ist es eher umgekehrt, dass man bei den Desktop CPUs auf N4P/N4X setzt um hohe Spitzentaktraten zu erreichen und der Verbrauch sekundär ist, da sowieso sehr selten alle Kerne voll ausgelastet sind und man fehlende ST Performance nur durch sehr hohen Transistoreinsatz kompensieren kann. Abgesehen davon ist die Hälfte des Zen4 Dies Cache, der sowieso nicht skalieren würde.

Bei High End GPUs ist die Spitzentaktrate sekundär, da man diese quasi beliebig durch zusätzliche Einheiten kompensieren kann. Man profitiert von der stark gestiegenen Transistordichte und dem niedrigeren Energieverbrauch.
Die Fehlerdichte mag zwar etwas höher sein als bei der 5nm Klasse aber dafür ist auch der Die deutlich kleiner, was das leicht kompensiert.

Die Mainstream GPUs werden (wie z.B. N33) vermutlich in 4nm kommen, da diese monolithischen Dies nur sehr wenig Logik enthalten und zum Großteil aus IO und Cache bestehen.

Altehardware
2023-08-06, 19:53:20
Nun ich habe die Meldung selber gesehen was mich zweifeln lässt ist
Mit n4p könnte man nur 11% Takt gewinnen aber das problem das die alu bei gleicher dense die datennkonsistenz nicht halten kann ohne massive an strom draufzuhauen wird der Takt infolgedessen nicht steigen.
Darum muss man das design ändern was sein kann ist das man auf multi gcd verzichtet und das die n41 und n42 sind und es ein chip mit 60cu geben wird.
Auf n3 käme man auf grob 128mm² kleiner als bisher 186mm² der node ist teurer aber das wäre egal.
Da die alternative +10% chipgröße für n4p aufgrund des fixes beim cache der chip größer wäre als mit n5 also 206mm€ vs 186mm²
Da muss n4p schon unter 12k$ sein damit sich das lohnt.

morbidmorgis
2023-08-06, 22:01:57
Eine weitere mögliche Auflösung wäre natürlich auch:

"AMD scheint die Leak-Kanäle gut unterbunden zu haben, womit sich die Qualität der Leaks zu AMD-Grafikkarten oftmals (nachträglich) als "unterdurchschnittlich" erweisen."

GerryB
2023-08-06, 22:10:39
Oder N41+42 waren einfach nur Dummenfang, für die "NV-Spione".
(wozu Multi-GCD, wenn mit 3nm mehr Packdichte geht)

ala 7990, um NV zu so nem sinnlosen Monsterchip für die 4090 zu verleiten
(braucht kein Mensch mit 4k@FSR/DLLS)

Gast
2023-08-06, 22:38:14
Niemand benutzt AMD für AI, weil der Software Stack Mist ist. NV hat sich bereits die TSMC Kapazitäten gesichert um den Boom bedienen zu können. Was soll AMD da genau machen?
Achso, der größte GPU-basierte Cloud Anbieter für AI ist also niemand...
Und ROCm ist durchaus gut gereift, bietet TensorFlow und PyTorch. Dazu noch Tools, die CUDA Code automatisch in HIP Code übersetzen.

iamthebear
2023-08-06, 23:51:51
Nur was hat AMD davon wenn Nvidia mehr Performance bringt als sie eigentlich müssten? Das sorgt doch nur dafür, dass sich die 700-1000$ Karten nicht mehr verkaufen, da jeder das Gefühl hat dabei über den Tisch gezogen zu werden.

Ich denke die viel logischere Erklärung ist, dass das ganze Multi GCD Zeugs nur der Wunschtraum einiger Fanboys ist und die Youtuber die Story pushen um Views zu generieren.

Gast
2023-08-07, 09:03:26
nein amd hatte dazu selbst pdf verbreitet. obs im consuner auch geplant war ist ungewiss.

das sie schon auf 3nm gehen glaube ich indes nicht. der output in 5nm = 4n ist super. es liegt eher daran die dies dann zu verwursten, an der ausbeute liegt es also nicht.

ein package von gdc mit zwei dies fur consumer ist daher die nächsten 2-3 jahre undenkbar und viel zu teuer, das ist wohl alles und amd konzentriert sich auf machbare losungen für den massenmarkt.

man nutzt die derzeitigen kapazitäten für hpc und ai. dies gibt es also genug, man bekommt sie nicht ins package. das muss man erstmal lösen und abarbeiten.

es ist aber auch eine große chance für amd dort mit den eigenen partner aufzuholen...erfahrungen hat man seit jahren genug gesammelt.

E39Driver
2023-08-07, 10:02:51
Wäre schade wenn sich AMD aus dem HighEnd GPU-Markt zurück zieht. Kann aus Unternehmenssicht leider aber durchaus Sinn machen.

In Prinzip läuft man Nvidia seit 15 Jahren hinterher uns stagniert bei seinen 20% Marktanteil, egal was man macht. Selbst in den kurzen Phasen in der man zeitweise führend war (zur Einführung der HD5000 und der ersten GCN-Iteration) wurde es auf Käuferseite nicht honoriert. Auch jetzt mir RDNA2 war man sehr konkurrenzfähig. 6700XT und 6800XT waren imho besser als die direkten Geforce Gegenstücke. Und dennoch verharren diese Karten in der Steam-Hardwareumfrage im 0,0-Promille Bereich. Fazit wäre aus Controllersicht also es ist egal was man anbietet, die Kunden kaufen oberhalb von Midrange-Lösungen kein AMD.

Jetzt wo der PC-Gaming Markt im Vergleich zu den Konsolen eh sehr rückläufig ist, könnte man vermutlich die strategische Entscheidung getroffen haben, das kostspielige Rennen um die Leistungskrone einzustellen. Da es von Kundenseite eh nicht honoriert wird. Man nimmt als Low-Hanging-Fruits die ~ 20% Marktanteil im IGP- und Midrange Bereich mit und spart sich große Entwicklungskosten. Diese können dann auf die deutlich margenstärkeren Bereiche der CPU-, der KI- und der Konsolen-Chips umgeschichtet werden. Mal schauen ob es so kommt, ich hoffe zwar nicht, denke aber so wird es laufen

Dino-Fossil
2023-08-07, 10:15:02
Immerhin haben diese Gerüchte den Vorteil, dass man AMD mal nicht irgendwelche Wunder-GPUs andichtet, was dann letztlich wieder nur zum eventuellen Entgleisen des Hype-Trains führen kann.

Andererseits ist es ja auch noch ein bisschen hin - da kann sich noch viel tun... :ugly:

DozerDave
2023-08-07, 14:56:21
Ich bin verwundert, dass Tom von MLID noch kein Video zu dem leak gemacht hat.

Exxtreme
2023-08-07, 14:57:27
Immerhin haben diese Gerüchte den Vorteil, dass man AMD mal nicht irgendwelche Wunder-GPUs andichtet, was dann letztlich wieder nur zum eventuellen Entgleisen des Hype-Trains führen kann.

Andererseits ist es ja auch noch ein bisschen hin - da kann sich noch viel tun... :ugly:

Wobei man fairerweise sagen muss, den Hypetrain hat AMD beschleunigt indem sie RDNA3 Dinge angedichtet hatten, die sie am Ende nicht halten konnten.

aufkrawall
2023-08-07, 14:57:40
Ich bin verwundert, dass Tom von MLID noch kein Video zu dem leak gemacht hat.
Passt ihm als AMD-Shill halt vermutlich so gar nicht.

Nightspider
2023-08-07, 15:32:51
Was ist denn ein Shill? :D

Dino-Fossil
2023-08-07, 15:43:30
Wobei man fairerweise sagen muss, den Hypetrain hat AMD beschleunigt indem sie RDNA3 Dinge angedichtet hatten, die sie am Ende nicht halten konnten.

Ja, aber die waren wenigstens deutlich zurückhaltender (wenn ich mich richtig erinnere), als alles was gerade in der Frühphase kursierte.

Gast
2023-08-07, 15:44:27
Wobei man fairerweise sagen muss, den Hypetrain hat AMD beschleunigt indem sie RDNA3 Dinge angedichtet hatten, die sie am Ende nicht halten konnten.

Da ist AMD wohl selbst den (unvollständigen) Gerüchten auf den Leim gegangen.

Man ist wohl davon ausgegangen, dass NV die kolportierten 600W tatsächlich braucht um die Performanceziele zu erreichen, und man damit selbst auf dem selbstgewähltem Powerlimit durchaus kompetitiv ist.

Man hat wohl nicht damit gerechnet, dass die 600W die OC-Grenze ist, und selbst das Powerlimit von 450W oftmals deutlich unterboten wird.

Exxtreme
2023-08-07, 16:04:29
Was ist denn ein Shill? :D

https://de.wiktionary.org/wiki/shill

Da ist AMD wohl selbst den (unvollständigen) Gerüchten auf den Leim gegangen.


Das glaube ich nicht, dass AMD Gerüchten auf den Leim geht. Da sie es besser wissen müssen da sie der Hersteller sind. Es ist z.B. so, dass sie die versprochene Energieeffizienz nicht halten können. Die haben 50% auf Präsentationsfolien versprochen, schaffen es aber mit Ach und Krach so um die 40%.

Gast
2023-08-07, 16:56:36
Zeit für diese Umstellung der Chip-Konzeption ist durchaus noch vorhanden, wenn man mit der Navi-4x-Chipserie nicht vor Ende 2024 (oder erst 2025) rechnen muß.

Vermutlich hat AMD bei der Entscheidung zwischen mehreren GDC oder einem großem GDC für Letzteres bereits einen Entwurf erstellt/simuliert.

Gast
2023-08-07, 17:37:42
In Prinzip läuft man Nvidia seit 15 Jahren hinterher uns stagniert bei seinen 20% Marktanteil, egal was man macht. Selbst in den kurzen Phasen in der man zeitweise führend war (zur Einführung der HD5000 und der ersten GCN-Iteration) wurde es auf Käuferseite nicht honoriert.

Die Kunden konnten es bei der HD5000 gar nicht honorieren. Ich weiß noch genau wie es war, die Karten kamen raus und wurden direkt ausverkauft. Danach gingen die Preise (im Handel, nicht bei AMD) hoch, bis Nvidia endlich was vergleichbares liefern konnte.

Das Problem an AMD ist, dass sie vorher nicht einschätzen können wie gut ihre neue Generation sein wird, also bestellen sie ihre Kapazitäten für 20 Prozent Marktanteil. Wenn die Karten gut sind, können die eben dennoch nicht mehr Grafikkarten verkaufen, weil nur für 20 Prozent Marktanteil Grafikchips bestellt wurde. Wenn die Generation schlecht ist, dann muss AMD die Preise senken und läuft im schlimmsten Fall Gefahr rote Zahlen zu schreiben, deswegen riskiert AMD es auch nicht mehr Chips, als für 20 Prozent nötig, zu bestellen...

Gast
2023-08-08, 08:47:02
Das glaube ich nicht, dass AMD Gerüchten auf den Leim geht. Da sie es besser wissen müssen da sie der Hersteller sind.

Man hat es natürlich nicht direkt gesagt, aber wenn man zwischen den Zeilen liest ist es doch ziemlich klar.

Die Aussagen damals waren ja doch sehr Beschwichtigend in die Richtung man könnte wenn man wollte, aber man will nicht in die Wattbereiche der Konkurrenz vordringen, und damit konnte man nur die 600W meinen, weil der Realverbrauch zwischen 4090 und 7900XTX unterscheidet sich jetzt nicht so wirklich großartig, da sind vielleicht 10% Unterschied.
Man wusste definitiv dass NV mit auf 600W ausgelegten PCBs und Kühlern "herumspielt" und man hat wohl angenommen dass dafür auch entsprechende Produkte kommen.

Ironischerweise hätte es AMD sehr geholfen, weil die 4090 die eh kaum am Powerlimit hängt gewinnt mit 600W kaum dazu, die 7900XTX mit jeder Menge Taktpotential dass sie aufgrund des Powerlimits nicht ausspielen kann würde deutlich mehr profitieren.

Mit beiden auf 600W wäre AMD deutlich näher an NV dran.

Lehdro
2023-08-08, 15:12:51
Ironischerweise hätte es AMD sehr geholfen, weil die 4090 die eh kaum am Powerlimit hängt gewinnt mit 600W kaum dazu, die 7900XTX mit jeder Menge Taktpotential dass sie aufgrund des Powerlimits nicht ausspielen kann würde deutlich mehr profitieren.

Mit beiden auf 600W wäre AMD deutlich näher an NV dran.
NV hätte einfach eine 4090 Ti mit vollem Cache, mehr SMs und schnellerem Speicher bei 500W released und würde immer noch Kreise um eine 600W 7900XTX drehen. Bei NV sind da locker noch 10-15% drin ohne an der GPU-Taktschraube drehen zu müssen. Selbst eine 3 GHz OC Vanilla 4090 eiert "nur" um die 500W rum, das könnte man bei einer rein theoretischen 600W 4090 Ti auch noch draufpacken, wären noch mal 5-10%, je nach Last. Deswegen hat AMD das auch gelassen, denn das wäre wirklich peinlich geworden. So lieber von unten an der 4090 nagen, anstatt aus vollem Galopp mit der Brechstange auch wieder nur abzuprallen.