PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia soll an einem "Blackwell" MultiChip-Design für den Gaming- ...


Leonidas
2023-10-04, 10:09:41
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-nvidia-soll-einem-blackwell-multichip-design-fuer-den-gaming-einsatz-gearbeitet

Cubitus
2023-10-04, 10:22:35
Ach, ich finde es gar nicht mal so schlecht, bewährte Technik, welche funktioniert und keine Kinderkrankheiten bietet.
Nvidia wird iwann auch ohne AMD auf MC-Technik setzen, wenn dann wirklich bei dem Monolith nichts mehr herauszuholen ist.

Complicated
2023-10-04, 10:54:59
Das ist wohl das dämlichste Gerücht ever.
Die Schlussfolgerungen auf den Quark im Artikel sind nur peinlich. Nvidia canceled ein solches Projekt wegen AMDs RDNA4? Sowas weiter zu verbreiten ist schon lachhaft...

MiamiNice
2023-10-04, 11:02:46
Eigentlich ist das sogar zwingend logisch :tongue:

Platos
2023-10-04, 11:57:39
Wäre es denn für AI-Zeugs nicht ohnehin von Vorteil? Also selbst wenn man das fürs Gaming nicht bräuchte, warum sollte man das dann nicht für Profi-Karten nutzen ? Bzw. warum sollte das überhaupt für Gaming entwicklet worden sein und nicht primär für Profi-Karten?

Ich würde sagen, dass Profi-Karten da als erstes davon profitieren (und auch von den Margen umsetzbar um Entwicklungskosten reinzubringen).

Also von daher würde ich sagen, wenn bei nvidia was in Richtung "Chiplets" gemacht würde, dann für Profikarten und nicht für Gaming (als erstes).

Gast Ritis
2023-10-04, 12:00:04
Die Einschätzung zu den Voraussetzungen für Multichip sind m.M. nach falsch.

Mit den Low-Level APIs wurde eigentlich verlangt, dass die Programmierer Fences und Barriers sauber und logisch deklinieren - die linearen Abhängigkeiten ausweisen. Innerhalb dieser könnte sehr wohl eine Codeanalyse zur Laufzeit oder precompiled für optimierte Treiber dazu genutzt werden die Parallelität auf Ausführungseinheiten im Die, oder OnChip oder gar über mehrere GPUs Off-Chip zu verteilen. Die Crux sind nur die Latenzen.
Wo ehemals die 60FPS als der heilige Grahl angesehen waren sind wird heute bei Benchvergleichen im dreistelligen Bereich. Hier lässt sich aber nur mit Low-Latency und Taktskalierung für die zu koordinierenden Compute-Threads auf einem Monolithen das Rennen gewinnen. Für 8k 60FPS GPUs gibt es keine Käufer, also wird das nicht gemacht. Nicht in HW nicht in SW.

Game-Code für GPUs zu optimieren ist der Kampf gegen die Bubbles wo die parallelen Einheiten brach liegen, aber nur dort wo es auch sichtbar wird.

Gerade an Vulkan ist aber zu beobachten, dass die meisten Entwickler auf Low-Level API und Fences und Barriers keine Lust haben weil das zu theoretisch ist. Kann man nicht sehen was es macht, es hat ja auch keiner ne Entwicklerkiste mit 5 verschiedenen GPUs wo man den Outcome mit nativen Treibern sehen könnte. Es wird primär gegen einen einzelnen unoptimierten Treiber gecoded.
Weil man den Benefit über diverse Treiber und Architekturen nicht sieht wird lieber wieder die Philosophie aufgebrochen und vereinfacht, sowohl in Vulkan als API selbst aber v.a. mit diverser Middleware-API bzw. Libs die sone Art DX11/OGL light drüber legt.

Es gibt praktisch keinen generischen optimierten LowLevel Code. Es wird mit dem limitierten Know-How was zusammengeschustert, was erst mal funktioniert. Ist ja schwierig genug, wer ist schon ein Code-Wizard. Und dann kommen die Vendor-spezifischen Pfade für die Marketing-Gimmiks oben drauf.

Das zeigt auch der Zustand von Starfield. Das ist nie und nimmer was Microsoft mit DX12 Ultimate vor 3 Jahren versprochen hat. Eher eine DX11 Engine die so gut wie möglich umgeschrieben wurde. Ohne DirectStorage, ohne SFBS, ohne DXR, ohne das ganze Set was DX12U an neuen Features vereinheitlichen wollte als Basis einer Neuentwicklung. Hie und da sind VRS oder vielleicht Ansätze zu Mesh-Shader eingeflossen, wer weiss das schon.

Am Ende hat man wieder Code, der nicht auf nativen Treibern für Multi-GPU wirklich geeignet ist. Schon besser als in DX11, aber nicht ohne Multi-GPU Fixes nutzbar.

Die Basis für Multi-GPU ist in Vulkan und DX12 da (ashes of the singularity?). Aber der Mainstream für die Plebs entwickelt sich anders...

UE und Unity sind noch nicht in der Lage dort mit einem clear cut zu helfen, denn der Support für alte APIs und Plattformen wurde höher gewichtet.
Theoretisch dann in 10 Jahren mit der nächsten Gen möglich. Aber bis dann wird man eh bemerkt haben, dass der Pleb auch nicht für mehr als 4k 120Hz extra bezahlen will und dafür genügen künftige Monolithen allemal... auch bei VR verzichtet man heute lieber auf Details als auf integrierte HMDs.

Die GPU Hersteller werden mit KI das Zeug der Game-Coder optimieren und skalieren. Das ist am Ende sicherer als auf effizienten generischen Code zu hoffen. Multi-GPU bleibt dann ein Thema der Fertigungskosten, aber nur sofern man das im Treiber als Monolithen darstellen kann.

Korvaun
2023-10-04, 12:05:23
Es wäre interessant wie das in Zukunft dann aussehen könnte. Wenn man z.b. Zwischenbildberechnung als extra Chip macht und das Ganze dann unabhängig von Treiber/Betriebssystem ist...

Gast
2023-10-04, 13:35:30
Also von daher würde ich sagen, wenn bei nvidia was in Richtung "Chiplets" gemacht würde, dann für Profikarten und nicht für Gaming (als erstes).
Ich dachte, MCM ist für Blackwell gesetzt?? Soweit ich weiß, war der Ansatz ähnlich Arcturus. Also 2 Chips mit Recheneinheiten und dazu dann mehrere Chips mit dem SI. Wenn man es geschickt macht, kann man den HBM dann sogar gleich auf die Chips stapeln.

Buddy Casino
2023-10-04, 14:45:38
UE und Unity sind noch nicht in der Lage dort mit einem clear cut zu helfen, denn der Support für alte APIs und Plattformen wurde höher gewichtet.
Was ist da in der Praxis die Abhängigkeit? Ich hätte jetzt naiv vermutet, dass sich die verschiedenen Backends nicht gegenseitig auf die Füße stehen.

Lehdro
2023-10-04, 16:49:57
NV cancelled etwas das rein technisch äußerst anspruchsvoll und teuer ist, weil AMD angeblich kein Gegner ist? LOL

Ist ja nicht so das AMD sowieso kein Gegner für Grün zu sein scheint, zumindest im eigenen Selbstverständnis. Noch dazu würde dieses Produkt eine technische Expertise erfordern, mit welcher man durchaus mal das 20-50 fache verdienen könnte, wenn man das bei den professionellen KI Beschleunigern einsetzen würde. Hat doch NV höchstselbst bestätigt, das nicht die Fertigung das Bottleneck ist, sondern das Packaging. Warum also sollte NV auf Geld verzichten und dieses technische Glanzstück auf Gamer loslassen, anstatt die Ressourcen lieber für"free money" aka KI Beschleuniger aufzuwenden? Kommt mir eher so vor als wären hier zwei Fakten unzusammenhanglos kombiniert worden:

AMD stellt MCM zurück weil technische Probleme + Kapazitäten/Ressourcen sind besser im professionellen Bereich aufgehoben
NV stellt MCM zurück, weil sich mit den Kapazitäten/Ressourcen mehr Geld bei KI verdienen lässt.

Zwei Akteure, eine Entscheidung: KI. Mit der Konkurrenz zueinander im Gamingbereich hat das aber wohl eher nix zu tun.

Gast Ritis
2023-10-04, 17:05:59
Was ist da in der Praxis die Abhängigkeit? Ich hätte jetzt naiv vermutet, dass sich die verschiedenen Backends nicht gegenseitig auf die Füße stehen.
Nein tun sie nicht direkt. Aber z.B. das UE5 RHI musste auch für DX11 kompatibel bleiben und allein die Option dass noch DX11 möglich bleibt, wenn auch ohne Lumen, ermöglicht einzelnen Projekten weiterhin den alten DX11 Code ins neue Projekt reinzupfriemeln um das Budget zu halten, statt auf Refactoring, Lizensierung oder Verzicht bei diversen Features gezwungen zu werden. Hat sicher auch Entwicklung von UE5 erleichtert weil es iterativ war. Kompromisse bleiben da aber immer, Optimierung bleibt schon im RHI aus. Abseits von Lumen ist die Pipeline generisch genug geblieben dass DX11 supportet werden kann, also immer der kleinste gemeinsame Nenner, nur bei Lumen hat man die Axt geschwungen und Legacy-Konzepte entledigt. Low Level API Vorteile ergeben sich aber v.a. in der wiederholten Verwendung durch Instanzen - die tausend Zwerge, Asteroiden oder Hochhäuser in den Beispielen. Wenn das im Editor/Design nicht belohnt wird weil es unter DX11 nicht belohnt wurde bleibt der Zugewinn klein. Was wird wie oft in welcher Abhängikeit (t) wiederholt ist die Gretchenfrage beim Verteilen von Threads durch den Treiber. Das RHI muss letztlich geeigneten Code mit Semaphoren bzw. Flaggensignalen https://www.khronos.org/blog/vulkan-timeline-semaphores versehen können, wenn darauf überhaupt ein Augenmerk gelegt wird. Weiss ich aber auch nicht wie gut die das bereits bei sonst auch DX11 kompatiblen Projekten umsetzen würden. Mit grösster Wahrscheinlichkeit nicht so gut wie ohne Legacy API Support...

MiamiNice
2023-10-04, 17:27:49
NV stellt MCM nur beim Gaming Blackwell zurück, da es scheinbar nicht nötig ist und es scheinbar auch keine Ente ist, dass sich AMD aus dem High End GPU Bereich zurückgezogen hat. Hätte ja sein können, dass AMD doch an etwas bastelt.
Klingt, für mich, logisch.

Gast
2023-10-04, 22:43:42
Echte Multichip-Lösungen (mit also mehreren Compute-Chips) sind zwar im HPC-Segment inzwischen allgegenwärtig, aber im Gaming-Segment viel schwerer zu realisieren und daher bislang noch nicht aufgetreten.

M1 Ultra und M2 Ultra existieren und sind kaufbar.

Leonidas
2023-10-05, 04:26:58
Nvidia canceled ein solches Projekt wegen AMDs RDNA4?

NV cancelled etwas das rein technisch äußerst anspruchsvoll und teuer ist, weil AMD angeblich kein Gegner ist? LOL

Wäre das normalste der Welt. Wenn man nicht weiter springen muß, springt man nicht weiter. Jede zurückgehaltene Reserve geht zugunsten der nachfolgenden Generation und läßt jene um so besser aussehen. Die Firmen müssen derart strategisch denken.

Selbstverständlich kann hier immer mit reinspielen, alle Advanded-Packaging-Kapzitäten (die derzeit wohl das Nadelöhr sind) zugunsten von HPC zu verwenden.



Ich dachte, MCM ist für Blackwell gesetzt??

Nur bei HPC-Blackwell.



M1 Ultra und M2 Ultra existieren und sind kaufbar.

Hast Du Recht. Meine Aussage bezog sich somit nur auf das PC-Segment außerhalb von Apple.

Complicated
2023-10-05, 11:23:57
Wäre das normalste der Welt. Wenn man nicht weiter springen muß, springt man nicht weiter.
Aber nur in deiner Welt. Vielleicht rechnest du mal zusammen was die Designkosten sind für solch ein Produkt und denkst mal eine Schritt weit darüber nach wie du die Ausgaben den Shareholdern verkaufen willst. Du bist mal wieder planlos beim Thema und fällst auf planlose Gerüchte rein.

Und wie Firmen strategisch denken ist nun nachweislich nicht dein Fachgebiet.

Lehdro
2023-10-05, 11:45:29
Wäre das normalste der Welt. Wenn man nicht weiter springen muß, springt man nicht weiter. Jede zurückgehaltene Reserve geht zugunsten der nachfolgenden Generation und läßt jene um so besser aussehen. Die Firmen müssen derart strategisch denken.

Na, wenn man so viel vorne liegt, macht man das was NV immer in diesem Fall gemacht hat. Das Produkt mit maximaler Effizienz für NV herausbringen - sprich so effektiv wie möglich. Gute Yields durch recht starke Beschneidung des Ausbaus, Fokus auf Effizienz und ein neuer Preispunkt um den neuen Leistungssektor gebührend zu feiern.

Nimm als Beispiel die Ur-Titan. Die musste man damals definitiv nicht so bringen. Als man es aber gemacht hat, kam sie stark heruntergetaktet, ordentlich beschnitten, sehr effizient aber auch zu einem damals unerhörtem Preispunkt auf den Markt.
Dadurch dass die 4090 den Preispunkt der 90er so hoch gezogen hat, könnte man einem Blackwell Titanen locker für mittlere vierstellige Preislagen anbieten. Völlig außer Konkurrenz der Blackwell 90er oder gar irgendetwas von AMD, ähnlich wie es die 4090 jetzt schon mit dem Rest vom Lineup tut. Die Käufer der Vanilla Titan hat damals das Gewusel darunter auch nicht wirklich interessiert, die Karte war auf einem komplett anderem Level, in jeder Hinsicht. Ähnliches hat NV dann auch genauso mit der Titan V durchgezogen.

Ich sehe das übrigens auch nicht so, dass NV sich zurückhalten müsste. Welchen Zweck hätte das? NV wird die 90er Karten an den neuen 90ern messen müssen. Eine eventuelle Blackwell Uber GPU mit MCM würde sich dementsprechend stark von der "normalen" 90er Blackwell Karte absetzen müssen. Demzufolge macht man "nur" eine neue Kategorie nach oben auf, der Nachfolger von Blackwell müsste also so oder so überall diese Zuwächse haben, völlig egal welcher Generation er angehört.

Als Beispiel:
"GB200" = Titan, MCM -> >125% Leistung
GB202 -> 90er, monolithisch -> 100% Leistung
Nachfolger von Blackwell:
GX200 = Titan, MCM -> ~175% Leistung
GX202 -> 90er, monolithisch -> ~140% Leistung

Wo hat jetzt der Verzicht auf die MCM Blackwell Karte einen Unterschied gemacht? Wenn du jetzt sagst, dass es NV erlaubt die Preise noch höher zu ziehen...das können sie mit einem MCM Titan erst recht. Das Selbstverständnis hat NV schon immer gehabt. Nur weil man das MCM Modell für eine Generation aufspart, wird es doch nicht automatisch "besser", da es zwangsläufig ausgehend von der jeweils aktuellen Architektur skalieren muss. Das tut es aber in jeder Generation! Sieh es mal so: Jedes % mehr Leistung zwingt die Käufer vorherigen Karten umso eher aufzurüsten, schon rein psychologisch.

Ich bleibe dabei: Der primäre Grund für die Einstellung des Blackwell MCM Chips fürs Gaming ist die Fertigungskapazität und die damit möglichen besseren Profite im KI Sektor. Die fehlende AMD Konkurrenz ist ein Feigenblatt seitens der Leaker, weil es sich so schön als Rechtfertigung liest.

Leonidas
2023-10-05, 13:24:12
Der primäre Grund für die Einstellung des Blackwell MCM Chips fürs Gaming ist die Fertigungskapazität und die damit möglichen besseren Profite im KI Sektor. Die fehlende AMD Konkurrenz ist ein Feigenblatt seitens der Leaker, weil es sich so schön als Rechtfertigung liest.

Denkbar. Und vor allem unwahrscheinlich, dass wir das jemals genau in Erfahrung bringen können.

Bedenke zu Deinem Beispiel aber auch: Wie weit GK100/GK110 damals war, wissen wir nicht. Heute glauben wir aber zu wisen, dass das GB200-Projekt noch vor Design-Ende gestrichen wurde. Das dürfte einen Unterschied machen. Wenn man schon weiter ist im Plan, sägt man so was sicherlich weniger gern ab als ganz am Anfang noch.

Complicated
2023-10-05, 14:23:34
Vor Designende gestrichen?
Dann war es kein konkretes Projekt. Ein feuchter Traum wohl eher. Das ist ja noch unplausibler. Jetzt werden schon Chips gestrichen, die nicht mal die Designphase erreichen - Das nennt sich gemeinhin "war mal angedacht" und war nicht umsetzbar.

OpenVMSwartoll
2023-10-05, 14:35:42
Evtl. ein ähnlicher Grund wie bei den Navi 4x Highend-Konstrukten.

Vielleicht scheitern beide noch daran, die GPU-Chiplets synchron ohne große Latenz arbeiten zu lassen.

Es gibt wenig Indizien, NVs Absage auf AMD zurückzuführen.

Gast
2023-10-05, 22:38:21
Der letzte Absatz ist nicht zum ersten Mal zu kurz und mit zu wenig Fantasie gedacht und geschrieben.
Schon auf klassischem Wege sind stärkere GPUs möglich. Kleinere Strukturen und größere Chips.
Dazu kommt der Ansatz mit ausgelagertem oder gestacktem Cache.
Außerdem könnte man separate(n) Chip(s) für Uncore realisieren, wie es anderenorts gemacht wird.
Daneben ist immer noch die Option denkbar, eben nicht einen auch allein lauffähigen Chip mehrfach zu verbauen.
Für die zunehmende Abwärme selbst bei Chiplet-Konstrukt gibt es z.B. mit auch rückseitiger Abführung ebenfalls Lösungsansätze.
Echte Cracks und Visionäre werden noch ganz andere Ideen haben.

Leonidas
2023-10-06, 05:03:37
Das nennt sich gemeinhin "war mal angedacht" und war nicht umsetzbar.

Ob nicht umsetzbar, wissen wir nicht. Aber "war mal angedacht" trifft es im weiteren Sinn. Es ist wohl nie über die Projekt-Phase hinausgegangen. Schließlich hatten auch die anderen Gaming-Blackwell-Chips mutmaßlicherweise noch keine Design-Ende.

Complicated
2023-10-06, 07:05:48
Hat nur alles nichts mit AMD zu tun.

E39Driver
2023-10-06, 11:41:35
Klingt mehr als logisch. Wie hier schon erwähnt das Pferd springt immer nur so hoch wie es springen muss. Reine marktwirtschaftliche Logik. Wenn AMD jetzt den Wettkampf um das HighEnd Segment scheinbar tatsächlich aufgeben wird, warum dann aus Nvidia Sicht mehr Ressourcen als notwendig investieren um die Leistungskrone zu sichern? Macht keinen Sinn. Man wird also mangels Konkurrenz nur einen besseren Midrange Chip im HighEnd Namensschema unterbringen und zu dessen Preispunkt verkaufen

"Freuen" wir uns also über die nächsten Jahre über minimale Leistungssprünge je Generation und weniger Innovationen. So wie es halt 5 Jahre auch im CPU Markt gelaufen ist als AMD als Konkurrenz mit Bulldozer ausgeschieden war und Intel jedes Jahr aus neue seinen winzigen 4-Kerner mit 5% Mehr Leistung als neue Generation verkaufen konnte. Einzig positiv zu sehen das damit auch das Rennen um immer höhere Leistungsaufnahmen vorerst beendet sein wird. War ja auch nicht mehr feierlich wenn so eine 450 Watt Karte einem das Zimmer aufgeheizt hat

MiamiNice
2023-10-06, 11:52:37
Die Situation ist im GPU Markt aber eine andere, als bei im CPU Markt. Intel wird kommen und es richten, dauert ggf. aber noch paar Jahre. NV ist auch nicht Intel. NV ruht sich nicht aus, so wie Intel. AMD wird nicht irgendwann wieder einfach aufholen können, so wie wir es mit dem Ryzen gesehen haben. AMD macht nun das, was AMD immer am besten konnte , nach einer kurzen starken Phase, nämlich den Fortschritt massiv behindern. Und so wird das jetzt bleiben, bis NV von Intel den Druck spürt.
Mich ärgert so etwas immer massiv. Den dicken Blackwell hätte ich gerne gesehen und wahrscheinlich auch gekauft.

E39Driver
2023-10-06, 12:58:20
AMD macht nun das, was AMD immer am besten konnte , nach einer kurzen starken Phase, nämlich den Fortschritt massiv behindern. Und so wird das jetzt bleiben, bis NV von Intel den Druck spürt.
Mich ärgert so etwas immer massiv. Den dicken Blackwell hätte ich gerne gesehen und wahrscheinlich auch gekauft.

Mal schauen, ich glaube noch nicht daran das Intel mit seiner GPU Roadmap ernsthaft am Ball bleibt und zu mehr als dem unteren Midrange fähig ist. Denke eher die GPU Sparte wird mittelfristig wieder eingestampft werden, da man jeden Dollar in der Foundry und CPU Sparte benötigt und es dort immer düsterer aussieht.

Wünschenswert für den Markt und die technische Innovation wäre natürlich ein ernstzunehmender dritter Player am Markt. Oder wenn dies nicht drin ist zumindest eine 60 - 40 Marktaufteilung zwischen Nvidia und AMD für einen maximal harten technischen Wettkampf. Anstelle der ~ 80% zu 20% Marktaufteilung die wir jetzt seit 15 Jahren sehen. Das ist auf Dauer nicht gesund für den Markt und sicherlich einer der Gründe für den Rückzug von AMD aus dem Highend und den Aufstieg der Konsolen während PC Gaming immer unbedeutender wird aufgrund der monopolhaften Preisgestaltung

Exxtreme
2023-10-06, 13:21:55
AMD macht nun das, was AMD immer am besten konnte , nach einer kurzen starken Phase, nämlich den Fortschritt massiv behindern. Und so wird das jetzt bleiben, bis NV von Intel den Druck spürt.

Also ich sehe nicht wo AMD Fortschritt behindert. Und AMD wird sich rühren wenn sich Intel auch rührt. Laut MLID nimmt AMD ausschließlich Intel als Konkurrenz wahr. Solange Intel keine konkurrenzfähigen Grafikkarten bringt solange wird auch AMD rumeiern so wie sie es jetzt auch tun. Deshalb canceln sie auch RDNA4 weitgehend. Weil sie mit RDNA3 weiterhin deutlich vor Arc liegen.

MiamiNice
2023-10-06, 13:54:23
Was ja nichts anderes heißt, als das NV jetzt frei drehen kann. Also noch freier als vorher, weil statt 0 Konkurrenz habt NV jetzt gar keine mehr. Da kann man sich natürlich leisten, den Top Dog zu canceln, den wie andere hier bereits geschreiben haben, springt das Pferd immer nur so hoch wie es springen muss. Also macht AMD im Umkehrschluss genau was? Sie behindern indirekt den Fortschritt wie damals zu Bulldozer Zeiten.

Lehdro
2023-10-06, 14:14:07
Was ja nichts anderes heißt, als das NV jetzt frei drehen kann. Also noch freier als vorher, weil statt 0 Konkurrenz habt NV jetzt gar keine mehr. Da kann man sich natürlich leisten, den Top Dog zu canceln, den wie andere hier bereits geschreiben haben, springt das Pferd immer nur so hoch wie es springen muss. Also macht AMD im Umkehrschluss genau was? Sie behindern indirekt den Fortschritt wie damals zu Bulldozer Zeiten.
Um deinen logischen Zirkelschluss zu vervollständigen: NV verhindert also höchstselbst den Fortschritt, weil sie AMD aus dem Markt drängen und dadurch keine Konkurrenz mehr haben, die den Fortschritt pushed. :freak:

Aber mal ganz ehrlich: NV hat sich noch nie zurückgelehnt wenn sie die Führung hatten. Die Marktsituation ausgenutzt, ja (z.B. Preise hoch, aber x04er GPUs als Highend umlabeln), aber einen Intel-like Stillstand bzw. die absolute Verweigerungshaltung gab es nie. Chips wie der GK110 oder die Titan V fanden immer den Weg in den Markt - nur halt mit einem gewissen Aufpreis. NV weiß nämlich ganz genau das gerade bei GPUs das Pendel so etwas von schnell umschlagen kann, also lieber mitnehmen was man kann...
Beispiele:
GF4 vs R85 - absolute Überlegenheit von NV -> eine Gen später GF FX vs R97/98 :freak:
GF8/9 vs HD29/38 - absolute Überlegenheit von NV -> eine Gen später, härtester Preiskrieg aller Zeiten
GTX10 vs. Vega/Polaris - absolute Überlegenheit von NV -> eine Gen später, massive Refreshes nötig um in der Oberklasse konkurrenzfähig zu bleiben (RTX20 Super vs. RX57), noch eine Gen später war AMD plötzlich sogar im Highend Bereich kompetitiv präsent (RX68/69 vs RTX30), nur kam da Mining dazwischen

MiamiNice
2023-10-06, 14:21:31
Kann man halt darüber streiten, ob derjenige, der die Entwicklung vorantreibt, der Schuldige ist oder der, der nicht mithalten kann. Ich finde NV Praktiken auch nicht nice, aber so funktioniert nun mal die unsere Welt. Aus meiner Sicht ist der schuld, der nicht mithalten kann. In unserer Gesellschaft geht es immer nur höher, schneller, weiter und das mit welchen Mitteln auch immer. Entweder man ist im Boot, oder halt nicht. Von einer Firma wie AMD, sollte man IMO erwarten können, dass sie im Boot sitzen.

Lehdro
2023-10-06, 14:39:18
Kann man halt darüber streiten, ob derjenige, der die Entwicklung vorantreibt, der Schuldige ist oder der, der nicht mithalten kann.
Schuld ist immer der der etwas machen kann, es aber nicht tut. Offensichtlich kann AMD nicht mithalten, aber NV kann durchaus mehr liefern als es gewillt ist.

Dein Schuldkult auf AMD ist lächerlich.

Complicated
2023-10-06, 15:04:12
Irgendjemand muss mal erklären, warum ein Pferd nach 200 Mio. Designkosten für ein Chiplet-Produkt dann nicht mehr springen muss. Was hat AMD denn gestrichen, dass Nvidia nun die Kohle zum Fenster raus werfen kann? Also von Marktwirtschaft haben da so einige Kandidaten wenig Ahnung.

RDNA4 wird nach wie vor wie geplant kommen, auch wenn N41/N42 nicht umgesetzt werden. Es kann auch nur bedeuten, dass die grösseren Chiplets nicht gebraucht werden, da AMD das Skalierungsproblem gelöst hat und jetzt 4x N43 verbauen kann. Also so lange keiner weiss wie RDNA4 aussieht, sollten solche Unfug-Gerüchte ignoriert werden.

Und die Markt Experten outen sich hier ja reihenweise. So ein dämliches Stammtischgeschwätzt liest man echt selten.

The_Invisible
2023-10-06, 15:34:29
Also ich sehe nicht wo AMD Fortschritt behindert. Und AMD wird sich rühren wenn sich Intel auch rührt. Laut MLID nimmt AMD ausschließlich Intel als Konkurrenz wahr. Solange Intel keine konkurrenzfähigen Grafikkarten bringt solange wird auch AMD rumeiern so wie sie es jetzt auch tun. Deshalb canceln sie auch RDNA4 weitgehend. Weil sie mit RDNA3 weiterhin deutlich vor Arc liegen.

Spätestens mit RDNA3 hätte AMD viel mehr RT Leistung bringen müssen bzw die Einheiten aufbohren, im Worstcase Pathtracing schlägt sich die 7900XTX mit der 3060/4060 herum... KI Kerne gibts auch nicht, technologisch ist da Intel weiter, wenn die jetzt noch einen dickeren Chip bringen ist die alte GPU-Schmiede ATI/AMD plötzlich letzter im GPU-Wettrennen.

Exxtreme
2023-10-06, 15:57:08
Spätestens mit RDNA3 hätte AMD viel mehr RT Leistung bringen müssen bzw die Einheiten aufbohren, im Worstcase Pathtracing schlägt sich die 7900XTX mit der 3060/4060 herum... KI Kerne gibts auch nicht, technologisch ist da Intel weiter, wenn die jetzt noch einen dickeren Chip bringen ist die alte GPU-Schmiede ATI/AMD plötzlich letzter im GPU-Wettrennen.

Stellt sich jetzt die Frage ob man eine ganze Grafikkartengeneration für ein einziges Spiel optimiert. Denn AFAIR kann derzeit nur Cyberpunk 2077 PT. Und ja, wenn Intel mal was Ordentliches auspackt dann wird sich auch AMD rühren. Nur haben sie derzeit keinen Grund dazu. Die Vorgängergeneration übertreffen und Intel auf Abstand halten reicht ihnen offenbar.

Complicated
2023-10-06, 16:57:53
... KI Kerne gibts auch nicht, technologisch ist da Intel weiter
Ähm womit ist Intel da weiter? Bei KI existiert Intel überhaupt nicht. AMD hat als einziges Unternehmen KI Funktionen in Desktop CPUs für Consumer. Und Raytracing wie es Nvidia macht ist technologisch eine Sackgasse und wird in Konsolen und GPUs von AMD völlig anders aussehen.

Mal mit der Technologie abseits von Nvidias Kram beschäftigen. Da liegen schon PhysX, Gsync und andere in der Tonne, wo RT von Nvidia in 3 Jahren auch liegt.

Gast
2023-10-08, 00:04:50
Da liegen schon PhysX, Gsync und andere in der Tonne, wo RT von Nvidia in 3 Jahren auch liegt.

Immer wieder lustig wie die Physikengine die mehr als ein Jahrzehnt lang die Gaming-Industrie dominiert hat als "in der Tonne" abgeschrieben wird.

Leonidas
2023-10-08, 04:56:24
Irgendjemand muss mal erklären, warum ein Pferd nach 200 Mio. Designkosten für ein Chiplet-Produkt dann nicht mehr springen muss.

Ist die Frage, ob es wirklich so viel war und ob man es nicht unter "Vorarbeit für nächste Gen" einbuchen kann. Sobald die Summe hoch genug ist, hast Du natürlich Recht: Dann wird es immer schwieriger, so ein Projekt noch zu streichen.

Allerdings: Wenn es 200M gekostet hat und weitere 600M zur Serienreife brauchen würde, dann hat man auch wieder einen guten Anlaß es nicht zu tun.

Ich vermute zudem, die Entwicklungsarbeit ist hier rein der spezifische MCM-Verbund - alles andere nimmt man aus NVs Baukasten-System. Ergo: Egal ob man es heute streicht, jede der hier getätigen Arbeit würde für NextGen vorteilhaft sein.

Complicated
2023-10-08, 08:17:05
Immer wieder lustig wie die Physikengine die mehr als ein Jahrzehnt lang die Gaming-Industrie dominiert hat als "in der Tonne" abgeschrieben wird.
800 Spiele in 10 Jahren. Das einzige, das dominiert wurde waren die Schlagzeilen.

Complicated
2023-10-08, 10:14:59
Ist die Frage, ob es wirklich so viel war und ob man es nicht unter "Vorarbeit für nächste Gen" einbuchen kann. Sobald die Summe hoch genug ist, hast Du natürlich Recht: Dann wird es immer schwieriger, so ein Projekt noch zu streichen.

Allerdings: Wenn es 200M gekostet hat und weitere 600M zur Serienreife brauchen würde, dann hat man auch wieder einen guten Anlaß es nicht zu tun.

Ich vermute zudem, die Entwicklungsarbeit ist hier rein der spezifische MCM-Verbund - alles andere nimmt man aus NVs Baukasten-System. Ergo: Egal ob man es heute streicht, jede der hier getätigen Arbeit würde für NextGen vorteilhaft sein.
Du betreibst Wortklauberei - ein gestrichener Chip, der nie die Designphase erreicht hat, ist Grundlage deines ganzen Artikels mit all den "Ergos" die du dir aus der Nase gezogen hast. Besondere Perle ist deine "Schlußfolgerung" Nvidia hätte damit den Nachweis erbracht MCM für Gaming zu können. Du kannst nicht auf allen Hochzeiten zeitgleich tanzen. Nichts davon ist auch nur ansatzweise schlüßig. Entweder, Oder! Passender zur Faktenlage ist "Weder, noch".
Mitnehmbar ist allerdings – zumindest wenn das Gerücht im Grundzug korrekt ist – dass nVidia sich als Entwicklungs-technisch ausreichend fortgeschritten angesehen hat, eine (echte) Multichip-Lösung im Gaming-Segment realisieren zu wollen. Sprich, alle Fragen zur Lastverteilung und Beherrschbarkeit des Datentransfers zwischen den Einzelchips hat man als ausreichend gut geklärt angesehen, um sich an dieses wirklich schwierige Projekt zu wagenLächerliche Ausführung in Kombination mit deiner Forendiskussion.

Gast
2023-10-10, 16:38:09
800 Spiele in 10 Jahren. Das einzige, das dominiert wurde waren die Schlagzeilen.

Praktisch jedes UE4 Spiel vor 2020 verwendet PhysX

maximus_hertus
2023-10-10, 17:07:37
AMD macht nun das, was AMD immer am besten konnte , nach einer kurzen starken Phase, nämlich den Fortschritt massiv behindern.

Krass, ich wusste nicht, dass AMD die Macht hat nV daran zu hindern eine dicke Karte raus zu bringen?

Was hindert nV daran eine Blackwell "x2" Lösung für 3000+ USD raus zu bringen? AMD ist doch eh kein Contender. Schon sehr lange nicht mehr.

Und bei den CPUs will ich echte Benchmarks sehen, bevor ich AMD zu Grabe trage ;) Der Track-Record von Intel ist in den letzten Jahren (Execution) nicht gerade toll gewesen.

The_Invisible
2023-10-10, 17:10:57
Ähm womit ist Intel da weiter? Bei KI existiert Intel überhaupt nicht. AMD hat als einziges Unternehmen KI Funktionen in Desktop CPUs für Consumer. Und Raytracing wie es Nvidia macht ist technologisch eine Sackgasse und wird in Konsolen und GPUs von AMD völlig anders aussehen.

Mal mit der Technologie abseits von Nvidias Kram beschäftigen. Da liegen schon PhysX, Gsync und andere in der Tonne, wo RT von Nvidia in 3 Jahren auch liegt.

Was redest du bitte plötzlich von CPUs? Das Raytracing von Nvidia läuft mit dem DX/Vulkan Standard und hat RT Kerne auf Level4, ka was du da redest. Und Intel hat vollwertige KI Kerne, AMD nur halbherzige die Daten für die ALUs aufbereiten.

Aber ja, alles Blödsinn was Nvidia macht, verdienen gerade nur wie blöde ;D

Complicated
2023-10-10, 20:54:07
Intel GPUs sollen KI Kerne haben?
Was hat denn RT mit KI zu tun. Du hast ja gar keinen Plan.