PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 23. April 2024


Leonidas
2024-04-24, 08:48:36
Link zur News:
https://www.3dcenter.org/news/news-des-23-april-2024

GerryB
2024-04-24, 09:34:04
bezgl. RDNA4 -Vram und ersten internen handfesten Erkenntnissen zur erf. eff.Bandbreite = Auslegung

Vllt. hilft die neue Cachestruktur doch besser als gedacht. 10-15%+ bessere Trefferquote?, ...
und 10% weniger Latenz hat man ja schon durch Monolith, wäre zusammen = 1,15x1,1=1,265!
sollte für 25% Mehrper. ggü. der 7800xt in der Praxis reichen, ... bis WQHD oder 4k@Upsampler.
oder
N48 wird nicht soo hoch getaktet.(damit Platz für die 7900xt bleibt)

Wichtig wäre eeh nur, = bessere Vramtemps als bei RDNA3, dann geht auch OCen.
(soll wohl z.T. an Samsung selbst gelegen haben)

Gast Ritis
2024-04-24, 10:05:38
wenn AMD nur mit kleinem SI und 18GBs bei RDNA4 antritt muss entweder der IF-Cache sehr grosszügig sein oder die Raytracing-Leistung verbessert sich nicht wirklich. Irgendwoher müssten die paar hundert MB BVH Daten schon zusätzlich gefetched werden können für hohe FPS...
Bleibt zu hoffen, dass es die Möglichkeit für schnelleren VRAM wenigstens gibt... auch wenn der angepeilte Preispunkt das zunächst nicht hergeben könnte.... es hat heute leider schon viel zu wenig Möglichkeiten für unabhängige Herseteller Low-Cost und Premium-Varianten anzubieten. Beim Speicher wäre da mal wieder etwas möglich...

basix
2024-04-24, 10:17:18
18Gbps für RDNA4 hört sich vernünftig an. Ist von allen drei GDDR6 Herstellern im Angebot und entsprechend günstig. Nicht ohne Grund setzen die letzten Releases von RDNA2/3 auf 18Gbps und auch die PS5 Pro soll auf 18Gbps setzen. Eine 4080 hat bei selbem Speicherinterface (256bit, 64MB LLC) auch "nur" 22.4 Gbps. Und eine 4070 Ti hat mit 192bit und 48MB LLC 21 Gbps. Für ~7900XT Performance sollte das reichen können, wenn man ähnliche Bandbreiteneffizienz wie Ada Lovelace aufweisen kann. Anhand der 4070 Ti könnte es auch für 4080 Niveau reichen.

Aroas
2024-04-24, 10:27:57
Seit wann wird denn Speichertakt in Gbps angegeben? Takt wird in Hertz angegeben!
Hier wird der Speicherdurchsatz thematisiert. Eine ganz andere Sache.

Leonidas
2024-04-24, 10:46:50
Jein. Da die GDDR-Speicherchips allesamt mit normierten Interfaces antreten, läßt sich aus der Datenrate sehr wohl exakt auf den Speichertakt schließen. Bei 18 Gbps sind es 2250 MHz ODR.

Gastronom
2024-04-24, 10:59:46
Bei meiner Naivität und gar keinem technischen Hintergrund würd ich es lässig finden, wenn AMD sowas wie X3d draufpappen würde. Hat ja bei CPUs vor AMD auch noch keiner gemacht :)

Exxtreme
2024-04-24, 11:03:16
Bei meiner Naivität und gar keinem technischen Hintergrund würd ich es lässig finden, wenn AMD sowas wie X3d draufpappen würde. Hat ja bei CPUs vor AMD auch noch keiner gemacht :)

Könnten sie machen. Es ist aber so, dass Cache bei Grafikkarten bei weitem nicht so viel bringt wie bei CPUs.

Leonidas
2024-04-24, 11:11:00
Bei meiner Naivität und gar keinem technischen Hintergrund würd ich es lässig finden, wenn AMD sowas wie X3d draufpappen würde. Hat ja bei CPUs vor AMD auch noch keiner gemacht :)

Der IF$ ist ja schon integriert. Noch viel mehr davon bringt es dann wenig.

basix
2024-04-24, 11:37:30
Infinity Cache bringt laut den Präsentationen von AMD und Nvida ca. sqrt(2) effektive Bandbreite, wenn man den IF$ verdoppelt. Da X3D evtl. noch in N6 laufen kann und sehr kompakt ist (64MB < 40mm2 beim CPU V-Cache) könnte das schon gut was bringen. Man kann immerhin den Unterschied 256bit -> 384bit oder GDDR6 -> GDDR7 überbrücken. So wenig ist das nicht.

Aber irgendwann bringt ein schnelleres oder breiteres Interface mehr (günstiger als der zusätzliche Cache).

Ist mehr eine Frage, ob sich das hinsichtlich Fertigungs-Kapazität (3D-Stacking) sowie dem Kosten Overhead beim Packaging schlussendlich rechnet. Hinsichtlich GDDR -> HBM rechnet es sich garantiert.
Bei RDNA5 wird mMn die IF$ Kapazität ansteigen, da man in den Base-Chiplets relativ günstig viel Cache verbauen kann. Schlussendlich ist es aber immer ein Tradeoff aus SI-Breite, SI-Speed und IF$-Menge. Kosten und Performance-Targets sind dann die massgebenden Metriken.

Platos
2024-04-24, 11:54:44
GDDR7 müsste aber so viel teurer als der Vorgänger sein, so dass es sich wirtschaftlich lohnt, so einen riesen Cache per Stacking zu bauen.

CPUs sind was ganz anderes wie GPUs. Und man sieht ja, dass selbst dort nur die teureren Versionen das besitzen (Marktpreis ist nicht gleich Listenpreis).

Gast
2024-04-24, 12:14:43
Könnten sie machen. Es ist aber so, dass Cache bei Grafikkarten bei weitem nicht so viel bringt wie bei CPUs.

Deshalb verbaut man auch bei Grafikkarten schon so einen "Infinity Cache" oder wahnwitzig riesige LLCs, weil es ja nichts bringt 🤦

Gast
2024-04-24, 12:17:23
Es könnte auch ganz einfach sein, dass das final silicon die gewünschten Taktraten nicht erreicht, und man auf den Verkaufstaktraten einfach nicht mehr braucht.

Exxtreme
2024-04-24, 12:23:26
Könnten sie machen. Es ist aber so, dass Cache bei Grafikkarten bei weitem nicht so viel bringt wie bei CPUs.


Deshalb verbaut man auch bei Grafikkarten schon so einen "Infinity Cache" oder wahnwitzig riesige LLCs, weil es ja nichts bringt ��

Lern lesen. Und wenn das zu schwer ist dann empfehle ich den Besuch der Grundschule. Ich habe "bei weitem nicht so viel bringt" schon mit Absicht hingeschrieben.


GDDR7 müsste aber so viel teurer als der Vorgänger sein, so dass es sich wirtschaftlich lohnt, so einen riesen Cache per Stacking zu bauen.


GDDR7 ist wohl zu neu. ;) Das ist ja dieses Jahr fertig geworden.

basix
2024-04-24, 12:48:56
GDDR7 müsste aber so viel teurer als der Vorgänger sein, so dass es sich wirtschaftlich lohnt, so einen riesen Cache per Stacking zu bauen.

Da stimme ich dir definitiv zu. +50% Bandbreite durch GDDR7 wird in den meisten Fällen günstiger sein als verdoppelter IF$. Wenn Energieverbrauch sehr wichtig ist, können sich die Mehrkosten irgendwann wieder lohnen.

Meine Erwartung ist es aber schon, dass man bei dGPUs den GDDR Speichertakt so lange hoch prügelt wie es geht und den Infinity Cache nur so moderat gross wie nötig macht. Ist unter dem Strich die wohl wirtschaftlichste Variante. Bei Mobile Parts wird der GPU Takt reduziert. Dann kann man auch dne GDDR Takt und dessen Spannung für erhöhte Energieffizienz reduzieren. Das passt schon.

Erst wenn man an Technologie-Grenzen stösst, wird man V-Cache auch bei GPUs berücksichtigen. Also wenn GDDR7/8 nicht mehr reicht und HBM ansonsten zu teuer wäre. Aber auch da: Gab mal HBM-Light Konzepte. Wenn die HBM-Stacks wie die MCDs bei RDNA3 angebunden werden können, sollten sich Packaging-Mehrkosten in Grenzen halten. Dafür hat man massig mehr Bandbreite (kann IF$ sparen und somit Chipfläche), was es günstiger macht. Dafür ist der Speicher teuerer, da gestacked.

Gast
2024-04-24, 12:55:08
Ich habe "bei weitem nicht so viel bringt" schon mit Absicht hingeschrieben.



Aja, deshalb verbaut man bei GPUs wesentlich mehr Cache als bei CPUs, weil es ja weniger bringt.
Aber Hausverstand kann man wohl nicht lernen, entweder man hat ihn, oder man hat ihn nicht.

Gast
2024-04-24, 12:58:15
Da stimme ich dir definitiv zu. +50% Bandbreite durch GDDR7 wird in den meisten Fällen günstiger sein als verdoppelter IF$. Wenn Energieverbrauch sehr wichtig ist, können sich die Mehrkosten irgendwann wieder lohnen.


+50% Bandbreite durch ein externes Interface, wird aber den Energieverbrauch enorm steigern.

basix
2024-04-24, 13:06:38
Ja wird steigen. Solange das aber nicht zu stark weh tut, wird man das machen.

bad_sign
2024-04-24, 13:27:43
Strom kostet dem Entwickler "nichts", dass nimmt man eher in Kauf, als höheren BOM

Exxtreme
2024-04-24, 13:32:14
Aja, deshalb verbaut man bei GPUs wesentlich mehr Cache als bei CPUs, weil es ja weniger bringt.
Aber Hausverstand kann man wohl nicht lernen, entweder man hat ihn, oder man hat ihn nicht.

Man verbaut deshalb mehr Cache weil das viel weniger pro MB bringt als bei CPUs. Ein Cache ist in allererster Linie da um lange Zugriffszeiten auf den RAM zu sparen. Da Grafikkarten aber bandbreitenlimitiert sind und nicht zugriffszeitlimitiert, bringt eine Reduzierung der Zugriffzeit durch den Cache nicht so viel. Und ein Cache ist auch nicht so toll um fehlende Bandbreite auszugleichen wenn man Daten in diesen riesigen Mengen durch den RAM schiebt, wie es auf Grafikkarten üblich ist. Das senkt die Wahrscheinlichkeit, dass sich die benötigten Daten im Cache befinden beträchtlich.

Oder andersrum gesagt, wenn man auf den Grafikkarten den Cache abschaltet dann verliert man vielleicht 30-50% Performance. Schaltet man alle Caches auf modernen CPUs ab dann landet man von der Performance her auf i486-Niveau.

Von daher bleibe ich dabei, ein Cache auf Grafikkarten bringt bei weitem nicht so viel wie auf CPUs. Und weil so ein X3D-Cache auf der Grafikkarte kaum Auswirkungen hätte, macht man das auch nicht.

Lehdro
2024-04-24, 13:37:06
GDDR7 kommt dann als Refresh. Könnt mich gerne zitieren.

bad_sign
2024-04-24, 13:42:57
Könnt mich gerne zitieren.
Ok done
RDNA4 wird kein Refesh bekommen, das ist nur die Zwischengen zu 5
RDNA -> RDNA2 = RDNA4 -> RDNA5

Lehdro
2024-04-24, 13:52:08
Ok done
:tongue:

RDNA4 wird kein Refesh bekommen, das ist nur die Zwischengen zu 5
RDNA -> RDNA2 = RDNA4 -> RDNA5
RDNA4 könnte, wenn preislich sehr attraktiv ("alter Prozess"), noch lange weiterlaufen. Ich verweise mal auf Beispiele in der Vergangenheit, AMD hatte da schon immer ein Händchen für.

Leonidas
2024-04-24, 14:09:47
GDDR7 müsste aber so viel teurer als der Vorgänger sein, so dass es sich wirtschaftlich lohnt, so einen riesen Cache per Stacking zu bauen.

Ich denke es geht weniger um den Speicher selber als die Mehrkosten des GDDR7-Interfaces. Braucht mehr Platz, frisst mehr Strom. Sicherlich nicht so extrem wie GDDR6X, aber im Vergleich zu GDDR6 ist es dennoch ein Kosten-Nachteil.



RDNA4 könnte, wenn preislich sehr attraktiv ("alter Prozess"), noch lange weiterlaufen. Ich verweise mal auf Beispiele in der Vergangenheit, AMD hatte da schon immer ein Händchen für.

Logo. AMD könnte sich für RDNA5 nur auf größere Chips konzentrieren und RDNA4 sogar gezielt im Portfolio behalten. Hypothetisches Beispiel:

N51
N52
N53
N48
N44

Tigerfox
2024-04-24, 15:16:50
18Gbps für RDNA4 hört sich vernünftig an. Ist von allen drei GDDR6 Herstellern im Angebot und entsprechend günstig. Nicht ohne Grund setzen die letzten Releases von RDNA2/3 auf 18Gbps und auch die PS5 Pro soll auf 18Gbps setzen. Eine 4080 hat bei selbem Speicherinterface (256bit, 64MB LLC) auch "nur" 22.4 Gbps.

Nein, das stimmt nicht. Die Retail-Versionen der 7900GRE werden in der Praxis, wie man bei TPU gut sehen kann, alle mit 20Gbps wie die 7800XT und 7900XT ausgestattet. Der lässt sich mit neustem Treiber ordentlich OCen, wenn auch merkwürdigerweise nicht so hoch wie auf den o.g. Karten, und das bringt ordentlich Performance.
Die 4080 und 4080S haben 24Gbps-Speicher, der zwar nicht voll ausgefahren wird, aber schon ab Werk mit 22,4-23Gbps 24-27% mehr Bandbreite und noch mehr Potential hat. Das ist schon ein enormer Unterschied.

Die RDNA4-Karten werden nicht mehr Bandbreite brauchen als 7800XT/7900GRE oder gar 7900XT, aber ein Rückschritt kann nur zweierlei bedeuten. Entweder, die Karten können wesentlich besser mit der Bandbreite haushalten, z.B. durch mehr/schnelleren IF-Cache, oder AMD versucht es einfach gar nicht und mach auf möglichst billig.

bad_sign
2024-04-24, 15:18:24
Stimmt, wäre auch kein erstes mal für AMD
Polaris + Vega
Tahiti + Hawaii

Gast
2024-04-24, 15:25:29
Gefällt mir garnicht , eigendlich setze ich immer eine Gen. aus beim Aufrüsten , von der 6900XT mit H2O Kühlblock kommend sieht das nicht nacheiner Wahlmöglichkeit aus beim Upgrade wenn ich bei 4k bleiben will :(

Dabei hat AMD sich beständig an den Stand von NV herangekämpftt was FSR3 AFMF und Co. betrifft, fehlt eigendlich nur noch bei RT ein Gleichziehen und ein Oberklassemodell wie die 4090.

Sieht eher nach 5700XT 2.0 diesmal aus.

Gast
2024-04-24, 16:19:07
Twitter gibt es nicht mehr.

Gast
2024-04-24, 16:32:14
"AMD geht für seine RDNA4-Chips und -Grafikkarten mit einem deutlich kleinen Ansatz heran – und braucht denkbarerweise auch nicht die ganz großen Speicherbandbreiten, wenn man mit RDNA4 sowieso nicht aus dem Midrange-Segment herauskommt."
Naja, NVidia hat ja auch Midrange. Und die Midrange Karten haben in der Regel auch ein schmaleres SI. Daher kann das eigentlich kein Argument sein.

Entweder kommen die Karten gut mit dem schmalen SI klar, weil man das über technische Kniffe umschiffen kann, oder die Performance liegt einfach in einem Bereich, der nicht mehr benötigt.

Gast
2024-04-24, 17:03:31
Strom kostet dem Entwickler "nichts", dass nimmt man eher in Kauf, als höheren BOM

Strom kostet am Ende Performance.

Aroas
2024-04-24, 17:15:46
Jein. Da die GDDR-Speicherchips allesamt mit normierten Interfaces antreten, läßt sich aus der Datenrate sehr wohl exakt auf den Speichertakt schließen. Bei 18 Gbps sind es 2250 MHz ODR.

Völlig egal, worauf man wie schließen kann. Takt wird dennoch in Hertz angegeben und nicht in Gbps.
Takt und Speicherdurchsatz sind unterschiedliche Dinge.

Den Anspruch, das deutlich auseinander zu halten, sollte man auf einer Seite wie 3DCenter eigentlich grundsätzlich haben. Das hier ist doch nicht Computer Bild.

bad_sign
2024-04-24, 18:12:05
Sieht eher nach 5700XT 2.0 diesmal aus.

I can feel you
Aber zwiwchen 4 und 5 sollen diesmal keine 2 Jahre liegen, wie es bei großen Gens der Fall ist.

Gast
2024-04-24, 21:57:05
Gab mal HBM-Light Konzepte. Wenn die HBM-Stacks wie die MCDs bei RDNA3 angebunden werden können, sollten sich Packaging-Mehrkosten in Grenzen halten. Dafür hat man massig mehr Bandbreite (kann IF$ sparen und somit Chipfläche), was es günstiger macht. Dafür ist der Speicher teuerer, da gestacked.

This! HBM mit Fanout-Technik und man hat schnellen, effizienten und nicht zu teuren Speicher und das Speicherinterface verbraucht nicht so viel Chipfläche auf dem GPU-Die. Aber vermutlich wird das erst kommen, wenn die AI-Karten auf HBM4 (mit verdoppelter Kontaktdichte) wechseln und der dann besser verfügbare HBM3-Speicher nicht mehr ein Jahr im Voraus ausverkauft ist, also irgendwann nach 2026. In der Zwischenzeit wird erst mal mit GDDR7 weiter verfahren.

Gast
2024-04-24, 22:20:45
Völlig egal, worauf man wie schließen kann. Takt wird dennoch in Hertz angegeben und nicht in Gbps.
Takt und Speicherdurchsatz sind unterschiedliche Dinge.


So ist es, das wäre als wenn man Stecke und Geschwindigkeit als das gleiche bezeichnen würde.

Leonidas
2024-04-25, 03:07:39
Twitter gibt es nicht mehr.

Stiller Protest.



Sieht eher nach 5700XT 2.0 diesmal aus.

Exakt das.



Völlig egal, worauf man wie schließen kann. Takt wird dennoch in Hertz angegeben und nicht in Gbps.
Takt und Speicherdurchsatz sind unterschiedliche Dinge.

Wo Du Recht hast .... Habe die Passage geändert, damit dort Datenrate und nicht Speichertakt dasteht.

Gast
2024-04-25, 08:35:04
rdna4 wird wohl ein riesen flop werden. der abstand zu nvidia wird immer grösser. wahrscheinlich müssen sie noch 5 jahre lang rdna 2 verkaufen, um diesen ganzen alten schrott los zu werden. ich weis nicht wie man so geld verdienen will.

Schnitzl
2024-04-25, 08:40:44
RDNA4 könnte, wenn preislich sehr attraktiv ("alter Prozess"), noch lange weiterlaufen. Ich verweise mal auf Beispiele in der Vergangenheit, AMD hatte da schon immer ein Händchen für.

Logo. AMD könnte sich für RDNA5 nur auf größere Chips konzentrieren und RDNA4 sogar gezielt im Portfolio behalten. Hypothetisches Beispiel:

N51
N52
N53
N48
N44
das sehe ich ganz genau so, vor allem macht dann das Konzept "möglichst günstige Produktion N4x" Sinn
N51-N53 muss dann aber ein massiver Sprung werden dass man den "oben drauf" setzen kann :freak:

Gast Ritis
2024-04-25, 12:13:47
Man verbaut deshalb mehr Cache weil das viel weniger pro MB bringt als bei CPUs. Ein Cache ist in allererster Linie da um lange Zugriffszeiten auf den RAM zu sparen. Da Grafikkarten aber bandbreitenlimitiert sind und nicht zugriffszeitlimitiert, bringt eine Reduzierung der Zugriffzeit durch den Cache nicht so viel. Und ein Cache ist auch nicht so toll um fehlende Bandbreite auszugleichen wenn man Daten in diesen riesigen Mengen durch den RAM schiebt, wie es auf Grafikkarten üblich ist. Das senkt die Wahrscheinlichkeit, dass sich die benötigten Daten im Cache befinden beträchtlich.

Oder andersrum gesagt, wenn man auf den Grafikkarten den Cache abschaltet dann verliert man vielleicht 30-50% Performance. Schaltet man alle Caches auf modernen CPUs ab dann landet man von der Performance her auf i486-Niveau.

Von daher bleibe ich dabei, ein Cache auf Grafikkarten bringt bei weitem nicht so viel wie auf CPUs. Und weil so ein X3D-Cache auf der Grafikkarte kaum Auswirkungen hätte, macht man das auch nicht.

Der Vergleich zur CPU hinkt gewaltig. Deshalb sollte man sich m.M. sparen.
Sowohl bei CPU als auch bei GPU ist der grosse LL-Cache nicht ein Allheilmittel. Der Programmcode ist entscheidend.

AMD hatte zur Einführung des IF bei RDNA eine Folie gezeigt, die für den damaligen Stand gut dargestellt hat bei welchen Renderauflösungen die Cachemenge noch Hits generiert.

Beim Gaming und den GPUs geht es vor allem darum, dass bei einem Tiled-Rendering Ansatz bzw. bei einem per-Pixel mesh-shading und rendering ala UE5 die Zwischenergebnisse (State Objekts, Rendertargets) in der Renderpipeline für die Folgeschritte vorgehalten werden und allenfalls beim Scheduling von anderen Shaderunits gefetched werden können. Wenn die Targets besser gecached werden können werden die ShaderUnits effizienter. Am besten der Cache wird nicht mal mit jedem Frame komplett überschrieben, reine streaming Daten gar nicht gecached.
Das Tiled-Rendering hatte damals von Anfang an deshalb Erfolg, weil der übliche wenige MB grosse L2 schon mit DX9 mehr Hits bei kleinem Zwischentarget erreichen konnte. Mit komplexen neuen APIs und Softwarerendering ist das nicht weniger sondern mehr geworden. AMD hat es wie gesagt mal aufgezeigt.

Ob nun X3d auf einen Monolithen oder wie bei N31 der LL in MCDs verteilt wird ist letzlich egal bzw. eine Abwägung P/L durch den Chiphersteller. Nvidia hat sich hier in Antwort auf AMDs IF für möglichst grossen L2 im Monolithen entschieden.
AMD entschied sich zuletzt zu kleineren IF-Caches wohl aus Kostengründen und Marktpositionierung der GPU-Chips für FHD, 1440p, 4k. L0 und L1 wurde grösser, der IF kleiner, die Kosten pro Chip optimiert. Gerade für UE5 als Zielplattform gut geeignet. Die Treiberoptimierungen waren für RDNA3 aber nicht mehr passend und mussten je Titel nachgeholt werden. Die GPUs knicken aber bei 4k gemessen an Shaderleistung dennoch ein, der IF ist zu klein.

Für moderne Grafik mit Vulkan oder DX12 und RT obendrein darf der IF Cache bei 4k gerne auf >200MB anwachsen, das wird noch immer Cache-Hits generieren. Für FHD sind heute wohl 64MB total Cache in einer GPU ausreichend. Mehr Raytracing und mehr Abhängigkeiten einzelner Pixelberechnungen untereinander erhöht dann den Cachebedarf weiter. Oder mann muss eben mit dem Speicherinterface mehr Bandbreite bei niedriger Latenz liefern.

Eine APU mit X3D GPU-Cache wäre super, die könnte als Bürorechner dann ohne X3D billiger gehandelt werden. Die APUs bisher waren aber nie mit Fokus auf Gaming in handelsüblichen Monitorauflösungen gemacht, sonst hätte man immer 20CUs mit guter Speicherperformane bringen müssen wie damals KabyLake-G. Die APUs sind für Gamer immer extremer Kompromiss gewesen, für Coder keine adressierbare Plattform abgesehen bei Spezialfällen wie Konsole oder Steamdeck. Auf PC/Laptop muss die APU überperformen bzw. überkompensieren mangels Optimierung, also mehr Cache, nicht weniger.

Gast
2024-04-25, 13:00:11
rdna4 wird wohl ein riesen flop werden. der abstand zu nvidia wird immer grösser. wahrscheinlich müssen sie noch 5 jahre lang rdna 2 verkaufen, um diesen ganzen alten schrott los zu werden. ich weis nicht wie man so geld verdienen will.
Wenn man nix mehr weiterentwickelt, kommt sowas bei rum. AMD hat die letzten Jahre nur paar Einheiten und Cache am Chip variiert. Damals hatten sie sich noch nach ihrem Desaster in 2007 bis ca. zur HD 7770 wieder hochgearbeitet. Irgendwann danach begann der architektonische Stillstand. Als Ausgleich machte man Ausflüge wie HBM.
AMD bekommt es ja noch nicht mal geschissen, ne poblige Taktzwischenstufe für ihren Speichercontroller zu integrieren. Die werden auf ihrer Architektur wohl bis ans Ende ihrer Tage unverändert residieren.

Exxtreme
2024-04-25, 13:19:06
Wenn man nix mehr weiterentwickelt, kommt sowas bei rum. AMD hat die letzten Jahre nur paar Einheiten und Cache am Chip variiert. Damals hatten sie sich noch nach ihrem Desaster in 2007 bis ca. zur HD 7770 wieder hochgearbeitet. Irgendwann danach begann der architektonische Stillstand. Als Ausgleich machte man Ausflüge wie HBM.
AMD bekommt es ja noch nicht mal geschissen, ne poblige Taktzwischenstufe für ihren Speichercontroller zu integrieren. Die werden auf ihrer Architektur wohl bis ans Ende ihrer Tage unverändert residieren.

Nein, AMD hat schon viel mehr gemacht. Sie haben nur einiges nicht ganz so konsequent umgesetzt wie die Konkurrenz. Und es ist auch noch so, dass sie ihre Designs ziemlich Konsolen- und Igpu-kompatibel machen. Das mag für reine PC-Spieler eventuell nicht zu befriedigenden Ergebnissen führen. Wäre interessant zu wissen welche Margen AMD rein bei den Grafikkarten hat.

AlterSack
2024-04-25, 20:26:18
"Dies ist wohl das grundsätzliche Problem an nicht wirklich weltweit mitgetragenen Sanktionen."

Das Problem ist, dass sich EIN Staat herausnimmt, andere zu sanktionieren
und vom Rest der Welt verlangt, dasselbe zu tun!
Somit ...Thema verfehtl!

bad_sign
2024-04-26, 15:53:37
Es steht jedem Frei weiterzuhandeln, wie zuvor. Dann darf man halt nicht erwarten, dass man Produkte aus USA bekommt.
Die USA zwingt hier keine Drittstaaten, sie "überzeugt" mit guten Argumenten

Platos
2024-04-27, 11:45:47
Pistole an den Kopf halten ist auch kein Zwingen. Ist nur ein Überzeugen mit guten Argumenten...