PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: RDNA5 wohl wieder nur für Mainstream & Midrange gedacht und erst ...


Leonidas
2026-01-12, 13:27:50
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-rdna5-wohl-wieder-nur-fuer-mainstream-midrange-gedacht-und-erst-nach-gaming-rub

Gast
2026-01-12, 13:46:38
Halo-Part? Was ist damit gemeint?

Sweepi
2026-01-12, 13:49:35
Na dann.. kann Nvidia ja Rubin für Gaming auch abblasen, Blackwell und RDN4 forever.

rentex
2026-01-12, 14:13:27
Na dann.. kann Nvidia ja Rubin für Gaming auch abblasen, Blackwell und RDN4 forever.

Mit MFG und Co. geht das doch ganz gut, oder? :freak:

Lehdro
2026-01-12, 14:24:51
Diese Preisfindungsdiskussion bei AMD dreht sich doch im Kreis.

Machen wir mal ein abstraktes Beispiel:

AMD muss die Karten für Betrag X verkaufen wenn man Y absetzt, damit die Kosten vollumfänglich aufgefangen werden (Entwicklung + Produktion + Marketing etc).

Also die Preisfindung doch simpel Y (Anzahl Karten) zu X (Preis) + Z (Gewinn)?
Wenn AMD auf Selbstkosten + ihre eigene Marge kalkuliert, ergibt sich der Bedarf nach NVs Marktpositionierung erst gar nicht. Entweder will AMD also nach oben kalkulieren - in der Hoffnung das man "günstiger" ist als NV und damit mehr Marge fahren kann als man sich selber zugestehen würde, weil die NV Preise so hoch sind. Oder man muss bei der Marge einkürzen und braucht NVs Preise um zu wissen wie stark man runter muss. Dann wäre RDNA im Desktop aber immer nur Bonus und das würde so einiges erklären was bei der Preisfindung bei AMD seit Vega so abging.

Beide Möglichkeiten sprechen nicht gerade für Selbstvertrauen in das eigene Produkt, dessen Marktpositionierung oder eine langfristige Strategie. Ausgehend von letzterer könnte AMD einfach mit den Werten von RDNA1, 2, 3 & 4 fahren und davon extrapolieren - völlig unabhängig was NV bringt. Denn wenn der Zeitversatz zwischen NV und AMD diesmal tatsächlich so groß ist (Gerüchte sprachen ja seit RDNA2 eher von einem Vorsprung seitens AMD, hat sich aber nie materialisiert - wegen Preisfindung? lol), dann macht ein Abwarten von AMD gar keinen Sinn. Ohne NV kann man sich tatsächlich mal vernünftig alleine positionieren und mit einer halbwegs aggressiven Preisgestaltung wirklich angreifen. Wenn man das nicht WILL, ist das mehr als nur eine Bankrotterklärung. Das wäre wieder der berühmte AMD Elfer den man gegen ein leeres Tor verschießt.

Crazy_Chris
2026-01-12, 14:35:45
Wenn die aktuellen Fortschritte in Upscaling + Framegeneration so weitergehen dann könnte mir in Zukunft sogar die Mittelklasse reichen. :ugly: Bringt ja überhaupt nichts die Auflösung noch deutlich weiter hochzuschrauben.

aceCrasher
2026-01-12, 14:47:07
Wenn die aktuellen Fortschritte in Upscaling + Framegeneration so weitergehen dann könnte mir in Zukunft sogar die Mittelklasse reichen. :ugly: Bringt ja überhaupt nichts die Auflösung noch deutlich weiter hochzuschrauben.
Naja, bis wir bei ~220ppi sind würde ich die Auflösung eigentlich schon gerne noch erhöhen.

Perdakles
2026-01-12, 14:55:56
Naja, bis wir bei ~220ppi sind würde ich die Auflösung eigentlich schon gerne noch erhöhen.

Wie kommst du auf ausgerechnet 220 ppi? Reine Willkür oder gibt es da einen wissenschaftlichen Grund? Ich frage aus reinem Interesse:wink:

Gast
2026-01-12, 14:58:45
Das passt irgendwie gar nicht zusammen.

Wenn RDNA5 nur ins Mainstream geht wäre ein zeitlicher Vorteil doch extrem wünschenswert.

Damit hätte man dann trotz Mainstream-Portfolios eine Zeit lang die schnellste Grafikkarte. Die 5090 wird man ja wohl hoffentlich schlagen können. Bewusst zu warten macht da überhaupt keinen Sinn wenn man einen echten zeitlichen Vorsprung (mindestens 6 Monate) hätte.

Lehdro
2026-01-12, 15:21:24
Bringt ja überhaupt nichts die Auflösung noch deutlich weiter hochzuschrauben.
Bringt schon noch etwas. Ich erinnere mich an DLSS 2 Zeiten, als gesagt wurde, dass sei ja "gut genug". DLSS 3 war ein deutlicher Fortschritt, DLSS 4 auch wieder ein weiterer Großer. 4.5 scheint für deutlich mehr Power auch wieder etwas mehr Bildqualität zu bieten, aber in anderen Bereichen.

Nun sind wir mittlerweile soweit das 1440p DLSS P besser aussieht, als früher 1440p DLSS Q. Wenn man dann bedenkt was 2160p DLSS P (oder gar UP) gegenüber 1440p DLSS P rausholen könnte? Mir ist derzeit 2160p P zu krümelig in manchen Sachen, da muss B herhalten. Denke mit 4.5 wird auch P reichen - ist dann nur die Frage wie performant es im Endeffekt sein wird und wo man die Stärken und Schwächen - also wortwörtlich - sieht. Ich bin zum Beispiel recht sensibel bei zu weichen/zu harten Bildern. Es darf ruhig "scharf" sein, aber Überschärfe ist genauso schlecht wie dieses weichgezeichne. Flicker geht bis zu gewissem Grade noch, da man abseits von TAA Ölgemälde oder hardcore DLDSR kaum reelle Möglichkeiten hatte, das wirklich sinnvoll anzugehen. Finde ich gut dass sich DLSS in diese Grenzfälle hin entwickelt. Dann fallen auch eventuell wieder solche Spezialkombinationen wie "4K DLSS B downsampled auf 1440p Monitor" raus, die eine bessere Optik/Leistung Kombination bieten als 1440p Q und gleichzeitig deutlich schneller sind als 2160p DLSS Q oder gar 1440p DLAA.

Platos
2026-01-12, 16:07:13
Wenn sie später kommen, müssen sie aber auch besser sein im P/L und zwar nicht nur 10%.

Aber dann hoffen wir mal wieder auf ein neues, dass AMD es nicht versemmelt. Aber vermutlich werden sie weiterhin bei Upscaling, Framegen und RT hinterherhinken. Und bei Energieeffizienz und P/L ist dann die nächste grosse Frage.

Dass sie kein High-End können/wollen, zeigt nur, dass sie nicht konkurrenzfähig sind (also wenn man dem Gerücht glaubt). Hoffen kann man aber trotzdem mal.

aceCrasher
2026-01-12, 16:23:23
Wie kommst du auf ausgerechnet 220 ppi? Reine Willkür oder gibt es da einen wissenschaftlichen Grund? Ich frage aus reinem Interesse:wink:
Das ist die Pixeldichte bei der Apple der Ansicht ist dass Menschen bei einem typischen Schreibtisch-Sitzabstand keine einzelnen Pixel mehr erkennen können.

Also 5K für 27", 6K für 32" und so weiter.

Natürlich kann man darüber streiten, es geht hier ja eher um den Durschnittuser. Manche können viel früher schon keinen Unterschied mehr sehen und es interessiert sie schlicht nicht. Aber über 220ppi ist am Schreibtisch der Benefit selbst für die pingeligsten unter uns nicht mehr gegeben.

220ppi sind für mich sozusagen "endgame" was Auflösung für einen Desktopmonitor angeht. So wie 1000Hz endgame ist was die Refreshrate ist, da wir in etwa den sample and hold blur eleminiert haben.

Ausreichende Gaming Leistung muss man dann natürlich per Upscaling erreichen, da werden zum Glück große Fortschritte gemacht.

DLSS P mit WQHD input macht einen 5K Gaming Monitor schon heute nutzbar. Der Overhead wird mit zukünftigen Karten hoffentlich noch weiter sinken.

Shink
2026-01-12, 16:27:41
Ähm hab ich was verpasst? Was hat es denn mit dem LPDDR5X bei den Mainstream-Lösungen zu tun? Sind die dann in IGPs/APUs?

Gast
2026-01-12, 16:44:19
Macht ja total Sinn. Man wartet auf die Konkurrenz, um deren Preise etwas zu unterbieten, anstatt frühzeitig zu launchen und dann gegen die nächst höher klassifizierte Konkurrenz zu gehen und deren deutlich höhere Preise so lange abzugreifen, wie man kann. Ist AMD jetzt ein verlustorientiertes Unternehmen, oder nach welcher Logik sollte man diese Strategie machen?

Logisch wäre: man platziert den 9070XT Nachfolger preislich gegen die 5080 oder sogar über der (je nach Performance) und geht dann kurz vor dem Launch von NVidia auf die Preise der 6070TI runter (oder noch weiter, je nach Leistung). So greift man das Geld der Earlys ab. Alles Andere macht keinen Sinn.
Das Warten auf NVidia macht nur Sinn, wenn man seinen Gewinn minimieren will. Und das fände ich bei einer AG eher befremdlich...

Grafikspachtel
2026-01-12, 17:50:32
@Shink:
Ja, genau das habe ich mich auch gefragt.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=95246&stc=1&d=1768236475

Der Trend ist Speicherinterfaces runterzuhungern. Motto: Weniger für mehr.
Nvidias sog. High-End 4090 hat nur noch 384-bit, AT2 gelingt es offensichtlich von 256-bit auf 192-bit runterzudrosseln und dann soll AT3 auf einmal 256-bit und AT4 128-bit haben? Irgendwas stimmt hier nicht...
Und dann noch LPDDR? Wat? Das wären gigantische APUs mit richtig lahmarschigem (Nicht-V)RAM

crnkoj
2026-01-12, 18:38:28
Na ja das scheint mir auch der größte Quatsch aller Zeiten zu sein.
"warten wir bis der Gegner besseres auf den Tisch bringt und dann bringen wir unsere zweitklassige Hardware." wer in dem Laden hat sich das ausgedacht. So wie schon oben geschrieben, schnell raus ringen, mit der midrange Lösung die alte high end schlagen und 6-12 Monate die Situation melken. Trottel bei AMD!
Wenn schon sollen die einfach sagen, dass mit dem teuren Speicher, das keinen Sinn ergibt und fertig.

Blase
2026-01-12, 20:52:17
Damit hätte man dann trotz Mainstream-Portfolios eine Zeit lang die schnellste Grafikkarte. Die 5090 wird man ja wohl hoffentlich schlagen können. Bewusst zu warten macht da überhaupt keinen Sinn wenn man einen echten zeitlichen Vorsprung (mindestens 6 Monate) hätte.

Das halte ich für ein Gerücht, dass die 5090 durch RDNA5 geschlagen werden kann. Als ob 5090 mit der nächsten Generation "Mainstream" Performance sein wird ;) Mein Tipp: Die 6080 wird die 5090 nicht bezüglich Performance überbieten - so wie es auch die 5080 nicht schafft, die 4090 zu überbieten. Und RDNA5 für sich - bestenfalls - mit der 6080 anlegen können. Eher aber mit der 6070 Ti...

Wenn RDNA5 nur ins Mainstream geht wäre ein zeitlicher Vorteil doch extrem wünschenswert.

Aber da bin ich wiederum bei dir. Warum nicht so schnell als möglich die neuen Karten raus bringen und "gut verkaufen". Wenn Rubin dann kommt, kann man immer noch die Preise anpassen, oder - bei zeitlich deutlichem Vorsprung - sogar ein RDNA5 Refresh auflegen und die gewünschten Verhältnisse wieder herstellen...

MfG Blase

Gast
2026-01-12, 21:42:06
Mein Tipp: Die 6080 wird die 5090 nicht bezüglich Performance überbieten - so wie es auch die 5080 nicht schafft, die 4090 zu überbieten. Und RDNA5 für sich - bestenfalls - mit der 6080 anlegen können. Eher aber mit der 6070 Ti...



Die 5080 hat auch keine neue Fertigung bekommen. Wenn man mit neuer Fertigung die 5090 nicht überbietet wäre das schon ziemlich arm.

Gast
2026-01-12, 21:44:32
DLSS 3 war ein deutlicher Fortschritt, DLSS 4 auch wieder ein weiterer Großer. 4.5 scheint für deutlich mehr Power auch wieder etwas mehr Bildqualität zu bieten, aber in anderen Bereichen.



DLSS3 war im Bezug auf SR überhaupt kein Fortschritt, dass war nur FG.

Blase
2026-01-12, 22:12:33
Die 5080 hat auch keine neue Fertigung bekommen. Wenn man mit neuer Fertigung die 5090 nicht überbietet wäre das schon ziemlich arm.

Diese neue Fertigung muss aber eine ziemlich große Lücke überbrücken. Zumal ja aktuell folgendes angenommen wird:

Dies bestätigt unsere frühere Vermutung, wonach die bisher bekannten Chip-Daten zu RDNA5 eher darauf hindeuten, dass AMD bei dieser Grafikchip-Generation wieder nur eine Mainstream/Midrange-Zielsetzung verfolgt.

Eine Karte schneller als die 5090 ist eben nicht "Mainstream/Midrange". Die Aussage muss dann schlicht falsch sein, wenn RDNA5 die 5090 übertreffen sollte...

MfG Blase

Daredevil
2026-01-12, 22:17:46
AMD braucht nicht auf Nvidia warten, weil AMD Nvidia eh nicht schlagen kann* mit seinem Produktportfolio, also sollten sie das beste was sie können rausbringen mit einer Marge, die ihnen eben in den Kram passt und im besten Fall so schnell wie möglich, weil Nvidia offenbar gerade gar nichts mehr macht.

*RDNA4 ist enorm gut und absolut Konkurrenzfähig zu Nvidia Blackwell. Der einzige relevante Unterschied liegt einzig und alleine in der Software und hier ist Nvidia mehrere Generationen voraus. Wenn AMD rein auf Nvidia Hardware blickt und darauf einen Konter setzt, bringt Nvidia DLSS5 raus und jeglicher Vorteil wäre zunichte( Siehe Verkaufszahlen). AMD hat ein Software und ein Image Problem, dieses lösen sie nicht damit, dass sie Nvidia nach ihrem Release kopieren und schon gar nicht, indem sie ohne Selbstvertrauen in den Markt gehen. Kann AMDs CPU Leader mal für 4-5 Jahre in die GPU Sparte wechseln, so für ne ordentliche Strategie? Das wäre schön, weil sonst überholt Intel sie am Ende noch. ._.

Rabiata
2026-01-12, 22:35:54
Eine Karte schneller als die 5090 ist eben nicht "Mainstream/Midrange". Die Aussage muss dann schlicht falsch sein, wenn RDNA5 die 5090 übertreffen sollte...

MfG Blase
Vielleicht läßt der Treiber ja auch das Zocken mit AT0 auf Profikarten zu. Das könnte dann der große Hammer sein, mit dem die 5090 übertroffen werden kann. Zweifellos für sehr viel €, aber prinzipiell wäre das Ziel erreicht.

Leonidas
2026-01-13, 06:03:32
Halo-Part? Was ist damit gemeint?

Etwas, was in die Güteklasse einer 5090 geht. Dann natürlich auf Next-Gen-Niveau, sprich Güteklasse 6090.


Ähm hab ich was verpasst? Was hat es denn mit dem LPDDR5X bei den Mainstream-Lösungen zu tun?

So ist das Gerücht. Ich denke, schlicht eine neue Idee von AMD. Möglicherweise sind die LPDDR5X-Interfaces einfacher und belegen weniger Chipfläche, der Speicher selber ist billiger. Eventuell steht da auch die Idee dahinter, mit sehr hohen Speichermengen anzugreifen. Ob dies im Rahmen der Speicherkrise noch klappt - ungewiß.

Orko
2026-01-13, 06:46:01
RDNA5 mit LPDDR5X:

Breiter LPDDR5X dürfte im Vergleich zu schmalem GDDR7 vor allem eines sein: energie-effizienter.
Für Zen6 wird InFo-oS als Verbindungstechnologie gehandelt, welches energie-effizienter als das bisherige "Chips auf Leiterplatte" ist.
Bisherige (mobile) APUs waren gerne monolitisch, weil für mobile nun mal Energie-Effizienz wichtig ist.

All das mal spekulativ zusammen genommen:
Vielleicht plant AMD, die Zen6 APUs nicht mehr monolithisch zu fertigen, sondern mit dem Baukasten InFo-oS + Zen6 (mobile) Chiplet + RDNA5 AT3 bzw 4 Chip.
Also den economy-of-scale Ansatz der Chiplets auch auf den APU Bereich auszurollen.

AT2 mit GDDR7 wäre damit der Chip für die Mainstream / Midrange dGPUs.
AT3 und AT4 wären vor allem Chips für APUs, ggf mit Zweitverwertung für Budget-dGPUs.

Wenn Zen6 Chiplet und RDNA4 Chip(let) getrennte Speicherinterfaces haben, wird ein Gerätehersteller wohl nur sehr ungern zwei unterschiedliche Speichersorten verbauen.
Da macht es dann Sinn dass beide Chiplets ein LPDDR5X Interface haben, und damit nur eine Speichersorte im Gerät verbaut werden muss.

Oder der RDNA5 AT3/4 Chip trägt das komplette Speicherinterface, und ein (mobile) Zen6 Chiplet wird daran angedockt und nutzt dieses Interface mit.

Shink
2026-01-13, 07:47:36
So ist das Gerücht. Ich denke, schlicht eine neue Idee von AMD. Möglicherweise sind die LPDDR5X-Interfaces einfacher und belegen weniger Chipfläche, der Speicher selber ist billiger. Eventuell steht da auch die Idee dahinter, mit sehr hohen Speichermengen anzugreifen. Ob dies im Rahmen der Speicherkrise noch klappt - ungewiß.
Ich nehme an, LPDDR5 ist in der Speicherkrise immerhin (viel) billiger als GDDR7; spätestens wenn das Zeug 2027 herauskommt. Vielleicht gar nicht so blöd.
Dass es nicht ganz schrecklich performt, sieht man bei Strix Halo, das immerhin besser performt als eine RX7600, trotz der vermutlich schlechteren Latenz aufgrund der Doppelnutzung des Speichers.

Generell klingt der AT3 damit wie eine 8060S mit 20% mehr SPs und RDNA5 statt 3.5. Das wird schon schneller sein als die 9060XT aber nicht die Welt.

Der AT4 klingt hingegen tatsächlich nach einer modernen Version der RX6500XT: Ein Chip für 8GB-Grafikkarten unter 200€ in Zeiten wo Speicher unfassbar teuer ist; mit einer Ausgabe für Low-Profile Singleslot Karten ohne Netzteilanschluss.

Ich bin gespannt und freu mich darauf. Eine AT0 würde ich mir sowieso nicht gönnen für den Gaming-PC also freu ich mich, mal wieder spannendere Dinge rauszufinden als "RTX5070 ist schneller als RTX4090 wenn man MFR nutzt".

Das was Orko sagt macht auch Sinn. Wenn man da wirklich APUs und dGPUs noch weiter vereinheitlichen kann bei AMD, ist das eine weitere Möglichkeit flexibler zu sein.

amdfanuwe
2026-01-13, 08:03:04
Oder der RDNA5 AT3/4 Chip trägt das komplette Speicherinterface, und ein (mobile) Zen6 Chiplet wird daran angedockt und nutzt dieses Interface mit.
Praktisch wie Strix Halo ( bis 16 Kerne, 40CU, 128GB RAM).
AT3 (48CU) + 24 Kerne könnte der Nachfolger Medusa Halo werden.

The_Invisible
2026-01-13, 08:27:11
Naja wenn man sich zb die CES ansieht ist AMD Gaming eben noch mehr egal als Nvidia. Wichtiger wäre aber wohl mal das RDNA4 endlich in den APUs einzieht sonst bekommen sie es dort mit Intel auch noch zu tun.

Gast
2026-01-13, 08:39:59
Die 5080 hat auch keine neue Fertigung bekommen. Wenn man mit neuer Fertigung die 5090 nicht überbietet wäre das schon ziemlich arm.
Das passiert sicher nicht. Man wird garantiert nicht den Top Chip der aktuellen Generation mit einem 1/3 so kleinen Chip der Nachfolge Generation schlagen. Wie sollte das denn bitte gehen? Und wann gab es so etwas schon mal?
Vor dem Hintergrund, dass die Verbesserungen in der Fertigung auch immer kleiner werden und damit weniger bringen, wird ein 9070XT Nachfolger sich vermutlich etwas von einer 5080 absetzen können, aber eine 5090 ist einfach viel zu weit von der 5080 weg, als dass man die einholen könnte.

Gast
2026-01-13, 11:00:15
Komische "Strategie", die Kepler hier erzählt.

Genau so komisch ist aber, dass es keinen Chip mit 256 bit GDDR7-Speicherinterface gibt, also den AT1.

Scheinbar arbeiten die meisten Entwickler an der MI400/MI500/CDNA...und AMD konnte offenbar nicht mehr Leute einstellen...

Gast
2026-01-13, 11:36:59
Das passiert sicher nicht. Man wird garantiert nicht den Top Chip der aktuellen Generation mit einem 1/3 so kleinen Chip der Nachfolge Generation schlagen.


Aber mit dem Top - 1 Chip der nächsten Generation

Grafikspachtel
2026-01-13, 11:37:51
Breiter LPDDR5X dürfte im Vergleich zu schmalem GDDR7 vor allem eines sein: energie-effizienter.
Ich nehme an, LPDDR5 ist in der Speicherkrise immerhin (viel) billiger als GDDR7; spätestens wenn das Zeug 2027 herauskommt. Vielleicht gar nicht so blöd.

LPDDR5X ist vor allem eines: lahmarschiger. Hier, ich habe mal alle relevanten RAM-Sorten zusammengestellt.
DDR5 LPDDR5X GDDR6 GDDR7
Data Rate 4800-8400 MT/s 5500-8533 MT/s bis 20 Gbps bis 48 Gbps
Bandwidth bis 67.2 GB/s bis 34.1 GB/s 644 GB/s 896-960 GB/s
Voltage 1.1v 1.05V (Core), 0.5V (I/O) 1.35 V 1.2 V
Burst Length 16 16 16 16
Prefetch 16n 16n 16n 32n
Channels 32-bit x2 16-bit x2 16-bit x2 16-bit x2


DDR5 weil Desktop. GDDR6 weil RDNA4. GDDR7 weil Blackwell und AT2.
Wie man sieht ist LPPDR5X vielleicht sparsamer, aber aufgrund der halbierten Busbreite auch nur halb so schnell wie normaler DDR5.
Bei den GDDRs bin ich von einem 256-bit Bus ausgegangen, so wie man ihn bei der 9070XT, der 5070Ti oder der 5080 vorfindet. Ein 384-bit oder 512-bit Bus ist natürlich nochmal deutlich schneller.

Shink
2026-01-13, 11:41:00
Nimm genug LPDDR5X-Kanäle und du hast billo-HBM

Grafikspachtel
2026-01-13, 11:53:40
Wo sollen die Kanäle auf AM5 herkommen?

Leonidas
2026-01-13, 12:03:25
Auf AM5 nicht. Aber bei extra Grafikkarten geht das.

Nebenbei kommt LPDDR5X auf ähnliche Bandbreiten wie DDR5 bei gleicher Interface-Bandbreite. Ergo kein echter Nachteil. Relevant sind nicht die GB/sec, die werden für *gewöhnliche Interfaces* angegeben. Relevant sind die MT/sec, das ist dann pro Pin gedacht. Oder?

Shink
2026-01-13, 12:26:00
Wo sollen die Kanäle auf AM5 herkommen?
Natürlich nicht für AM5 (außer vielleicht beim AT4).
Auch Strix Halo ist nicht AM5 weil Quad-Channel - und das ist keine dGPU.

@Leo: Wird so sein nehme ich an. Die APU von Notebooks mit LPDDR5X bringt mehr Leistung zusammen als beim selben APU-Modell mit DDR5.

Gast Ritis
2026-01-13, 12:30:54
Rückblickend hat AMD mit dem verzögerten RDNA4 Launch alles richtig gemacht. Nur Redstone war im Gegenteil zu früh und unfertig dahergestolpert, es gab schlicht keine guten Implementierungen.

Ganz ehrlich wäre AMD bescheuert die nächste Gen früher als Nvidia zu bringen. Auch ein sau teures Halo Produkt wäre angesichts des Bias für Nvidia in der Exotenzielgruppe nur ein Marketing Gag wert. Zuerst muss der Bedarf geweckt werden, es gibt aber keine Software die das rechtfertigen könnte.
Für die Spielzeug GPUs genügt doppelte Leistung der kommen Konsolen, alles andere ist für FOMO Opfer und hier kann AMD auch in der nächsten Gen nicht plötzlich den Ton angeben.

Gast
2026-01-13, 13:02:46
Relevant sind nicht die GB/sec, die werden für *gewöhnliche Interfaces* angegeben. Relevant sind die MT/sec, das ist dann pro Pin gedacht. Oder?

Naja relevant sind schon eher die GB/s. GB/s sind ja nichts anderes als GT/s * Anz. Pins. Die GB/s kann man besser vergleichen weil eben die Anzahl der Pins irrelevant ist.

Orko
2026-01-13, 13:11:21
Wie man sieht ist LPPDR5X vielleicht sparsamer, aber aufgrund der halbierten Busbreite auch nur halb so schnell wie normaler DDR5.

Bei den GDDRs bin ich von einem 256-bit Bus ausgegangen, so wie man ihn bei der 9070XT, der 5070Ti oder der 5080 vorfindet. Ein 384-bit oder 512-bit Bus ist natürlich nochmal deutlich schneller.


Ich schätze du solltest deine Datenzusammenstellung noch mal überdenken, und zum Vergleich auf eine gemeinsame Kanalbreite normieren. 32bit 64bit und 256bit Kanäle so gegenüberzustellen ist Unsinn um Speichersorten gegeneinander zu vergleichen. Natürlich haben die breiteren Verbindungen dann eine höhere Bandbreite.

DDR5 und LPDDR5X:
8400MT/sec @ 2x 32 bit Kanal -> 67.2GB/sec @ 64 bit Kanalbreite

zu GDDR7
Erst einmal: Wo hast du die 48 Gb/sec her? Üblich sind IMO derzeit max 32 Gb/sec.

GDDR7 32 Gb/sec @ logisch 2x 16 bit Kanal
-> 128GB/sec @ 32 bit logische Kanalbreite (physikalisch 44 Datenleitungen)
-> 256GB/sec @ 64 bit logische Kanalbreite (physikalisch 88 Datenleitungen)

GDDR7 ist im Vergleich zu DDR5 bzw LPDDR5 Speicher mit selber logischer Bandbreite:
- ca Faktor 3,8 schneller
- benötigt Faktor 1,375 mehr physikalische Datenleitungen
- * und benötigt um die hohen Taktraten zu erreichen eine direkte Verbindung
(nicht gepackagte direkt gelötete GPU und Speicherchips mit geringem Abstand)
was für dGPUs Stand-der-Technik ist, für (mobile) AGPUs aber bisher ein No-Go.

GDDR7 ist im Vergleich zu DDR5 bzw LPDDR5 Speicher mit hypothetisch derselber Anzahl an physikalischen Datenleitungen:
- ca Faktor 2,75 schneller
- selbes *

Ja, es gibt Geschwindigkeitsunterschiede, aber diese sind deutlich geringer als von dir suggeriert, und werden mit entsprechenden Einschränkungen beim Verbauen der Chips erkauft.

Leonidas
2026-01-13, 13:18:01
Die GB/s kann man besser vergleichen weil eben die Anzahl der Pins irrelevant ist.

Bist Du Dir da sicher? GB/sec gibt man immer zu einem bestimmten Interface an, daher muß dies dazu bekannt sein. Die einzige Performance-Angabe, die (immer) ohne das Wissen um die Pins bzw. die Interface-Breite auskommt, ist MT/sec.

GB/sec = eine Bandbreite, dafür muß man das *tatsächlich benutzte* Interface wissen (nicht das Interfaces des Speichers, sondern das Interfaces des hier angebundenen ASIC)
MT/sec = eine Durchsatz pro Pin, dafür ist die konkrete Interface-Breite irrelevant

Man korrigiere mich bitte, wenn ich hier falsch liegen sollte.

Exxtreme
2026-01-13, 13:25:16
Bei GB/s muss man das Interface auch nicht kennen. Nur wenn man die Effizienz dieses Interfaces wissen will, muss man die Breite des Busses kennen. Aber ansonsten sind 1 GB/s immer 1 GB/s egal ob mit 512 Bit angebunden oder mit 128 Bit.

Gast
2026-01-13, 13:32:19
Bist Du Dir da sicher? GB/sec gibt man immer zu einem bestimmten Interface an, daher muß dies dazu bekannt sein. Die einzige Performance-Angabe, die (immer) ohne das Wissen um die Pins bzw. die Interface-Breite auskommt, ist MT/sec.


GB/s gibt man für ein System/eine Komponente an.
Es ist eben die Frage was du wissen willst, Performancerelevant ist einzig der Durchsatz, ob der durch ein breites Interface mit geringem Takt oder hohem Takt und kleinem Interface zustande kommt ist erstmal egal.


GB/sec = eine Bandbreite, dafür muß man das *tatsächlich benutzte* Interface wissen (nicht das Interfaces des Speichers, sondern das Interfaces des hier angebundenen ASIC)


Wie gesagt die Frage ist was du wissen willst. Das Interface muss man kennen wenn man aus den MT/s die Bandbreite ausrechnen will. Wenn man die GB/s Angabe bereits hat muss man gar nichts übers Interface wissen.


MT/sec = eine Durchsatz pro Pin, dafür ist die konkrete Interface-Breite irrelevant


Ist es, sagt eben für sich alleine nichts aus.
Das ist wie wenn du von einem Motor die U/min weißt und sonst nichts.

Orko
2026-01-13, 13:37:53
Es ist üblich Angaben die sich auf eine (logische) Datenleitung beziehen in Gbit/sec anzugeben, und Angaben die sich auf ein komplettes Interface (n logische Bitleitungen) beziehen in GByte/sec anzugeben. Aber dies ist nicht zwingend.

Im Zeifelsfall muss man bei allen Angaben Gbs, GBs, ... wissen auf was genau sie sich beziehen, und auch inwieweit es sich um Nettoangaben handelt.

Bei Angaben die eher die Implementierung des Interfaces als dessen Nettodaten-Bandbreite beschreiben wie MTs, Symbolrate, Baudrate, Clk-Frequenz, ... sollte desweiteren auch die Kodierung bekannt sein: DDR, QDR, NZ, PAM3, PAM4, Kanalkodierung, Fehlererkennung, Fehlerbehebung, Overhead z.B. für Synchronisation und Kommandos, ...

Schönes Beispiel ist ja GDDR7, wo sich die Gbs Angabe auf eine logische Datenleitung bezieht, die in dieser Form gar nicht mehr existiert.

---

Wie wärs mit BTT? Spekulationen zu den RDNA5 Gerüchten finde ich viel spannender als Grundsatzdiskussionen zu Datenraten und Interfaces.

Lehdro
2026-01-13, 14:39:09
DLSS3 war im Bezug auf SR überhaupt kein Fortschritt, dass war nur FG.
Da es nur primär um die Bildqualität ging, zählt das dazu. Du kannst halt stumpf höhere Stufen + FG nehmen anstatt niedrigere Stufen ohne FG.

Selbst wenn du jetzt sagst: "FG mag ich nicht." - ok. Aber DLSS 3 hat durch die Implementierung von FG dazu geführt dass jetzt viel mehr Games Reflex implementierten. Wenn man also Latenznormiert testet, so kann ich in einem "DLSS 3 + Reflex" Game weniger FPS "verkraften", als vorher in einem "DLSS 2 ohne Reflex Option" Game. WH:VT2 hat zum Beispiel erst mit dem Update auf DLSS 3 die Reflex Option bekommen, vorher existierte die Option schlichtweg nicht. Egal wie man also zu FG/MFG steht: Es half der Verbreitung von Reflex enorm und das war/ist immer eine gute Sache = Fortschritt.

Gast
2026-01-13, 14:45:32
Da es nur primär um die Bildqualität ging, zählt das dazu. Du kannst halt stumpf höhere Stufen + FG nehmen anstatt niedrigere Stufen ohne FG.




Nein SR ist in erster Linie ein Performance-Tool, FG in erster Linie ein Qualitätstool.

Nur weil sie unter dem gleichen Namen vermarktet werden haben sie total unterschiedliche Anwendungsgebiete.

SR ist geeignet um unzureichende Performance auf ein geeignetes Niveau zu heben, FG um die Persistance bei bereits guter Framerate zu verbessern. Das sind 2 unterschiedliche Tools, Tom Petersen im letzten DF-Interview hat das ganz gut zusammengefasst.

etp_inxession
2026-01-14, 06:54:54
9070 und 9070 XT laufen für AMD denke ich ganz gut.

Im Top End anzugreifen muss sitzen. Tuts vermutlich nicht.
Also im Midrange bleiben.

Völlig legitim.

Semmel
2026-01-14, 07:22:36
9070 und 9070 XT laufen für AMD denke ich ganz gut.

Im Top End anzugreifen muss sitzen. Tuts vermutlich nicht.
Also im Midrange bleiben.

Völlig legitim.

Nvidia macht die größten Margen mit der 5080 und 5090, also genau den Modellen, denen AMD nichts entgegenzusetzen hat.
Alles darunter ist deutlich margenschwächer. Wenn AMD nur sowas anbieten kann, dann steckt da schon irgendeine Not dahinter.

Badesalz
2026-01-14, 07:24:31
Nvidia macht die größten Margen mit der 5080 und 5090, also genau den Modellen, denen AMD nichts entgegenzusetzen hat.
Ja. Pro Karte :freak: Insgesamt aber ebenfalls? :|
Alles darunter ist deutlich margenschwächer. Wenn AMD nur sowas anbieten kann, dann steckt da schon irgendeine Not dahinter.Du total Ahnung in BWL...

Shink
2026-01-14, 08:00:31
Die größten Margen machen die doch nicht mit Gaming-Garfikkarten für den durchschnittlichen 3DC-User sondern mit Computing-Zeug, oder? Dafür hat AMD ja dann AT0.

Semmel
2026-01-14, 08:22:44
Ja. Pro Karte :freak: Insgesamt aber ebenfalls? :|


Beispiel:
Eine 5070 Ti und 5080 ist hardwareseitig identisch. Produktionskosten also auch identisch. Die 5080 wird aber deutlich teurer verkauft. Also deutlich mehr prozentuale Marge. Dennoch kann Nvidia auch das Mainstream- und Midrange-Segment bedienen. Sie bedienen alle Segmente und maximieren damit ihre Verkäufe.

AMD schränkt sich aus irgendwelchen Gründen weiterhin selbst ein.

Badesalz
2026-01-14, 09:03:48
Ähmm :|

Shink
2026-01-14, 09:12:58
Ich nehme an, die Frage ist dann: Warum bringt AMD die AT0 nicht für Consumer, wenn sie schon mal existiert.
Beim Blick auf die Daten (müsste ja wesentlich mehr als doppelt so viel Rohleistung wie eine 9070XT sein) wäre die ja leistungsmäßig konkurrenzfähig zu einer 5090.

Gast
2026-01-14, 09:29:17
Beispiel:
Eine 5070 Ti und 5080 ist hardwareseitig identisch. Produktionskosten also auch identisch.


Die Produktionskosten sind nicht identisch. Wenn ich 70% der Chips für eine 5080 verwenden kann, aber 80% für eine 5070Ti sind die Chipkosten für die 5070Ti effektiv günstiger.

Badesalz
2026-01-14, 09:42:25
Man hat Angst vor 12VHPWR...

AlterSack
2026-01-14, 10:18:43
scheissegal, ob rdna5 kommt oder nicht.
bei den preisen für pc-komponenten sind alle neuen chips obsolet.
seid glücklich mit dem was ihr habt.
die spielebranche wird sich wohl anpassen müssen,
denn was nützt eine aufgebohrte grafik wenn es bei den spielern
nicht die entsprechende hardware gibt?
die aktuelle grafik ist eh schon ziemlich gut.
entspannt zurücklehnen ist angesagt, was den pc angeht.
nur, ...kaputtgehen darf nix.
wir haben auch echt andere probleme im land und weltweit,
als den pc-kram!

Crazy_Chris
2026-01-14, 10:24:10
Wenn dir das wirklich egal wäre dann wärst du wohl kaum in diesem Forum. :tongue:

Badesalz
2026-01-14, 11:36:13
Wenn dir das wirklich egal wäre dann wärst du wohl kaum in diesem Forum. :tongue:Warum wird man hier immer zum Fachidiot abgestempelt? :tongue:

AlterSack
2026-01-14, 19:43:33
Wenn dir das wirklich egal wäre dann wärst du wohl kaum in diesem Forum. :tongue:

ja, es ist mir nicht völlig egal,
aber ich bin zurzeit versorgt soweit nichts ausfällt.
anderes bereitet mir aber wirklich mehr sorgen.

Denniss
2026-01-14, 22:50:47
Kaufbare/bezahlbare Massenware bringt Marktanteile und durch die hohe Menge auch mehr Gewinn als einzelne Leuchtturmprodukte.
Das ist jetzt strikt bezogen auf den normalen Computermarkt ob OEM oder Retail.
Nvidia hält die hohen Marktanteil nur weil hunderttausende Endkundenkarten nach China wandern und entweder direkt oder nach Umbau in AI-Farmen landen.

Perdakles
2026-01-15, 08:03:11
Wenn AMD keine Halo Produkte liefern möchte, ist das OK, Sie sind bei RDNA4 ja gut gefahren mit der Strategie, sich nur auf das Performance/Mid-Range Segment und darunter zu fokussieren.

Aber warum um alles in der Welt bringt man denn keinen Chip mit einem 256-Bit Speicher-Interface? Mit 192-Bit hat man ja nur die Option 12GB, 18GB oder gleich 36GB GDDR7 VRAM zu verbauen. Eine Karte für das gehobene Midrange-Segment sollte im Jahr 2027 dann aber schon mindesten 20GB, besser 24GB haben. Das ist beim AT2 ja nicht möglich. Alles komisch irgendwie...

EDIT:
Ich merke gerade selbst wie blöd ich bin. 24GB gehen natürlich auch mit Clamshell... Vergesst alles was ich gesagt habe.

Gast
2026-01-15, 10:10:45
Wenn AMD keine Halo Produkte liefern möchte, ist das OK, Sie sind bei RDNA4 ja gut gefahren mit der Strategie, sich nur auf das Performance/Mid-Range Segment und darunter zu fokussieren.



Mit historisch tiefsten Marktanteilen sind sie gut gefahren?

Lehdro
2026-01-15, 14:21:23
Mit historisch tiefsten Marktanteilen sind sie gut gefahren?
Während sie gleichzeitig Rekordeinnahmen mit der AMD Gaming Sparte fahren? Hm...Konsolenverkäufe können es nicht sein, die sind Rückläufig. Bleibt nur Radeon. Bei Steam geht der AMD Anteil bei GPUs übrigens seit Monaten kontinuierlich nach oben.

Das Thema hatten wir übrigens hier (https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2025) schon ausführlich.

Denniss
2026-01-16, 00:06:35
Das sind dei ganzen NV-Consumerkarten die in chinesische AI-Farmen wandern und daher den Anteil massiv verfälschen

Perdakles
2026-01-16, 08:31:26
Während sie gleichzeitig Rekordeinnahmen mit der AMD Gaming Sparte fahren? Hm...Konsolenverkäufe können es nicht sein, die sind Rückläufig. Bleibt nur Radeon. Bei Steam geht der AMD Anteil bei GPUs übrigens seit Monaten kontinuierlich nach oben.

Das Thema hatten wir übrigens hier (https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2025) schon ausführlich.

Das sind dei ganzen NV-Consumerkarten die in chinesische AI-Farmen wandern und daher den Anteil massiv verfälschen

Danke euch. Ich hatte keine Lust das alles wieder aufzuwärmen, um es dem Gast aus Beitrag #60 zu erklären. Ihr habt mir die Arbeit abgenommen :up:

Rabiata
2026-01-16, 16:09:46
Nimm genug LPDDR5X-Kanäle und du hast billo-HBM
Da ist noch die Frage nach der Verdrahtung:
Wie kriege ich so viele Leitungen an den GPU-Chip angeschlossen? Die existierende Antwort ist HBM (teuer!):
1024 Leitungen angeschlossen mit einem Interposer, auf dem sehr viele sehr feine Leiterbahnen sitzen können.
Aber für die existierenden LPDDR5X-Chips ist mir nicht klar, wie das gehen soll.

Shink
2026-01-16, 16:25:25
Es geht ja eh um das untere Ende der Fahnenstange. Eine Ablöse der RX9060XT (mit gerade mal 128 Bit GDDR6) und der RX6500XT(!) (nur 64 Bit). Ich nehme an, die Leitungen um damit zu konkurrieren bekommt man unter. Wenn man der LPDDR5X tatsächlich billiger bekommt als GDDR6, heißt das ja vielleicht, in Zeiten wo NVidia nur mehr 8GB-Karten im dreistelligen Eurobereich hat, kann man was besseres bieten. Das könnte ja funktionieren für AMD.

Nightspider
2026-01-17, 08:09:29
Das halte ich für ein Gerücht, dass die 5090 durch RDNA5 geschlagen werden kann.

Kommt halt stark auf die RDNA5 Architektur und die realisierte Taktrate an.

Mit ausreichend großem Cache, deutlich höherem Takt und einer besseren Architektur könnten die schon sehr eng beieinanderliegen.

Ein mittelgroßer Chip in einem fortgeschrittenen Node mit sehr hohem Takt ist halt auch massiv besser ausgelastet als ein riesiger Salvage Chip, der Probleme hat alle Recheneinheiten auszulasten.

N3P ist dann halt schon eine ganze Ecke besser in jeder Metrik.

Die 5090 zu schlagen wird schwer mit einem mittelgroßen Chip aber die könnten wirklich nah beieinander liegen, wenn RDNA5 ein voller Erfolg wird.
Wenn es um Raster-Leistung geht liegt die 9070XT jetzt schon manchmal vor der RTX5080.

Und bei RT soll RDNA5 ja auch extrem zulegen.

Platos
2026-01-17, 10:12:14
Das könnt ihr mal schön vergessen ;)

Die 5080 hat schon nicht die 4090 geschlagen, die 6080 wird das auch nicht und die AMD Pendants haben es ebenso nicht und werden es auch nicht mehr. Es wird mit Sicherheit nicht plötzlich eine Generation geben, die ein deutlich besseres P/L liefert, denn das müsste sie, damit es noch als Midrange gilt. Die Zeiten sind leider (schon lange) vorbei. Also hört doch auf zu träumen/hypen.

Und die 4080 hat auch nur deshalb die 3090 knapp geschlagen, weil sie kein Midrange war und der Preis absurd hoch (Nicht High-End, sondern Enthusiast). Abgesehen davon war/ist auch die 80-er kein Midrange, sondern High-End und nicht mal die haben die 90-er geschlagen. Denn was man ansehen muss, ist die 5070Ti bzw. 9070XT und die werden sowieso keine 5090 schlagen (bzw. die Nachfolger).

Es wird keine Midrange Grafikkarte geben, die eine 5090 schlägt. Weder von nvidia noch von AMD. Ich würde sogar sagen, dass nicht mal die Next-Next-Gen im Midrangebereich 5090 Perfomance bietet. Vermutlich wird die Perfomance dann irgendwo zwischen 5080 und 5090 sein. (Abgesehen davon, dass die 5070Ti und 9070XT kein Midrange vom Preis ist, sondern eher schon High-End, aber das ist eine andere Diskussion).

Edit: Eher sieht es so aus:

- Sehr, sehr, sehr optimistisches (fast schon unrealistisches) Szenario: In der Next Gen wird eine 6070Ti und 1070XT die 5080 mit mehr als +10% schlagen und in der Next-Next-Gen wird die 7070Ti und 2070XT sehr nah an der 5090 sein oder gar knapp gleichwertig abseits vom Speicher. Natürlich ein sehr unrealistiaches Szenario, aber so oder so wird es niemals schon in der Next-Gen 5090 Perfomance bei 6070TI oder 1070XT geben.

- Realistisches Szenario: Die Next-Gen wird mit einer 6070Ti und 1070XT leicht unter der 5080 sein oder maximal gleichwertig bzw. Marketing-besser (5% oder so in unabhäniggen Tests). Natürlich weit, weit weg von einer 5090. In der Next-Next-Gen wird eine 7070Ti oder 2070XT die 5080 klar schlagen, näher an der 5090 sein, aber nicht schlagen (750-820 Perfomancepunkte im 4k Index). Next-Next-Next-Gen wird dann mit einer 8070Ti und 3070XT Vermutlich etwa 5090 Perfomance haben oder leicht drüber sein (900-1050 Perfomancepunkte im 4k Index).

Der Rest ist Wunschdenken.

Nightspider
2026-01-17, 10:59:50
Die 5080 hat schon nicht die 4090 geschlagen

Sinnloser Vergleich, weil beide 4nm Nodes nutzen.

N3P ist deutlich besser.


Und die 4080 hat auch nur deshalb die 3090 knapp geschlagen, weil sie kein Midrange war und der Preis absurd hoch

21% avg bei Raster ist nicht knapp aber das lag am immensen Sprung beim Fertigungsprozess (Samsung 8nm->TSMC 4nm) und hat erstmal nichts mit Geld zu tun. Der Speicher der jetzt 4 mal so teuer ist, ist genauso gut/schlecht wie vorher.

Der Chip der 4080 war ja sogar 40% kleiner als bei der 3090ti.

Auf der anderen Seite ist der Chip einer 5090 98% größer als bei der 5080 aber liefert meistens nur 45-50% mehr Leistung. Ein effizienter 6080 Chip im neuesten Fertigungsverfahren mit neuer Architektur kann durchaus nah an eine 5090 herankommen.
Ein Generationssprung von 45-50% ist durchaus im Bereich des Möglichen. Und wenn AMD es nicht so verkackt wie mit RDNA3, dann könnten sie mit dem 6080 Gegenspieler durchaus auch in dieser Region landen.
Und selbst wenn AMD nur 10% dahinter landet und einen ordentlichen Preispunkt anlegt, dann haben die Gamer schon etwas gewonnen.

Die RDNA4 Grafikkarten haben den Preisdruck ja auch erhöht und schlussendlich haben PC Spieler 2025 deutlich mehr fps pro Euro bekommen.

Es ist nur schade das die nächste Generation erst im 2. Halbjahr 2027 kommt.

The_Invisible
2026-01-17, 12:03:03
Wenn es um Raster-Leistung geht liegt die 9070XT jetzt schon manchmal vor der RTX5080.

Wo bitte außer in CoD? Kann ich auch sagen manchmal liegt die 5060Ti vor der 9070xt (in PT) :freak:

Solche CherryPicks bringen genau nichts...


Die RDNA4 Grafikkarten haben den Preisdruck ja auch erhöht und schlussendlich haben PC Spieler 2025 deutlich mehr fps pro Euro bekommen.

Kann ich nicht nachvollziehen wenn man 4070S auf 5070 und 4070TiS auf 5070Ti ansieht, eher gleich geblieben und AMD hat sich dazwischen eingenistet.

Nightspider
2026-01-17, 12:18:01
Wo bitte außer in CoD? Kann ich auch sagen manchmal liegt die 5060Ti vor der 9070xt (in PT) :freak:

Solche CherryPicks bringen genau nichts...

Senua's Saga: Hellblade II
Mafia: The Old Country

...beispielsweise. Aber da gibts auch noch einige Spiele wo der Abstand gerade mal um die 5% ist. Der Punkt ist: Der Unterschied ist nicht so riesig wie hier suggeriert wird.

Platos
2026-01-18, 09:08:28
Unbelehrbare Träumer :D

Dann denkt ihr doch mal, dass 6070Ti oder 1070XT eine 5090 schlägt oder nah ran kommt (bei gleichem/ähnlichem Preispunkt)

Manche müssen hald jede Generation auf ein neues hypen und träumen. Dann macht mal.

gnomi
2026-01-18, 11:45:27
Tippe 4090 Niveau beste AMD Karte. (eher 6070TI als 6080 Niveau)
Zusammen mit aktuellen Features könnten die Karten erneut überraschend gut laufen und zumindest etwas Konkurrenz darstellen.
Prinzipiell ist es aber wegen des eigenen Öko Systems bei nvidia schwer.

Nightspider
2026-01-18, 13:40:54
Dann denkt ihr doch mal, dass 6070Ti...

Die Rede ist nach wie vor von der 6080 oder einem passendem AMD Equivalent.

Wenn AMD aber wieder nur ein 6070 Pedant bringt, dann ist es klar, das es nix wird.

Tippe 4090 Niveau beste AMD Karte. (eher 6070TI als 6080 Niveau)
Zusammen mit aktuellen Features könnten die Karten erneut überraschend gut laufen und zumindest etwas Konkurrenz darstellen.
Prinzipiell ist es aber wegen des eigenen Öko Systems bei nvidia schwer.

Ja, ist sehr wahrscheinlich.

Platos
2026-01-19, 00:32:24
Eigentlich war die Rede von RDNA5 schlägt 5090. Wenn es um ein passendes AMD Pendant zur 6080 gegangen wäre (ich finde die Stelle dazu im Thread nicht), würde das aber natürlich gleichzeitig auch noch die Spekulation enthalten, dass es ein solches überhaupt gibt und nicht wie in den letzten Generationen keines. Anhand des Gerüchtes und der letzten Generationen ist das aber eher unwahrscheinlich.

RoNsOn Xs
2026-01-19, 20:32:27
Ich schätze um die 5090 zu erreichen, müsste AMD schon ein Highend-Produkt bringen wollen. Da es sehr wahrscheinlich wieder keines geben wird, könnte ich mir wirklich nur maximal die 4090 vorstellen.

gedi
2026-01-19, 21:08:07
Den größten Blödsinn, welchen ich seit langem gelesen habe. War der Leaker betrunken?

Nightspider
2026-01-19, 21:38:34
Ich schätze um die 5090 zu erreichen, müsste AMD schon ein Highend-Produkt bringen wollen. Da es sehr wahrscheinlich wieder keines geben wird, könnte ich mir wirklich nur maximal die 4090 vorstellen.

AMDs Navi48 Chip mit 357mm² war ja schon genügend um zwischen 5070 und 5080 zu landen.

Mit N3P, einer besseren Architektur sollte es mit einem ~400mm² Chip drin sein auch an eine 5090 heranzukommen.
Da brauchts eigentlich kein Highend-Chip. Wenn die Architektur richtig, richtig gut wird (RDNA2 like), könnte dafür auch ein ~350mm² Chip reichen. Da müssten aber schon einige "wenn"s passen.

AMD muss aber softwareseitig aufholen.

Da RDNA5 in abgewandelter Form auch für die Playstation 6 verwendet wird, sollte AMD daran gelegen sein eine extrem gut balancierte Architetur zu finalisieren.

The_Invisible
2026-01-19, 22:14:11
Da RDNA5 in abgewandelter Form auch für die Playstation 6 verwendet wird, sollte AMD daran gelegen sein eine extrem gut balancierte Architetur zu finalisieren.

Das hat man zu PS4 und PS5 auch schon gesagt, vor allem das alles nur mehr auf AMD GPUs optimiert wird, in der Realität hat sich nie viel getan

Nightspider
2026-01-19, 22:23:09
Jain....es gab schon paar Titel die extrem gut auf AMD Architekturen optimiert waren, die bestimmt deutlich schlechter performt hätten, wenn keine AMD GPU in den Konsolen gesteckt hätte.

Nvidia hat halt fast den kompletten Markt an dGPUs. (95%?)

Und RDNA2 war schon richtig gut damals. Hatte keinen Fokus auf RT aber war ansonsten top.