Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Gorkon
2025-05-22, 01:07:52
Details zur 9060XT (https://www.amd.com/en/products/graphics/desktops/radeon/9000-series/amd-radeon-rx-9060xt.html)
Oh, gut...da hätte man auch selber drauf kommen können bei AMD selber zu schauen :freak:
Gut zu wissen, dass damit kein Navi24 2.0 kommt.
GerryB
2025-05-22, 01:33:32
Interessant, da steht älter oder neuer(?) 160W für die 16GB.
Würde eher zu den 150W mit 8GB passen.
Gut zu wissen, dass damit kein Navi24 2.0 kommt.
Diese bis zur Unkenntlichkeit verkrüppelte GPU bleibt hoffentlich ein einmaliger Ausrutscher.
MfG
Raff
Gorkon
2025-05-22, 15:35:47
Diese bis zur Unkenntlichkeit verkrüppelte GPU bleibt hoffentlich ein einmaliger Ausrutscher.
MfG
Raff
Die "4" am Ende weckte halt alte Erinnerungen und Befürchtungen :freak:
Es wäre aber auch wirklich unendlich dämlich wenn man die VCN-Einheit wegrationalisiert oder wieder beschnitten hätte, jetzt wo man endlich in Sachen Streaming und "Alltags"-Encoding (wenn man kein YUV 4:4:4 braucht) on par mit nVidia und Intel ist.
robbitop
2025-05-22, 15:40:49
N24 war IIRC als laptop chip geplant. Das ist nicht so richtig aufgegangen und wurde dann in PCs verwurstet. Als Laptop dGPU macht es ja Sinn weil man da immer eine APU hat, die ja bereits HW für decoding/encoding hat und die 4x PCIe 4.0 lanes wären in den Konfiguration auch ausreichend gewesen.
N44 ist relativ zu N48 auch größer als N24 relativ zu N22 (was ja in etwa grob die Positionierung von dem Marktsegment von N48 ist bei RDNA4). Und auch die die size ist ja eine ganz andere Liga (200 mm² für N44 vs 107 mm" für N24).
Passt eigentlich eher grob zur Positionierung von N33. Insofern wäre N43 ggf. die passendere Bezeichnung gewesen.
w0mbat
2025-05-22, 16:00:42
Jupp, N24 war nur für mobile gedacht. Das ist auch richtig aufgegangen, nur war damals halt GPU shortage und man hat die Chance gesehen, die billigen Chips für mehr Geld auch als diskrete GPU zu verkaufen.
Gorkon
2025-05-22, 16:27:42
Ja, der Hintergrund war mir auch bekannt :) Die Angst vor so einem weiteren Ausrutscher kam halt durch die initialen Spekulationen um N48 und wie klein er hätte angeblich werden sollen und das darunter ja noch was kommt.
Aber N48 landete überraschend bei doch recht großen 357mm². Und jetzt kommt N44 wohl bei ~200mm² nur mit weniger CUs und Cache und der Rest ist gleich zu N48.
180W TBP, und damit bloss 20% weniger als die RX 9070, bei wenig mehr als der Hälfte der CUs, die RX 9060 XT wird aber ordentlich geprügelt. Einen Effizienzpreis wird die nicht gewinnen, und trotzdem reicht das bei der Rohleistung nicht um an die 5060 Ti ranzukommen. Dass AMD nur 16GB 9060 XT gegen 8GB 5060 TI Benchmarks veröffentlicht sagt ja wohl alles, auch wenn das preislich immerhin Sinn ergibt.
Vielleicht wird ja die non-XT etwas effizienter...
Die Vergleichen per Preis... Was soll ich mein Produkt vergleichen mit einem Konkurrenten, welches deutlich mehr kostet. Macht wenig Sinn ...
dildo4u
2025-05-23, 11:23:17
Abwarten AMD kann bisher nicht UVP liefern nur die 8GB Karte wird vermutlich bei 300€ landen.
davidzo
2025-05-23, 12:37:42
180W TBP, und damit bloss 20% weniger als die RX 9070, bei wenig mehr als der Hälfte der CUs, die RX 9060 XT wird aber ordentlich geprügelt. Einen Effizienzpreis wird die nicht gewinnen, und trotzdem reicht das bei der Rohleistung nicht um an die 5060 Ti ranzukommen. Dass AMD nur 16GB 9060 XT gegen 8GB 5060 TI Benchmarks veröffentlicht sagt ja wohl alles, auch wenn das preislich immerhin Sinn ergibt.
Vielleicht wird ja die non-XT etwas effizienter...
Welche non-XT?
Ich teile aber die leichte Enttäuschung von N44, bzw. "small RDNA4". Das erklärt imo ein wenig wieso RDNA4 nicht breiter ausgerollt wurde.
Es ist zwar lobenswert dass N44 kein Sparbrötchen geworden ist und unter Anderem volle PCIe Lanes hat, aber angesichts der Größe, Density und des Transistorbudgets zeigt sich RDNA4 hier eher von der enttäuschenden Seite.
13% mehr Transistoren als N21, 2,5x weniger Shader-Alus, nur ein Viertel des IFcaches, ein halbiertes Speicherinterface und das trotz zwei Node Shrinks und immerhin 72% des Verbrauchs eine RX 6800. Von der Performance kommt man auch nicht ansatzweise auf N21XL Niveau geschweige denn XT oder XTX. Das hätte ich bei dem Nodevorteil und dem Tarnsistorcount aber schon erwartet. Das einzige wo man in dem Vergleich vermutlich punkten kann ist mit der RT Leistung, aber das will ich erstmal sehen.
Wer auch immer hier neulich im Zen6-Fred behauptet hat dass RDNA4 doch besser wäre von der Flächeneffizienz als RDNA3.5 hat sich aber gewaltig geschnitten. Wenn man N44 und N33 als Referenz heranzieht ist die performance per transistor deutlich gesunken. Navi44 hat die gleiche Anzahl an Compute Units, IFcache und Speicherinterface, verbraucht aber das 2,23fache an Transistoren und taktet trotz 1,5 Nodeshrinks nur geringfügig höher. Schlechtere perf/transistor ist zwar bei neuen Architekturen nicht unüblich, auch bei NV gelegentlich so, aber der Sprung ist dennoch gewaltig. Blackwell dagegen ist umgekehrt - weniger Transistoren pro SM und trotzdem mehrperformance.
GerryB
2025-05-23, 13:56:14
think different,
RDNA4 verwendet mehr Transistoren um die IPC zu verbessern + Video+RT+Matrix
solange die paar mm² mehr nicht als Kostenfaktor beim Käufer ankommen
ist alles Palletti
btw.
das die Umstrukturierung auch der Bandbreiteneffizienz zugute kommt ist sehr positiv
viele User meinen, das RDNA4 dadurch smoother läuft als ...
dildo4u
2025-05-24, 12:23:32
Ist GDDR7 nicht Energie Effitzenter damit wäre die 9060XT nicht deutlich schlechter als 5060 TI.
Beide Karten um 180 Watt.
robbitop
2025-05-24, 12:35:39
Welche non-XT?
Ich teile aber die leichte Enttäuschung von N44, bzw. "small RDNA4". Das erklärt imo ein wenig wieso RDNA4 nicht breiter ausgerollt wurde.
Es ist zwar lobenswert dass N44 kein Sparbrötchen geworden ist und unter Anderem volle PCIe Lanes hat, aber angesichts der Größe, Density und des Transistorbudgets zeigt sich RDNA4 hier eher von der enttäuschenden Seite.
13% mehr Transistoren als N21, 2,5x weniger Shader-Alus, nur ein Viertel des IFcaches, ein halbiertes Speicherinterface und das trotz zwei Node Shrinks und immerhin 72% des Verbrauchs eine RX 6800. Von der Performance kommt man auch nicht ansatzweise auf N21XL Niveau geschweige denn XT oder XTX. Das hätte ich bei dem Nodevorteil und dem Tarnsistorcount aber schon erwartet. Das einzige wo man in dem Vergleich vermutlich punkten kann ist mit der RT Leistung, aber das will ich erstmal sehen.
Wer auch immer hier neulich im Zen6-Fred behauptet hat dass RDNA4 doch besser wäre von der Flächeneffizienz als RDNA3.5 hat sich aber gewaltig geschnitten. Wenn man N44 und N33 als Referenz heranzieht ist die performance per transistor deutlich gesunken. Navi44 hat die gleiche Anzahl an Compute Units, IFcache und Speicherinterface, verbraucht aber das 2,23fache an Transistoren und taktet trotz 1,5 Nodeshrinks nur geringfügig höher. Schlechtere perf/transistor ist zwar bei neuen Architekturen nicht unüblich, auch bei NV gelegentlich so, aber der Sprung ist dennoch gewaltig. Blackwell dagegen ist umgekehrt - weniger Transistoren pro SM und trotzdem mehrperformance.
Transistoreffizienz ist aber eigentlich immer schlechter bei neuen Gens vs der alten. ZB Ada vs Ampere ist ein Trauerspiel. Oder RDNA3 vs RDNA2.
Es kommen neue HW Blöcke dazu die erstmal nicht direkt was bringen (aber sehr groß sein können - gerade bei RT ist das viel der Fall aber auch für Matrixoutput) und man baut die GPU um um sie dann zur Nextgen wieder besser skalieren zu können (Takt, mehr ILP Extraktion usw kostet alles Transistoren).
Interessant ist eigentlich immer der punch pro Transistor und pro Watt vs der neusten Geforce im gleichen Segment. Da hat Balckwell zwar kaum Fortschritte gemacht aber trotzdem kommt RDNA4 da nicht ganz ran. N44 hat gerade mal 5% weniger Transistoren als GB205 (also die 5070). Aber zum Glück für AMD können sie ihre Transistoren viel dichter packen, so dass sie von der Chipsize dann eher beim GB206 liegen. Aber immerhin 10% größer. Und trotzdem vram normiert wahrscheinlich nicht schneller.
Der_Korken
2025-05-24, 13:49:10
Performance pro Transistor ist doch ein ziemlich nutzloses Maß. Die Packdichte ist von 7 auf 5nm aus irgendeinem Grund viel stärker gestiegen, als die Density-Angaben von TSMC. N31 hatte mehr als 4x so viele Transistoren wie N33, obwohl es nur ein 3-facher N33 ist. N31 vs N21 hat bei gleicher Gesamtfläche doppelt so viele Transistoren und das trotz 50% größerem SI, zusätzlichen FanOut-Links, weniger IF-Cache, der sich bei N21 besonders gut packen ließ und keinen ganzen Nodesprung (die MCDs sind nur 6nm statt 5nm). Und trotzdem ist die Packdichte mit Faktor 2 stärker gestiegen als theoretisch angegeben. Das MCD von N31 hat sogar eine dreimal so hohe Packdichte wie N21! Bei Nvidia kann man zwischen Ampere und Ada ähnliches beobachten. Offensichtlich sind die Design-Rules bei 5nm ganz anders als bei vorigen Nodes, sodass Schaltungen jetzt mit mehr aber dafür dichter gepackten Transistoren implementiert werden.
N48 ist als ganzes kaum größer als der N31-GCD und sicherlich deutlich kleiner als ein monolithischer N31, aber dennoch fast genauso schnell, in RT sogar oft schneller. Dabei müsste man für einen fairen Vergleich sogar noch die Matrix-Cores rauswerfen. Ich sehe hier nicht, dass N48 bei der Flächeneffizienz gegenüber Big RDNA3 ein Rückschritt wäre. Bei Little RDNA3 (d.h. N33 und APUs) sieht es vielleicht anders aus, wobei ich mich da frage, ob eingesparten Register a) wirklich nennenswert Fläche sparen, b) nennenswert die Performance kosten und c) warum AMD auf die großen Registerfiles besteht, wenn sie ohne große Verlust eingespart werden könnten.
robbitop
2025-05-24, 14:54:05
Naja es sagt zumindest was über die uArch aus. Nutzlos um ein Produkt zu bewerten: ja.
N31 kann man nicht mitzählen weil der GCD den Kram der schlecht skaliert (Packdichte mit nodes) - also sram und I/O auf die MCDs ausgelagert hat.
Ggü RDNA3 bewertet RDNA4 niemand als Rückschritt. Der Vorredner hat RDNA2 als Referenz genutzt
GerryB
2025-05-24, 15:17:58
c) warum AMD auf die großen Registerfiles besteht, wenn sie ohne große Verlust eingespart werden könnten.
???
chips&cheese hat doch gut erklärt das gerade die geänderten Register+L1/2 die mehr IPC ggü. RDNA3 bringen
und der etwas andere Ansatz bei RT
sprich die Pipeline hat gute Chancen kontinuierlicher arbeiten zu können
Der_Korken
2025-05-24, 15:46:10
Naja es sagt zumindest was über die uArch aus. Nutzlos um ein Produkt zu bewerten: ja.
N31 kann man nicht mitzählen weil der GCD den Kram der schlecht skaliert (Packdichte mit nodes) - also sram und I/O auf die MCDs ausgelagert hat.
Ggü RDNA3 bewertet RDNA4 niemand als Rückschritt. Der Vorredner hat RDNA2 als Referenz genutzt
Den direkten Vergleich gegen RDNA2 gewinnt RDNA3 aber in Form von N23 vs N33. 15% kleiner bei 15-20% mehr Perf/W. Ja, ist 6nm vs 7nm, aber trotzdem sicherlich keine Verschlechterung. Den Transistor-Count von N44 heranzuziehen, um ihn schlecht gegenüber N21 aussehen zu lassen, funktioniert halt nicht. Bei der Die-Size ist es Faktor 2,6 zwischen den beiden, d.h. selbst wenn man N21 optimistisch um Faktor 1,8 shrinken würde in N4 (was ich nicht glaube, weil PHYs und der große Cache zu schlecht skalieren), wäre er immer noch 45% größer als N44. Der Verbrauch ist eine andere Sache und hier wird die 9060XT relativ schlecht aussehen, aber das ist keine Eigenschaft von RDNA4, sondern von AMDs Entscheidung. Das Ding würde wahrscheinlich selbst mit 120W noch anständig laufen.
GerryB
2025-05-24, 22:53:02
Wenn Azor Recht hat, sollte die 8GB-9060xt genauso hoch takten wie die 16GB.
Da würde ich erwarten das 150W zu 180W nicht stimmen können.(frühe Versuche?)
160W bei der 16GB lt. AMD-Website schon eher
Die 150/182 Watt (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/News/Vorstellung-und-technische-Daten-1473168/galerie/4016771/) sind ja gerade erst genannt worden, das kommt genau so (jeweils Baseline-Spec – mehr geht immer). Ergo nutzen beide Karten den Vollausbau, aber die 16-GiB-Variante wird höher takten – weil sie mehr saufen darf. Das trifft genau so bereits auf die RX 7600 vs. XT zu. Möglicherweise kriegt die 9060 XT 16GB auch den besseren Bin, also Navi 44 XTX.
MfG
Raff
GerryB
2025-05-26, 06:13:52
angenommen SOC+Vram=47W
die 8GB Variante dann 7W weniger= 40W
heisst bereinigt
8GB mit 103W auf dem Core und die 16GB mit 135W auf dem Core
das sind also ca. 31% mehr !!!
(wieviel soll dann die 16GB-XTX höher takten als die 8GB-XT, ... >15%)
ohne jetzt die Verteilung der Nebengeräusche zu berücksichtigen
(Lü.+Spawas sollten bei 150W ebenfalls effizienter arbeiten)
mczak
2025-05-26, 13:48:42
das sind also ca. 31% mehr !!!
(wieviel soll dann die 16GB-XTX höher takten als die 8GB-XT, ... >15%)
Da selbst bei 150W TBP der Chip weit über dem Effizienzmaximum betrieben wird dürfte das genau so wie bei der RX 7600 XT so gut wie nichts bringen. Gut wenn die Watt-Angaben stimmen ist der Unterschied etwas grösser als bei der RX 7600 / XT, aber da brachte das im Durchschnitt keine 5% beim GPU-Takt (mit entsprechend noch tieferen Gewinnen bei den Benchmarks, natürlich sofern nicht durch Speichermenge limitiert). IMHO wird der Taktunterschied auch diesmal deutlich unter 10% bleiben.
GerryB
2025-05-26, 20:22:39
Jein,
so einen hohen Mehrtakt>10% bei der 16GB kann ich mir auch nicht vorstellen und deswegen bezweifel ich,
ob die realen Messungen dann auch solche Wattzahlen ergeben.
Ob man den SOC+Vram der 16GB mit mehr Volt betreibt, um höher zu takten, ... wäre ne Erklärung.
(dito IF-Cache)
Agent117
2025-05-27, 00:35:50
Widerspricht auch der Aussage von Frank Azor "If 8GB isn't right for you then there's 16GB. Same GPU, no compromise, just memory options.", siehe u.a. Hauptseite.
Und 32 Watt mehr (150 vs. 182) kann der Speicher alleine nicht verbrauchen.
Zur generellen erwartbaren Leistungsfähigkeit der 9060XT 16 GB gegenüber der 5060 Ti 16 GB habe ich mal als Referenz den Vergleich 9070 XT vs. 5070 Ti herangezogen.
5070 Ti: 2750 Mhz im Schnitt mit 4480 SP
9070 XT: 2940 Mhz im Schnitt mit 4096 SP
5060 Ti: 2685 gemäß Launchreviews auf Hauptseite.
Für die 9060XT gibt AMD mindestens 200 Mhz mehr Gametakt an.
Die Rohleistung ins Verhältnis gesetzt:
4480 * 2750 / 4096 / 2940 = 1,023
2304 * 2685 / (2940 + 200) / 2048 = 0,962
Verhältnis der Speichertransferrate ist gleich.
Das heißt gegenüber dem Vergleich 9070XT vs. 5070 Ti stünde die 9060 XT um 1,023 / 0,962 = 1,063, also um gut 6 % besser da.
Die 9070 XT hat wiederum ausgehend vom 4K Index einen Nachteil von 3,5 % gegenüber der 5070 Ti. Demnach wäre die 9060 XT verienfacht sogar 6 -3,5 = 2,5 % schneller.
Warum ist dann die meist verbreitete Einschätzung 5060 < 9060 XT < 5060 Ti ? Habe ich etwas außer Acht gelassen ? Vielleicht das verglichen etwas schwächere Frontend der 9060 XT (2 vs. 3 SE ggü. 4 vs. 5) ? Aber soviel macht das doch nicht aus oder ?
GerryB
2025-05-27, 05:42:09
Die 9070xt hat lt. TPU 10% mehr TFLOPs als die 5070Ti.
Die 9060xt hat nur 7,5% mehr TFLOPs als die 5060Ti,
sollte daher noch etwas weiter zurückliegen.
wobei halt auch die Watt ne Rolle spielen, mal schauen
ob die 9060xt dann permanent mit eff.3200MHz+ läuft.
(wenn die 182W stimmen)
k.A. wie hoch der tatsächliche eff. Boosttakt bei der 5060Ti@1440p ist,
sicherlich höher als bei TPU, wo nur die 2572MHz in den TFLOPs drin sind.
(2685 i.M. klingt auch niedrig, gilt nur für 4k)
Skaliert Game XYZ überhaupt linear mit ShaderTakt oder bremsen
dann schon andere Bottlenecks, insbesondere bei RDNA4?
Im TS wird die 9060xt vllt. ganz gut sein, aber Games sind anders.
(im TSE kann auch die 9070xt ihre große Rohleistung z.T. nutzen, ist aber keine 10% >Ti)
Da es keine MBA-Variante gibt, könnten die ~180 Watt auch auf dicke Customs bezogen sein. Die Tests werden darüber Aufschluss geben. :wink:
MfG
Raff
davidzo
2025-05-27, 13:00:40
Da es keine MBA-Variante gibt, könnten die ~180 Watt auch auf dicke Customs bezogen sein. Die Tests werden darüber Aufschluss geben. :wink:
MfG
Raff
Ich denke auch das ist die Auflösung.
Navi44 scheint für 150Watt designt zu sein und damit sollten die von AMD angegebenen 2530mhz Gameclock und sporadischen 3130mhz Boost auch erreichbar sein.
Bei der 8GB Variante reicht eben das 150Watt Limit, da man damit bereits die 5060 schlägt und man mit mehr Watt nur ineffizienter als Nvidia dasteht.
Und für die 16GB Variante nennt AMD selbst ja 160Watt als typische Leistungsaufnahme. Ich denke also diese 10Watt sind eher der reale Unterschied zwischen 8 und 16GB. Das beinhaltet sowohl das mehr an Verbrauch für den page-refresh der doppelten Speichermodule (joule/bit sind gleich) als auch den Verbrauchsunterschied der anliegt weil der 8GB Karte gelegentlich der VRAM ausgeht und die Compute Ressourcen dann nicht mehr voll ausgelastet werden.
Die 182 Watt beziehen sich anscheinend auf die OC Karten und sind möglicherweise ein echtes Maximum seitens AMD.
Richtig Sinn macht OC aber eben erst bei dem 16GB Modell, weshalb man wohl weniger 8GB Karten mit 182Watt finden wird.
Interessant ist ja dass auch die am höchsten taktenden OC Modelle wie etwa die Steel Legend mit 3.320 MHz (+190 MHz) mit 182Watt TBP spezifiziert sind. Die Challenger aus gleichem Hause eben mit nur 3.290 Mhz aber nur 170 Watt. https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/News/Asrock-Steel-Legend-mit-3320-MHz-1473257/
Ein Hinweis ist auch dass bei den 8GB Karten zwar auch welche mit OC im Namen gibt, aber anders als bei der 16GB version die Hersteller aber nicht konkret über Boost- und Gameclocks reden sondern gerne mal "TBD" in die SPezifikationen schreiben. Das könnte daran liegen dass diese eben meist mit den vorgegebenen 150Watt laufen.
Interessanterweise soll die Acer Nitro OC 8GB aber ebenfalls mit 182Watt laufen. Ein hartes Limit seitens AMD scheinen die 150W also nicht zu sein. Es sei denn das ist ein copy/paste Fehler.
davidzo
2025-05-27, 19:55:20
Die 9070xt hat lt. TPU 10% mehr TFLOPs als die 5070Ti.
Die 9060xt hat nur 7,5% mehr TFLOPs als die 5060Ti,
sollte daher noch etwas weiter zurückliegen.
TPUs Werte für die 5070ti sind mit 2452 MHz Boostclock errechnet wobei die meisten 5070tis eher mit durchschnittlich 2,75Ghz laufen.
Die TPU tflops der 9070XT wurden mit 2970mhz Boostclock berechnet, sie läuft aber tatsächlich im Schnit nur mit 2,88-2,90Ghz im Schnitt.
Wenn man die Tflops zu Nvidia vergleichen will sollte man eher den Gameclock nehmen, denn der ist bei AMD vergleichbar mit Nvidias Boostclock-Angaben.
Mal sehen wie die echten Taktraten bei Navi44 ausfallen, aber ich könnte mir vorstellen dass N44 deutlicher über 3Ghz bleibt als Navi48, da die nur 32CUs weniger durch das Powwerbudget ausgebremst werden.
GerryB
2025-05-27, 20:27:25
TPUs Werte für die 5070ti sind mit 2452 MHz Boostclock errechnet wobei die meisten 5070tis eher mit durchschnittlich 2,75Ghz laufen.
Die TPU tflops der 9070XT wurden mit 2970mhz Boostclock berechnet, sie läuft aber tatsächlich im Schnit nur mit 2,88-2,90Ghz im Schnitt.
OK,
mit nem 317W-Modell passt es dann vllt. besser
dildo4u
2025-05-28, 15:17:09
Geekbench Werte extrem schwach aber nicht relevant für Games?
https://videocardz.com/newz/amd-radeon-rx-9060-xt-appears-in-first-synthetic-benchmarks-at-least-25-faster-than-rx-7600-xt
Disco_STFU
2025-05-28, 15:31:31
Treiber?
dildo4u
2025-05-28, 15:37:40
Treiber?
Reviewer sollten Treiber und Karten haben.
Der_Korken
2025-05-28, 15:48:17
Laut dem Test ist eine 7800XT auch gleichauf mit der 9070, die in Spielen aber 30% schneller ist. Dürfte nichts aussagen der Test.
GerryB
2025-05-28, 19:23:14
beim Geekbench springt nichtmal der Lüfter an
die Last wird sehr niedrig= theoretischer Natur sein
wenn überhaupt ist vllt. das Verhältnis zur doppelt so großen 9070xt interessant,
= 60...70% in Games ?
btw.
Tom´s Hardware schreibt
the RX 9060 XT features a 3.13 GHz boost clock speed, extendable via manual or factory overclocking, along with a 150W/160W Total Board Power (TBP)
dildo4u
2025-05-28, 19:27:03
Ist das nicht was man erwarten kann 6800 Performance?
Die Karte war immer massiv schneller als RDNA3 Low End.
GerryB
2025-05-28, 19:32:29
Gut, ich hatte den Vram noch OCed.
aber ja, die 6800 ist eigentlich nicht schlechter als ne 7700xt, je nach W, die ich drauf gebe
(man darf naürlich nicht vergessen ein bisschen mehr Takt freizugeben und gut UVen)
Geekbench
Den Schrott einfach nicht beachten, "totally inaccurate".
MfG
Raff
GerryB
2025-05-29, 04:49:49
Hast Du eigentlich schon ne 90xx rumliegen?
Treiber gibts wohl auch schon:
https://forums.guru3d.com/threads/amd-software-adrenalin-25-6-1.456533/
der Treiber sollte auch auf allen anderen Grakas laufen
btw.
bei Yeston gibts "ausversehen" deutliche Unterschiede im Takt zw. der 8GB und der 16GB-9060xt
Videocardz weiss nicht, obs Platzhalter sind
(würde 182W für OC-Customs erklären)
dargo
2025-05-31, 06:47:54
Die "RX 9800XT" mit 32GB GDDR7 und =>450W ist offenbar noch nicht vom Tisch, soll wohl die RTX 5080(S) angreifen.
HkUEijON-88
GerryB
2025-05-31, 07:15:50
256bit mit beidseitigem Vram ?
Wennschon, dann bitte auf die 3GB-Module warten und ne 24GB bringen.
die Quelle ist eeh nicht die Beste
Was ich mir vorstellen könnte ist ne W9800xt PRO.
Dort würde sich so ein großer Chip bezahlt machen.
(falls man die Restriktionen bezgl. China einhält)
dildo4u
2025-05-31, 07:29:38
Wenn sie 1000€ nehmen wollen muss sie imo mit 32GB kommen da die Super 24GB haben wird.
Erst jetzt taucht die 7800XT in Steam auf die 7900XTX schon deutlich länger AMD scheint kein Problem zu haben Karten für diese Preise abzusetzen.
7900XTX ist die Best verkaufte RDNA3 GPU?
https://store.steampowered.com/hwsurvey/videocard/
GerryB
2025-05-31, 07:36:17
China-Schmarrn wie immer
6750GRE = ziemlich neu aber stark vertreten !?
10GB+12GB = 0,4%
dargo
2025-05-31, 07:47:18
Du kannst als Unternehmer den riesigen Chinamarkt nicht einfach ignorieren, dafür leben dort zu viele Menschen potenzielle Kunden.
GerryB
2025-05-31, 08:11:17
Das meinte ich nicht, ... eher, das die Verteilung stark nach Internet-Cafes klingt.
(übertragbar auf andere Modelle?)
dargo
2025-05-31, 08:13:37
Dem Unternehmen ist es völlig latte wo seine Grafikkarte eingesetzt wird. Hauptsache genug Stückzahlen abgesetzt.
GerryB
2025-05-31, 08:31:40
Das Internet-Cafe Problem ist = Jeder der sich einloggt, zählt als anderer PC.
btw.
Wenn ich über Steam/Hilfe/Systeminformation vgl. gehe, zeigt er mir auch Vulkan+DX-systeme an,
wo dann im April noch die 6750 GRE und z.Bsp. auch die 7800xt fehlt.
(muss ich Das verstehen?, nein, zählt die DB automatisch ohne Umfrage die User, die mal@vlk gespielt haben)
basix
2025-05-31, 10:04:18
Die "RX 9800XT" mit 32GB GDDR7 und =>450W ist offenbar noch nicht vom Tisch, soll wohl die RTX 5080(S) angreifen.
https://youtu.be/HkUEijON-88
Ziemlich unglaubwürdig. 16/24 GByte würden besser passen. Er spricht im Video allerdings davon, dass es 16/24/32GB sein könnten.
Aber ich bezweifle, dass N48 GDDR7 unterstützt. GDDR7 nutzt PAM3 und nicht NRZ. Das benötigt PHY, welche das auch unterstützen. Und 3.7 GHz auf N48? Ebenfalls ziemlich unwahrscheinlich. MLID spricht allerdings davon, dass man auf N4X wechseln könnte. Das wäre denkbar, da nicht wirklich ein neuer Tapeout. N3-Derivate werden es aber sicher nicht werden.
Mit im Schnitt 1.28x Performancesteigerung (nach MLID) wäre man knapp über einer 5080. Für eine 5080S wird es aber knapp werden.
Aber hey, kann AMD uns mit einer GDDR7 Variante überraschen, welche Nvidia Karten auf Augenhöhe begegnet: Nehme ich sehr gerne!
The_Invisible
2025-05-31, 10:35:05
Das meinte ich nicht, ... eher, das die Verteilung stark nach Internet-Cafes klingt.
(übertragbar auf andere Modelle?)
7900xtx in Internetcafés? Dort sind die ganzen 60er beliebt. Doppelt gezählt wird nix da eine Hardware ID generiert wird. Sieht man sich gaming Umsatz Nvidia vs AMD an passt es auch zu den Steam Charts. Peddie Research sagt das gleiche.
Ka was du da rausinterpretieren willst...
OgrEGT
2025-05-31, 11:29:20
Die "RX 9800XT" mit 32GB GDDR7 und =>450W ist offenbar noch nicht vom Tisch, soll wohl die RTX 5080(S) angreifen.
https://youtu.be/HkUEijON-88
Interessant... aber irgendwie auch unwahrscheinlich, dass N48 leistungsmäßig mit GPU Takt und VRAM Bandbreite so hoch skaliert...
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-oc-uv-test.91714/seite-2
Durch den IF$ benötigt N48 derzeit ja auch nur GDDR6... Da wäre es mMn besser gewesen einen weiteren und breiteren RDNA4 Chip zu bringen, der sich noch eher im SweetSpot betreiben lässt...
dildo4u
2025-05-31, 12:18:36
RDNA4 sollte davon abkommen das man komplexere Chips für die selbe Performance nutzen muss.
Navi 48 hat fast 5080 Größe ein möglicher High-End Chip würde dann zwischen 5080 und 5090 sitzen aber nur 5080 Performance haben.
dargo
2025-05-31, 12:42:34
Halte ich für Unsinn. Schon ein 400mm² N48 würde mit GDDR7 die RTX 5080 erreichen. Und das ist noch weit von Highend entfernt. Highend fängt bei mir erst bei >500mm² an.
dildo4u
2025-05-31, 13:07:01
NV hat bewusst massiv Luft gelassen für den Super Refresh.
Wird interessant ob AMD 3nm ziehen muss um die spekulierten Takt zu erreichen, NV wird das imo nicht tun.
https://i.ibb.co/2YFsgWnK/Screenshot-2025-05-31-130809.png (https://imgbb.com/)
https://www.techpowerup.com/review/gigabyte-geforce-rtx-5080-gaming-oc/43.html
Der_Korken
2025-05-31, 13:07:17
Ich glaube nicht, dass man aus der N48 noch so viel Leistung rausholen kann, dass man der 5080 gefährlich wird. GDDR7 bringt maximal 10%, da die GPU nicht wirklich am Speicherdurchsatz hängt. Und OC wurde bereits getestet: Die 340W-Modelle mit 10% PT und maximalem UV sind 8% schneller als die Referenz mit 304W, die man auch noch UVen könnte.
ChaosTM
2025-05-31, 13:13:28
Konkurrenz, wenn auch nicht auf Augenhöhe mit dem Flaggschiff -> her damit.
Mit 32GB und einer Leistung deutlich vor der "5080er"er könnte man NV ev. nötigen eine richtige 5080er zu bringen. Sprich eine Karte mit stärker abgespeckterem GB202. (add.: not happening)
Eine 24GB Version der derzeitigen "5080er" wäre dann aber garantiert.
Ex3cut3r
2025-05-31, 14:11:33
Eine 5080 Ti mit GB202 "light" und 384-Bit Interface sowie 24GB VRAM, halte ich durchaus für realistisch. Die Lücke zwischen 5090 und 5080 ist derzeit viel zu groß.
Bei Ada gab es so eine Karte aber nicht. Die letze 80 Ti, war noch aus Ampere Zeiten die 3080 Ti. Die auch nur 5-10% langsamer war als die 3090.
Soll AMD doch eine 9800XT und 500W bringen. Fraglich aber, ob sich das rentiert.
Nakai
2025-05-31, 14:19:57
Die sollen einfach einen n4x mit 80-96 CUs, doppelten L3-Cache und GDDR7 bringen. Natürlich noch 256 Bit SI. Das wäre sogar noch mit dem bestehenden Prozess unter 450mm2 möglich.
Das wird mMn kein neuer Chip sondern maximal ne neue Revision. Dass N48 von Hause aus auch GDDR7 kann ist ja sehr wahrscheinlich. Man wird die über die Monate die ausgesiebt haben, die entsprechende Takte schaffen und das Ganze mit 420W und GDDR7 paaren, damit kann man 20% rausholen sicherlich, das passt dann schon als eine Produktkategorie höher.
bbott
2025-05-31, 14:46:49
256bit mit beidseitigem Vram ?
Wennschon, dann bitte auf die 3GB-Module warten und ne 24GB bringen.
die Quelle ist eeh nicht die Beste
Was ich mir vorstellen könnte ist ne W9800xt PRO.
Dort würde sich so ein großer Chip bezahlt machen.
(falls man die Restriktionen bezgl. China einhält)
Halte ich bei GDDR6 für unwahrscheinlich. Falls der Controller GDDR7 unterstützt dann wäre es eine Option.
basix
2025-06-01, 10:05:30
Das wird mMn kein neuer Chip sondern maximal ne neue Revision. Dass N48 von Hause aus auch GDDR7 kann ist ja sehr wahrscheinlich. Man wird die über die Monate die ausgesiebt haben, die entsprechende Takte schaffen und das Ganze mit 420W und GDDR7 paaren, damit kann man 20% rausholen sicherlich, das passt dann schon als eine Produktkategorie höher.
Ja, maximal eine Revision in N4X halte ich für denkbar. Ein neuer Chip ist mMn ausgeschlossen. Die grosse Frage ist GDDR7. Wenn das die bestehenden IMC und PHY bereits können, spricht nicht viel für eine Revision. Wird GDDR7 nicht unterstützt, ist der Aufwand deutlich grösser. Aber vielleicht riecht AMD hier eine Chance und investiert hier etwas mehr.
Dann noch als Alternative zu GDDR7:
Samsung bietet GDDR6 bis 24Gbps an. Man könnte auch den nehmen. Dann machen 32 GByte auch wieder deutlich mehr Sinn, da es von GDDR6 nur 16Gbit Chips gibt (also 16 oder 32 GByte an 256bit SI). Eine Lösung mit GDDR7 wäre allerdings eleganter. 24GByte wären für solch eine Karte sinnvoller und es würde 48GByte für die Profi/AI/ML-Karten erlauben.
Es wär schon schräg, wenn der Chip kein GDDR7 könnte. Ich denke, das sollte relativ sicher sein. Ne neue Rev macht man zur Fehlerkorrektur und zur Taktoptimierung, wenn man einen neuen Speichercontroller einbauen müsste wär das ein neuer Chip.
24GT/s GDDR6 ist ein Phantom und existiert nur auf dem Papier. Zudem sieht man ja wie heiß 20GT/s schon werden, das sollte ziemlich ausgeschlossen sein.
Den 20GT/s GDDR6 hat AMD vor allem deshalb ausgewählt, weil die sicher schon gute Lieferbedingungen für N3x dafür hatten, das war dann einfach naheliegend und man ist nicht in Engpässe für GDDR7 reingelaufen.
dargo
2025-06-01, 10:43:08
Eine 5080 Ti mit GB202 "light" und 384-Bit Interface sowie 24GB VRAM, halte ich durchaus für realistisch.
Ich nicht. Schon RTX 5090 ist GB202 "light". Noch mehr "light", dafür ist der Chip viel zu groß und Lederjacke zu "geizig" so viel Die Size zu verschwenden. Für diesen riesen Chip bekommt Lederjäckchen viel mehr Marge außerhalb vom Gaming.
Vor allem ist der Chip auch einfach nicht gut und dürfte noch ineffizienter sein als sowieso schon.
dargo
2025-06-01, 12:09:49
Du meinst bezüglich der Skalierung? Ja, das stimmt.
OgrEGT
2025-06-01, 12:14:46
Vor allem wer soll die 5080S kaufen? Das Ding hätte doch dann auch wieder "nur" 4090 Leistung... wem die nicht reicht der hat doch sicherlich schon eine 5090...
PT ist halt Performance mäßig noch immer zu teuer... sieht man ja am irrsinnig großen Abgebot an PT Games bzw an den gerade neu erschienenen Games/wie F1 2025 wie toll das selbst auf einer 5090 mit 600W läuft...
dildo4u
2025-06-01, 12:43:08
Was für eine Frage kaum einer hat 4090 unter 2k gekauft.
Du bekommst die dicken Chips nicht mher für Normale Preise da die als Workstation GPU mit deutlich mehr Vram verkauft werden können.
OgrEGT
2025-06-01, 12:45:46
Was für eine Frage kaum einer hat 4090 unter 2k gekauft.
Du bekommst die dicken Chips nicht mher für Normale Preise da die als Workstation GPU mit deutlich mehr Vram verkauft werden können.
Als ob auf dem Preisniveau 100 oder 200 Eur hin oder her relevant wären... sieht man doch auch jetzt bei der 5090 zum Launch...
G3cko
2025-06-01, 14:26:26
Da kommt nix mehr über der 9070XT. RDNA4 ist bereits tot für AMD. Mit dem Nachfolger gibt es einen großen Technologiebruch mit UDNA. AMD steckte nur das nötigste in RDNA4. FSR4 für PS5 Pro um an dieser Front aufzuschließen. Alle Ressourcen fließen aber bereits in UDNA. Microsoft hat zusammen mit Nvidia einen neuen Standard geschaffen auf Basis deren flexiblen TensoreCores. Daher auch bei Nvidia wird es einen großen Sprung geben. Nvidia hat ja im Prinzip auch nur das notwendigste mit der 5xxx Serie abgeliefert. Vermutlich wird die Rechenleistung auf Seiten des KI Beschleunigers der hybriden UDNA Architektur und deren Konsolen Derivate, der Art stark ansteigen, dass auch ältere Nvidia Grafikkarten den Anforderungen nicht gerecht werden. Und auch AMD wird mit UDNA neutrales Rendering auf Augenhöhe umsetzen. Vor diesem Hintergrund halte ich eine HighEnd RDNA4 Karte für unrealistisch.
w0mbat
2025-06-01, 14:42:08
Es wär schon schräg, wenn der Chip kein GDDR7 könnte. Ich denke, das sollte relativ sicher sein. Ne neue Rev macht man zur Fehlerkorrektur und zur Taktoptimierung, wenn man einen neuen Speichercontroller einbauen müsste wär das ein neuer Chip.
24GT/s GDDR6 ist ein Phantom und existiert nur auf dem Papier. Zudem sieht man ja wie heiß 20GT/s schon werden, das sollte ziemlich ausgeschlossen sein.
Den 20GT/s GDDR6 hat AMD vor allem deshalb ausgewählt, weil die sicher schon gute Lieferbedingungen für N3x dafür hatten, das war dann einfach naheliegend und man ist nicht in Engpässe für GDDR7 reingelaufen.
Wieso wäre es schräg? Ich sehe das anders herum: wäre schräg, wenn er GDDR7 könnte.
Du designst ja eine GPU nicht einfach so, sondern da gibt es relativ konkrete Berechnungen welche Rechenleistung mit welcher Speicherbandbreite kombiniert wird. Dazu zählt bei AMD ja auch der IF$ und bei Nvidia die Größe des L2$.
Navi 48 ist ziemlich offensichtlich mit 20Gbps GDDR6 designed worden. GDDR7 bietet 50% mehr Bandbreite, das ist ein zu großer Unterschied. Entweder die 20Gbps + 64MB IF$ reichen aus um die 4SE zu füttern, oder nicht.
Ich könnte mir nur vorstellen, dass man GDDR7-Support fürs Testen implementiert hat und für eine mögliche "KI-Karte" mit bis zu 48GB VRAM und sehr viel Speicherbandbreite. Aber für eine "gaming" Navi 48 eher nicht.
32Gbps GDDR7 würde für eine 6SE RDNA4 GPU ausreichen. Das wäre für 4SE total überdimensioniert.
robbitop
2025-06-01, 14:46:46
Naja wäre ja nicht das erste mal dass eine solche IP (häufig lizenzierte IP Blöcke) mehrere Speichertypen kann.
mczak
2025-06-01, 15:17:44
Wieso wäre es schräg? Ich sehe das anders herum: wäre schräg, wenn er GDDR7 könnte.
Du designst ja eine GPU nicht einfach so, sondern da gibt es relativ konkrete Berechnungen welche Rechenleistung mit welcher Speicherbandbreite kombiniert wird. Dazu zählt bei AMD ja auch der IF$ und bei Nvidia die Größe des L2$.
Für so unwahrscheinlich dass der gddr7 kann halte ich das nicht. Wenn eben zum Zeitpunkt als man den Chip designt hat nicht klar war ob gddr7 zum Releasezeitpunkt wirklich vernünftig verfügbar wäre. Man hält sich dann quasi alle Optionen offen - der Chip wird so designt dass er auch mit gddr6 vernünftig läuft, und bestenfalls liefert man dann die Karten mit gddr7 aus, das bringt dann natürlich trotzdem noch etwas Performance.
So nach den Die-Shots von nvidia zu urteilen scheint die gddr7-Unterstützung nicht wirklich Fläche zu kosten, von daher wäre das schon möglich. Im Uebrigen sehe ich auch bei Blackwell aufgrund der Benchmarks (im Vergleich zu Ada) keine Hinweise darauf dass die Chips wirklich zwingend gddr7 benötigen um vernünftig zu laufen - aber klar bei den meisten Karten (ausser im unteren Segment) müsste man dann ansonsten weiterhin gddr6x verwenden oder es wäre sogar ein Rückschritt bei der Bandbreite.
Naja wäre ja nicht das erste mal dass eine solche IP (häufig lizenzierte IP Blöcke) mehrere Speichertypen kann.
Hä? Die Geforce50 können auch GDDR6.
w0mbat
2025-06-01, 15:50:59
Für so unwahrscheinlich dass der gddr7 kann halte ich das nicht. Wenn eben zum Zeitpunkt als man den Chip designt hat nicht klar war ob gddr7 zum Releasezeitpunkt wirklich vernünftig verfügbar wäre. Man hält sich dann quasi alle Optionen offen - der Chip wird so designt dass er auch mit gddr6 vernünftig läuft, und bestenfalls liefert man dann die Karten mit gddr7 aus, das bringt dann natürlich trotzdem noch etwas Performance.
So nach den Die-Shots von nvidia zu urteilen scheint die gddr7-Unterstützung nicht wirklich Fläche zu kosten, von daher wäre das schon möglich. Im Uebrigen sehe ich auch bei Blackwell aufgrund der Benchmarks (im Vergleich zu Ada) keine Hinweise darauf dass die Chips wirklich zwingend gddr7 benötigen um vernünftig zu laufen - aber klar bei den meisten Karten (ausser im unteren Segment) müsste man dann ansonsten weiterhin gddr6x verwenden oder es wäre sogar ein Rückschritt bei der Bandbreite.
Wie gesagt, GDDR7 liefert 50% mehr Bandbreite. Das ist ein extremer Unterschied. Wenn Navi 48 mit GDDR7 geplant gewesen wäre, würde man mit GDDR6 eine extrem schlechte Performance bekommen. Oder anders herum: wenn Navi 48 mit GDDR6 geplant wurde (was sicher ist), würde GDDR7 nicht wirklich viel bringen.
Wenn die MEM PHYs schon PAM3 können, dann nur, weil AMD Erfahrung sammeln will. Also meiner Meinung nach.
robbitop
2025-06-01, 17:50:58
Hä? Die Geforce50 können auch GDDR6.
Genau das habe ich doch gesagt. Wenn rdna4 auch gddr7 (zusätzlich zu gddr6) unterstützen sollte (was ja angezweifelt wurde) wäre es längst nicht das erste Mal. Will sagen: es gibt etliche Präzedenzfälle für die Unterstützung mehrere Speicherstandards und entsprechend ist der Zweifel fürchtet nicht 100%ig nachvollziehbar.
robbitop
2025-06-01, 17:53:47
Wie gesagt, GDDR7 liefert 50% mehr Bandbreite. Das ist ein extremer Unterschied. Wenn Navi 48 mit GDDR7 geplant gewesen wäre, würde man mit GDDR6 eine extrem schlechte Performance bekommen. Oder anders herum: wenn Navi 48 mit GDDR6 geplant wurde (was sicher ist), würde GDDR7 nicht wirklich viel bringen.
Wenn die MEM PHYs schon PAM3 können, dann nur, weil AMD Erfahrung sammeln will. Also meiner Meinung nach.
Das ist ein gutes Argument. Aber ggf hat man sich schon länger überlegt dass man das für einen refresh schonmal haben will es aber nicht unbedingt vorher braucht.
Ich meine Blackwell braucht ggdr6 IMO auch kaum. Performancenormiert zu Ada hat man viel viel mehr Bandbreite jetzt.
Aber stimmt schon: super wahrscheinlich ist es anhand der Gegebenheiten nicht. Aber auch nicht ganz ausgeschlossen. Und wenn man überlegt wie viele curveballs es in den letzten Jahren gegeben hat in dem Bereich…
Genau das habe ich doch gesagt. Wenn rdna4 auch gddr7 (zusätzlich zu gddr6) unterstützen sollte (was ja angezweifelt wurde) wäre es längst nicht das erste Mal. Will sagen: es gibt etliche Präzedenzfälle für die Unterstützung mehrere Speicherstandards und entsprechend ist der Zweifel fürchtet nicht 100%ig nachvollziehbar.
Sry, zu flüchtig gewesen ;).
basix
2025-06-01, 20:42:37
Es ist jedoch einfacher von GDDR7 (PAM3) auf GDDR6 (NRZ) zu gehen anstatt umgekerht. GDDR7 zu GDDR6 ist einfach, da die Pin-Speeds faktisch gleich sind, aber man nur 2 anstatt 3 Spannungslevel decodieren muss.
Bei GDDR6 zu GDDR7 müssen die PHY nun überdimensionert / overengineered angelegt sein, damit das ohne Redesign klappt. Kann so sein, dass das AMD bei N48 so gemacht hat. Aber garantiert ist das sicher nicht.
N48 ist so neu, ich würd mich echt wundern, wenn da keine GDDR7-IP drin ist. Das ist halt genau wie bei NV. Die hätten ja auch Produkte mit GDDR6 bringen können, haben aber offenbar einen bescheuerten Exklusivdeal mit Samsung gemacht... AMD war frei in der Entscheidung und hat einfach die für N31 sowieso auf Halde liegenden GDDR6-Module verbaut und fertig. Auch die Partner konnten ihre alte PCB-Technologie schlichtweg weiterverwenden, die nehmen sogar die gleichen Powerstages und VRM-Controller für N4x...
Ist alles irrelevant, welche IP komplizierter ist. AMD hat die sicherlich genau wie NV lizenziert bei Synopsis oder sonst wem und implemeniert - fertig.
OgrEGT
2025-06-02, 06:19:01
https://videocardz.com/newz/amd-radeon-rx-9060-xt-leaks-ahead-of-launch-3-47ghz-oc-matching-rx-7700-xt-performance
AMD Radeon RX 9060 XT leaks ahead of launch: 3.47GHz OC matching RX 7700 XT performance
3DMark TS 17069
3.47GHz 199W
horn 12
2025-06-02, 09:43:50
Nettes Kärtchen mit 16 GB Ram für Max. 350 bis 370 Euro allemal zu empfehlen!
basix
2025-06-02, 11:24:28
Bei 350$ MSRP ist das ein wenig utopisch ;)
Anhand den 9070ern dürfte es auf wohl 399 Euro MSRP hinauslaufen.
dildo4u
2025-06-02, 11:31:37
Der Euro ist gerade sehr Stark 5060 sind z.b 299$/€ hoffentlich ein gutes Zeichen.
https://www.mindfactory.de/product_info.php/8GB-Palit-GeForce-RTX-5060-Dual-Aktiv-PCIe-5-0-x16--x8--1xHDMI-2-1b-3xD_1616919.html
Jo, 369 Euro sind absolut greifbar. :)
MfG
Raff
dildo4u
2025-06-02, 11:46:07
Gibt vermutlich auch deutlich mehr Sparkarten in dem Segment das sieht wie eine RX580 aus :lol:
https://videocardz.com/newz/powercolor-confirms-reaper-rx-9060-xt-8gb-and-16gb-models-with-different-clocks
basix
2025-06-02, 11:46:59
Mit 150...180W wohl auch kein Wunder, dass die so aussieht ;) Die hatte ja auch 185W TDP. Die RX570/RX480 lagen bei 150W.
Fehlt nur noch der Preis von 229$ :D
dargo
2025-06-02, 14:07:27
Gibt vermutlich auch deutlich mehr Sparkarten in dem Segment das sieht wie eine RX580 aus :lol:
https://videocardz.com/newz/powercolor-confirms-reaper-rx-9060-xt-8gb-and-16gb-models-with-different-clocks
Endlich normale Grafikkarten und keine Ziegelsteine. :cool:
Was ist denn an großen Grafikarten schlecht (wenn man nicht gerade ein SSF System hat)? Stört sie das feng shui im Gehäuse?:tongue:
Je mehr Masse, desto besser/kühler sollte der Kühler zumindest in der Theorie doch sein. Gerade für dich, der sich über 10 RPM zu hohe Lüfterdrehzahl beschwert, sollte das doch vom Vorteil sein einen möglichst großen Kühler zu haben.
YeahBuoy!
2025-06-02, 15:45:18
In der Regel dient die "Ziegelhaftigkeit" aber eher als Argumentationshilfe für höhere Preise, ich habs auch gelegentlich gelesen das man sogar schon damit wirbt PTM 7950 (super Zeug, dürfte aber in der industriellen Abnahmemenge Centbeträge kosten) zu verwenden. Ob die Größe und der Aufwand der jeweiligen Kühllösungen aber den Aufpreis tatsächlich rechtfertigen kann sei jetzt mal dahin gestellt.
robbitop
2025-06-02, 15:53:15
Ich war auch total schockiert als ich meine 5070ti aus dem Kühler (für den Waküumbau) geschält habe. Das Ding ist winzig und sieht nicht gerade teuer / aufwändig aus. Echtes Geforce MX feeling für stolze 920 EUR (im April gekauft - mittlerweile sind die ~100 EUR "günstiger").
Ist schon crazy. Und für ausgewachsene Karten zahlt man 2000+ EUR X-D Einfach nur krank.
horn 12
2025-06-02, 16:26:31
Gute Preise wenn jene so kommen:
https://videocardz.com/newz/first-amd-radeon-rx-9060-xt-prices-show-up-at-retailers-ahead-of-launch
YeahBuoy!
2025-06-02, 16:27:32
NVs Nettogewinnmarge von ~55% muss ja erwirtschaftet werden und von irgendwas müssen die anderen darbenden Millionäre auf Taiwan ja auch leben :D. Hatte aber einen ähnlichen "Que?" Moment als ich meine 4070ti im SFF Rechner zum Kühlpastenwechsel aufgeschraubt habe.
@Videocardz Preise: Die 7700 XT kostet derzeit in Deutschland in der günstigsten Ausführung 394 €, die brauchbare der beiden 9060 XT Varianten würde nach der Liste bei irgendwas um 375€ liegen. Laut Leaks soll die Performance ja ähnlich sein, dann hätte die 9060 eigentlich nur die 4GB mehr RAM und FSR4 auf der Haben-Seite. Sicher nicht "nichts" aber auch in der Preislage kein Anlass vor Freude in die Luft zu gehen. Mal ganz abgesehen davon das ich den Profiscalpern unterstelle das die minimum 30-50€ für die ersten 2 Wochen noch mal drauf knallen.
dildo4u
2025-06-02, 16:52:37
AMD Angebot war Jahre lang Grütze in dem Bereich die 7600XT war langsamer als 6700XT für den selben Preis.
Erst die 9060XT gibt dir ein Performance und Vram Upgrade niemand hat 7700XT ernsthaft in Betracht gezogen.
horn 12
2025-06-02, 16:56:47
Wo stehen derzeit die Marktanzeile bei AMD
Sind von 11% sicherlich zu 20 bis gar 25 hochgegangen!
AMD Angebot war Jahre lang Grütze in dem Bereich die 7600XT war langsamer als 6700XT für den selben Preis.
Erst die 9060XT gibt dir ein Performance und Vram Upgrade niemand hat 7700XT ernsthaft in Betracht gezogen.
Die 7700 XT war weder Fisch noch Fleisch, die 7800 XT war das begehrenswerte Modell. Ein solches Schwestermodell fehlt nun - aber nicht nur das macht die 9060 XT 16GB zu einer tollen Grafikkarte. Mehr soon(tm). :wink:
MfG
Raff
The_Invisible
2025-06-02, 17:27:54
Wo stehen derzeit die Marktanzeile bei AMD
Sind von 11% sicherlich zu 20 bis gar 25 hochgegangen!
In den Forenbubbles vielleicht :freak:
Fast. ;) https://extreme.pcgameshardware.de/threads/welche-grafikkarte-nutzt-du-derzeit-zum-spielen-q1-2025.659647/
MfG
Raff
DrFreaK666
2025-06-02, 20:44:18
Kommt drauf an welchen Statistiken man glaubt
https://valid.x86.fr/statistics.html
Hier irgendwo bei 30%
https://i.postimg.cc/L8hc2wHt/Screenshot-20250602-204639-Brave.jpg (https://postimg.cc/v4FqvPxT)
Hätte aber lieber auch verlässlichere Werte
DrFreaK666
2025-06-03, 06:49:59
Erste Benchmarks
https://videocardz.com/newz/amd-radeon-rx-9060-xt-review-leak-beats-rtx-5060-ti-in-lows-loses-in-averages
dargo
2025-06-03, 07:10:15
Je mehr Masse, desto besser/kühler sollte der Kühler zumindest in der Theorie doch sein. Gerade für dich, der sich über 10 RPM zu hohe Lüfterdrehzahl beschwert, sollte das doch vom Vorteil sein einen möglichst großen Kühler zu haben.
Würden aktuelle High-End Grafikkarten nicht so viel saufen wären diese Ziegelsteine erst gar nicht nötig. :P Bei max. 180W braucht kein Mensch einen Klotz mit bsw. 340mm und 3 Slots. Sowas lässt sich auch mit wesentlich weniger Masse extrem leise kühlen.
In der Regel dient die "Ziegelhaftigkeit" aber eher als Argumentationshilfe für höhere Preise, ich habs auch gelegentlich gelesen das man sogar schon damit wirbt PTM 7950 (super Zeug, dürfte aber in der industriellen Abnahmemenge Centbeträge kosten) zu verwenden. Ob die Größe und der Aufwand der jeweiligen Kühllösungen aber den Aufpreis tatsächlich rechtfertigen kann sei jetzt mal dahin gestellt.
Vollkommen richtig. Diese Ziegelsteinlösungen verteuern die Hardware auch noch zusätzlich.
The_Invisible
2025-06-03, 07:53:09
Gibt doch eh Grafikkarten mit 180w, zwingt dich ja keiner eine >250w karte zu kaufen. Ein Rennsportauto säuft halt auch Mal bodenlos, regt sich auch keiner auf
E39Driver
2025-06-03, 08:30:48
Erste Benchmarks
https://videocardz.com/newz/amd-radeon-rx-9060-xt-review-leak-beats-rtx-5060-ti-in-lows-loses-in-averages
Also 4 - 6% hinter einer 5060TI 16GB. Wenn deutlich unter 400€ echt keine schlechte Karte.
Disco_STFU
2025-06-03, 10:36:28
9060XT Reviews dann morgen 15 Uhr?
dargo
2025-06-03, 12:14:32
Gibt doch eh Grafikkarten mit 180w, zwingt dich ja keiner eine >250w karte zu kaufen.
Stimmt... ich kaufe mir eine 180W Graka damit mir beim +10-20% Upgrade so richtig einer abgeht. :facepalm:
davidzo
2025-06-03, 12:28:57
Erste Benchmarks
https://videocardz.com/newz/amd-radeon-rx-9060-xt-review-leak-beats-rtx-5060-ti-in-lows-loses-in-averages
Wobei die Qualität der Messungen fragwürdig ist.
- Die 1% low Schwäche der Blackwell karten ist auffällig. 40% drop ist massiv, PCGH hat bei der 5060ti nur 17% gemessen, CB nur 25%.
- Lovelace ist bei eteknix von der 1% low Schwäche nicht betroffen, selbst die 8GB 4060ti nicht, welche in anderen Tests auch schneller ist als die 5060 bei 1080p und nicht langsamer.
40% niedrigere 1% Werte als Average würde ich eher bei einer 8Gb 5060ti erwarten wo der Speicher aus geht.
Hier ein paar mehr Detailfolien: https://www.reddit.com/r/radeon/comments/1l1jlyq/leaked_9060xt_benchmarks_10_game_average/
9060XT Reviews dann morgen 15 Uhr?
Ja, wahrscheinlich am 4. weil am 5. Verkaufsstart ist.
horn 12
2025-06-04, 10:05:11
Doch noch größerer N48 Chip und man bringt 9080XT 16GB bis gar eine 9090 XT 32GB
MLID Video
https://www.youtube.com/watch?v=vgzBNzCw0Rg&t=1871s
Ja, wahrscheinlich am 4. weil am 5. Verkaufsstart ist.
Ich empfehle eine ausgedehnte Nachmittagspause mit einem Eimer Popcorn. :D
MfG
Raff
Disco_STFU
2025-06-04, 11:14:49
:popcorn: Ready when you are! :cool:
Da es im Review-Faden (und generell im Web) sicher wieder untergeht, hier ein Stupser zu Spezial-Analysen. :)
PCI-Express 5.0 ×16 - oder doch nicht? (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a4)
Praxistest: RDNA 4 vs. RDNA 3 (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a5)
MfG
Raff
robbitop
2025-06-04, 15:18:33
Da es im Review-Faden (und generell im Web) sicher wieder untergeht, hier ein Stupser zu Spezial-Analysen. :)
PCI-Express 5.0 ×16 - oder doch nicht? (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a4)
Praxistest: RDNA 4 vs. RDNA 3 (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a5)
MfG
Raff
Wirklich krass was für ein Schritt nach vorn RDNA4 ist. Selbst in Raster ist der Anstieg schon sehr sehr ordentlich. In starken RT Loads (inkl PT) geht es dann richtig ab. Sehr geiler uArch Test, Raff :up:
Was mich überrascht ist, dass der Vorsprung ggü Battlemage in RT sogar zunimmt. Obwohl Battlemage einiges an FF für RT investiert hat. (laut dem Hauptartikel Rasterindex vs RTindex und laut dem CB Artikel)
edit: siehe
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13766771&postcount=9111
dildo4u
2025-06-04, 15:23:42
Wirklich krass was für ein Schritt nach vorn RDNA4 ist. Selbst in Raster ist der Anstieg schon sehr sehr ordentlich. In starken RT Loads (inkl PT) geht es dann richtig ab. Sehr geiler uArch Test, Raff :up:
Was mich überrascht ist, dass der Vorsprung ggü Battlemage in RT sogar zunimmt. Obwohl Battlemage einiges an FF für RT investiert hat. (laut dem Hauptartikel Rasterindex vs RTindex und laut dem CB Artikel)
RDNA3 fällt hier extrem negativ auf die B580 ist OK.
https://i.ibb.co/TqF9pH3H/Screenshot-2025-06-04-15-21-21-370-com-google-android-youtube.jpg (https://ibb.co/4g5h9jrj)
https://youtu.be/-LAH5vh-Cpg?si=kbbXwrhbFqhWlzbO
robbitop
2025-06-04, 15:27:38
Im Index sieht es deutlich schlechter für Battlemage aus. In CP77 sieht es tatsächlich ganz gut für B580 aus - auch bei den PCGH Benchmarks ist man ob nun in Raster oder RT nur 18-19% vorn mit N44 vs B580.
Angenommen CP77 ist ein Spiel wo B580 so gut läuft wie er kann und in anderen Spielen ist er noch durch Software behindert zeigt das immerhin dass AMDs RDNA4 RT HW nicht schlechter zu sein scheint als die von Intel trotz wesentlich weniger fixed function Hardware. Wohingegen bei Nvidia der Vorsprung ggü N44 mit RT zunimmt. +8% 5060ti vs 9060XT in Raster in CP77 vs +23% in RT. (laut PCGH Artikel)
Jedenfalls: chapeau AMD :up: Jetzt bitte RDNA4 in APUs einbauen und schön nachlegen mit UDNA ^^
edit: VRAM Größe ist bei B580 offenbar ein Problem. In 1080p schmilzt der Vorsprung bei RT vs Raster ganz ganz leicht siehe: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13766771&postcount=9111
dildo4u
2025-06-04, 15:30:34
Schätze PCGH nutzt oft Settings die 12GB sprengen.
Cyberpunk scheint noch in den Framebuffer zu passen.
robbitop
2025-06-04, 15:33:25
Stimmt - im 1080p Index sind es +35% im Raster vs 31% in RT (9060XT 16G vs B580 12G). Also ggf doch ganz ganz minimale Vorteile durch die RT HW im Schnitt. Hab die posts mal editiert
Da es im Review-Faden (und generell im Web) sicher wieder untergeht, hier ein Stupser zu Spezial-Analysen. :)
PCI-Express 5.0 ×16 - oder doch nicht? (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a4)
Praxistest: RDNA 4 vs. RDNA 3 (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a5)
MfG
RaffGefällt mir als Technik-Mensch. So werden Generationsunterschiede auf eine theoretische Art sichtbarer gemacht, auch wenn Vergleiche off-the-shelf vs. off-the-shelf praxisrelevanter sind. Ebenfalls schön und sonst in Tests weniger gesehen finde ich die prozentuale Auflösungsskalierung.
robbitop
2025-06-04, 15:49:24
Na dafür gibts doch den Haupttest. Obige Tests sind zusätzlich ;)
robbitop
2025-06-04, 15:57:55
Auch interessant im Raffazit Video: Taktnormiert skaliert N48 nahezu linear mit den WGPs/CUs zu N44. Das war ja früher gern eher bei ~0,7 statt ~1.
GerryB
2025-06-04, 16:00:35
Raff hat wenigstens hingeschrieben, das pcgh mit 160W testet.
Das werden u.U. nicht alle Reviewer kenntlich machen, ... muss Leo aufpassen.
(evtl. erkennt man bei der Reviewübersicht dann die Ausreisser und hakt nochmal nach)
zumindestens ist jetzt das Mysterium mit den 8GB 150W zu 16GB 182W aufgeklärt
robbitop
2025-06-04, 16:04:34
Was man auch echt loben muss, ist dass seit RDNA4 auch die Energieeffizienz nahezu on par mit Nvidias uArchs ist. Entsprechend werden RDNA4 APUs sicherlich echt interessant (auch weil die Bandbreiteneffizienz nun auch ordentlich gestiegen ist). IMO könnten das die ersten APUs sein, die mit niedrigen TDPs endlich mal einen richtig fetten Sprung ggü RDNA2 APUs bringen (wie zB Van Gogh). RDNA3 und 3.5 waren da ja sehr moderate Sprünge IMO.
Let's go, Valve -> Steam Deck 2 pls ^^
E39Driver
2025-06-04, 16:10:35
Eigentlich schade das man bei RDNA4 alle Mobile-Ableger gestrichen hat. Vermutlich hatte man Blackwell im Vorfeld deutlich stärker angenommen als er sich jetzt wirklich zeigt. Statt über 50% in der Energieeffizienz bei RDNA3 ist man jetzt nur noch ca. 5% hinter Nvidia zurück.
Immer noch ein schwerer Stand im Notebook-Segment. Aber zumindest nicht mehr komplett aussichtslos und über den Preis wären sicher ein paar % Marktanteil drin gewesen
robbitop
2025-06-04, 16:13:04
Im mobile Segment scheint man ja eher mit APUs arbeiten zu wollen als mit PCIe GPUs. Für die größeren dann die Halo SKUs und die kleinen die "Point" APUs.
Aber ja für 2026 steht weiterhin anscheinend nur RDNA3.5 an. Wird interessant zu sehen ob man dann 2027 gleich mit UDNA kommt oder dann erst RDNA4 bringt. RDNA1 hat man damals ja auch übersprungen in APUs, eine Weile Vega modernisiert und dann gleich RDNA2 gebracht.
IMO sind die Halo APUs aber (noch) zu teuer. Integration sollte ja eigentlich einen Preisvorteil vs CPU+dGPU bringen.
phoenix887
2025-06-04, 17:43:17
Da es im Review-Faden (und generell im Web) sicher wieder untergeht, hier ein Stupser zu Spezial-Analysen. :)
PCI-Express 5.0 ×16 - oder doch nicht? (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a4)
Praxistest: RDNA 4 vs. RDNA 3 (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a5)
MfG
Raff
Wo kann ich zahlen, dass das endlich mal aufhört, im 3Dcenter, mit dieser spamige Werbung? Danke
robbitop
2025-06-04, 18:32:35
Ich finde die verlinkten Artikel sind extrem interessant. Wer macht denn sonst IPC vergleiche über mehrere uArchs hinweg oder testet den Einfluss von PCIe? Wenn das nicht Tech ist - für das dieses Forum steht und die hier im Thread diskutiert wird, weiß ich auch nicht. IMO bringen diese einen sehr guten Mehrwert für die Diskussion um RDNA4. Dass du diese als „spammige Werbung“ titulerst impliziert dass du dir die weder angeschaut hast noch die darauf basierende Diskussion gelesen hast. Schade weil wie gesagt sehr sehr interessant und lesenswert.
Alternativen: Raffs Postings ignorieren oder aber fernbleiben.
Gorkon
2025-06-04, 18:38:32
Wo kann ich zahlen, dass das endlich mal aufhört, im 3Dcenter, mit dieser spamige Werbung? DankeBeschwer dich halt, dass sich jemand die Mühe macht sowas noch zusätzlich zu testen und gleich in den initialen Review-Artikel mit reinpackt, anstatt DLC-mäßig sowas nach 1-2 Wochen nachzureichen für mehr Clicks (Hallo ComputerBase) oder gleich hinter ner Paywall zu verstecken. Menschen...:freak:
MSABK
2025-06-04, 19:18:53
Eigentlich schade das man bei RDNA4 alle Mobile-Ableger gestrichen hat. Vermutlich hatte man Blackwell im Vorfeld deutlich stärker angenommen als er sich jetzt wirklich zeigt. Statt über 50% in der Energieeffizienz bei RDNA3 ist man jetzt nur noch ca. 5% hinter Nvidia zurück.
Immer noch ein schwerer Stand im Notebook-Segment. Aber zumindest nicht mehr komplett aussichtslos und über den Preis wären sicher ein paar % Marktanteil drin gewesen
Nvidia hat da bei de Notebooks eine enorme Marktmacht. Amd muss da mangels Designs quasi bei 0 anfangen und das werden sie sich glaube ich nicht mehr antun.
denjudge
2025-06-04, 19:47:40
Ich finde die verlinkten Artikel sind extrem interessant. Wer macht denn sonst IPC vergleiche über mehrere uArchs hinweg oder testet den Einfluss von PCIe? Wenn das nicht Tech ist - für das dieses Forum steht und die hier im Thread diskutiert wird, weiß ich auch nicht. IMO bringen diese einen sehr guten Mehrwert für die Diskussion um RDNA4. Dass du diese als „spammige Werbung“ titulerst impliziert dass du dir die weder angeschaut hast noch die darauf basierende Diskussion gelesen hast. Schade weil wie gesagt sehr sehr interessant und lesenswert.
Alternativen: Raffs Postings ignorieren oder aber fernbleiben.
Richtig . Brauchst du solchen Leuten aber nicht erklären, geht nur darum sich zu produzieren.
Wo kann ich zahlen, dass das endlich mal aufhört, im 3Dcenter, mit dieser spamige Werbung? Danke
Person 1: "Hier, exklusives Zeugs, kostenlos!"
Person 2: "Ich mag dich nicht, geh sterben!"
:ulol:
MfG
Raff
robbitop
2025-06-05, 00:06:28
Und doch lebst du immernoch. ^^ Ein Glück! :)
Gute Arbeit und lass dich nicht beirren - immer weiter so. Artikel und Videos von dir sind absolut Sahne. :)
mboeller
2025-06-05, 09:46:53
Person 1: "Hier, exklusives Zeugs, kostenlos!"
Person 2: "Ich mag dich nicht, geh sterben!"
:ulol:
MfG
Raff
Person 2: Hei... wir wollten in 1-2 Wochen einen Artikel machen und damit Geld verdienen... und "ihr" macht es am Launch-Day und kostenlos ... und dann habt ihr sogar noch die Impertinenz und redet darüber...
;)
zumindest meine Interpretation.
VooDoo7mx
2025-06-05, 10:03:45
Was man auch echt loben muss, ist dass seit RDNA4 auch die Energieeffizienz nahezu on par mit Nvidias uArchs ist. Entsprechend werden RDNA4 APUs sicherlich echt interessant (auch weil die Bandbreiteneffizienz nun auch ordentlich gestiegen ist). IMO könnten das die ersten APUs sein, die mit niedrigen TDPs endlich mal einen richtig fetten Sprung ggü RDNA2 APUs bringen (wie zB Van Gogh). RDNA3 und 3.5 waren da ja sehr moderate Sprünge IMO.
Let's go, Valve -> Steam Deck 2 pls ^^
Next Gen "Standard" SoC "Medusa Point" soll wohl weiterhn nur RDNA3.5 haben. Schade.
Eine neue Steam Deck Custom APU oder Strix Halo Nachfolger mit RDNA 4 wäre aber der Kracher.
Eigentlich schade das man bei RDNA4 alle Mobile-Ableger gestrichen hat. Vermutlich hatte man Blackwell im Vorfeld deutlich stärker angenommen als er sich jetzt wirklich zeigt. Statt über 50% in der Energieeffizienz bei RDNA3 ist man jetzt nur noch ca. 5% hinter Nvidia zurück.
Immer noch ein schwerer Stand im Notebook-Segment. Aber zumindest nicht mehr komplett aussichtslos und über den Preis wären sicher ein paar % Marktanteil drin gewesen
Ja sehe ich genauso. RDNA4 ist seit Jahren mal endlich eine Arch die es mit nVidia aufnehmen kann und jetzt gibt es keine Notebook SKUs. INtel hat sich wohl auch erst mal aus dem Notebook dGPU Markt zurück gezogen. Battlemage wäre da auch eine günstigere Alternative gewesen.
Häte gerne ein Notebook mit einen 9805HX3D (den es bei AMD in all ihrer Weisheit auch nicht gibt) + RX9080 Mobile gekauft.
So ist es dann doch Intel 275HX + 5090M geworden. :(
Vielleicht hat ja aAMD nächstes Jahr mobile Modelle raus wo nVidia nur nen öden Refresh oder gar keine neuen Modelle liefern kann.
Ich hab bhier normal 2 interessante Artikel zu RDNA4 gefunden, absolut lesenswert.
PCI-Express 5.0 ×16 - oder doch nicht? (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a4)
Praxistest: RDNA 4 vs. RDNA 3 (https://www.pcgameshardware.de/Radeon-RX-9060-XT-16GB-Grafikkarte-281275/Tests/Release-Benchmark-Preis-Specs-1473547/2/#a5)
:love3:
raffa
2025-06-05, 11:29:41
Ich hätte da ja noch einen Vergleichswunsch:
RX 9060 XT vs RX 9070 handoptimiert @ 180W
Finde den PCHG Test und das Video auch sehr gelungen :up:
Kalmar
2025-06-05, 11:41:01
Raff danke für eure Arbeit. Toller Artikel.
dildo4u
2025-06-05, 12:17:35
Gibt vermutlich auch deutlich mehr Sparkarten in dem Segment das sieht wie eine RX580 aus :lol:
https://videocardz.com/newz/powercolor-confirms-reaper-rx-9060-xt-8gb-and-16gb-models-with-different-clocks
Wie erwartet absolute Grütze die Karte hoffentlich gute Preise.
https://youtu.be/MjKs8KjbTqQ?si=dQZB0j2ql1mOPUXo&t=1018
robbitop
2025-06-05, 14:41:05
Welche Karte ist zu dem Preispunkt mit 16 GB besser? Deutlich mehr Leistung gibt es dann erst mit der 5070 oder 9070 - aber auch für deutlich mehr Geld. Die 5060ti 16G ist minimalst schneller und dafür leider überproportional teurer.
Falls du die 8 GB Version meinst: ja ok - das gilt für alle GPUs mit 8 GB. Absolute lemons in 2025.
dildo4u
2025-06-05, 14:42:51
Ich meine den Kühler der Reaper 90 Speicher Temperatur etc.
Dabei ist der Takt weit unter 3GHz.
Wie erwartet absolute Grütze die Karte hoffentlich gute Preise.
https://youtu.be/MjKs8KjbTqQ?si=dQZB0j2ql1mOPUXo&t=1018
immer wieder diese extremen Schnellschüsse und maßlosen Übertreibungen von dir - bringen keinen weiter
dildo4u
2025-06-05, 15:00:08
Sorry ich rede von diesem Modell nicht der GPU am sich.
Das sind keine 200€ Modelle daher finde ich schlechte Kühler nicht passend.
davidzo
2025-06-06, 10:17:15
Schon irgendein Vergleich zwischen der 9060Xt 8Gb und der 5060?
Nicht weil ich wirklich Interesse an einer der beiden Karten hätte, aber so ein race to the bottom ist durchaus unterhaltsam. Ein bisschen wie Schlammcatchen!
Und wirklich erschwingliche GPUs gibt es ja schon seit fünf Jahren nicht mehr.
basix
2025-06-06, 23:48:24
Noch eine Idee zum N48XT Gerücht (3.6 GHz + GDDR7):
- N48XT würde ca. 5080 Performance erreichen. Je nach MSRP könnte das eine attraktive Karte werden (450W wären aber meh, 350W oder so wären noch OK)
- Was wäre mit einem N44XT mit ähnlichem Performance-Anstieg (mehr Takt und GDDR7)? Wäre auf ca. 7900GRE Niveau und etwas überhalb einer 4070. Mit 12GByte (da GDDR7) und z.B. 349$ MSRP wäre das eine ansprechende Karte, noch besser wären allerdings 16GB und eine 12GB Variante (keine 8GB Variante mehr ;))
Der_Korken
2025-06-07, 00:55:48
Wo sollen 3,6Ghz GPU-Takt herkommen?
CB hat mit 340W+10% und -115mV (die nie im Leben in allen Games stabil sind) in der Spitze gerade mal 3,3x Ghz erreicht: https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-oc-uv-test.91714/seite-2#abschnitt_die_taktraten_der_verschiedenen_testszenarien
Gemessener Verbrauch waren sogar 390W statt der rechnerischen 374W. Also trotz massivem UV 28% mehr Verbrauch für 13% mehr GPU-Takt gegenüber der Referenz. Ohne UV bräuchte es wahrscheinlich 450W dafür. Aus dem Chip ist nichts mehr zu holen, der ist schon längst am kotzen.
Nightspider
2025-06-07, 01:56:29
Ich hätte echt gerne eine 9080 mit einem 3nm N48 mit schön hohen Taktraten und guter Effizienz.
Damit könnte man die 5080 schlecht dastehen lassen.
Der Chip wäre klein genug für extrem gute Yields und man könnte mit relativ wenig Wafern große Stückzahlen produzieren.
OgrEGT
2025-06-07, 07:38:52
Ich hätte echt gerne eine 9080 mit einem 3nm N48 mit schön hohen Taktraten und guter Effizienz.
Damit könnte man die 5080 schlecht dastehen lassen.
Der Chip wäre klein genug für extrem gute Yields und man könnte mit relativ wenig Wafern große Stückzahlen produzieren.
Da wär ich dabei... hängt aber vom N3 Prozess ab und wie effizient die RDNA4 Architektur damit betrieben werden kann... Kotzgrenze mit >400W und lauten Kühlern würde mir nicht gefallen... besser wäre natürlich ein breiterer Chip mit >/= 6SE :D
OgrEGT
2025-06-07, 07:42:47
Wo sollen 3,6Ghz GPU-Takt herkommen?
CB hat mit 340W+10% und -115mV (die nie im Leben in allen Games stabil sind) in der Spitze gerade mal 3,3x Ghz erreicht: https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-oc-uv-test.91714/seite-2#abschnitt_die_taktraten_der_verschiedenen_testszenarien
Gemessener Verbrauch waren sogar 390W statt der rechnerischen 374W. Also trotz massivem UV 28% mehr Verbrauch für 13% mehr GPU-Takt gegenüber der Referenz. Ohne UV bräuchte es wahrscheinlich 450W dafür. Aus dem Chip ist nichts mehr zu holen, der ist schon längst am kotzen.
Im aktuellen Fertigungsprozess ist das Ende der Fahnenstange erreicht... die große Unbekannte wäre N3x...
basix
2025-06-07, 08:23:34
Wo sollen 3,6Ghz GPU-Takt herkommen?
Im aktuellen Fertigungsprozess ist das Ende der Fahnenstange erreicht... die große Unbekannte wäre N3x...
N4X und eine Optimierung, welche N44 anscheinend schon hat ;)
An irgendwas in N3 glaube ich nicht. Das wäre ziemlich viel Aufwand. N4X ist designkompatibel mit N4P, theoretisch muss man am Chipdesign also nicht mal etwas anpassen.
N4X legt gegenüber N4P folgendermassen zu:
+5% Performance -> +150MHz
1.2V anstatt 1.1V
Dann designtechnisch (Metal-Layer Spin nötig?):
Keinen Frequency-Scaling Knick bei N48XT oberhalb 1.0V (siehe N44, welcher keinen hat)
RDNA4 skaliert mit ca. +150MHz/50mV aber bei N48 sinkt das auf nur +100MHz/50mV, wenn man über 1.0V geht
3.1 GHz bei 1.0V +150MHz (+5% durch N4X) +600MHz (1.2V Boost-Spannung ohne Frequency-Scaling Knick) = ~3.8 GHz
350...360W um das auch zu liefern (Effizienz wäre besser als von der 9070XT aber immer noch einiges schlechter als von der 9070)
3.8 GHz sind natürlich die maximalen Taktraten, typisch könnte es aber in Richtung 3.6 GHz gehen. N4P/N4X werden bis Ende Jahr auch generell noch leicht besser werden
GDDR7 ist fast doppelt so effizient wie GDDR6. Bei 28Gbps (+40% Bandbreite) würde man vermutlich sogar noch etwas an Energie sparen -> Mehr Power für den Rest des Chips
Und vielleicht kann man noch zusätzlich was rausholen durch Firmware und BIOS Optimierungen (haben wir in der Vergangenheit bei APUs oft gesehen, bei GPUs allerdings weniger)
Hier die Freqency-Scaling Kurven von N48 und N44:
https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-nitro/42.html
https://www.techpowerup.com/review/asrock-radeon-rx-9060-xt-steel-legend-oc-16-gb/42.html
N48:
https://tpucdn.com/review/sapphire-radeon-rx-9070-xt-nitro/images/clock-vs-voltage.png
N44:
https://tpucdn.com/review/asrock-radeon-rx-9060-xt-steel-legend-oc-16-gb/images/clock-vs-voltage.png
dildo4u
2025-06-07, 08:31:32
Mal eine Frage für was eigentlich eine größere RDNA4 Karte AMD saugt für Path Tracing der Rest läuft Problemlos.
Ich vermute das man massiv überzahlt wenn 9070 600€ und 9080 1k sind, 60% Aufpreis für 40% Leistung?
basix
2025-06-07, 08:37:02
Kann ich mir nicht vorstellen, dass man so teuer wird. Ich würde bei einer 9080(XT) auf +25% Performance hoffen. Bestenfalls +30%, wenn der GDDR7 gut einschlägt. Und dann könnte AMD 3x SKUs aus dem Chip machen:
- 9080XT, 64CU, 24GB (GDDR7) -> 750...800$
- 9080, 56CU, 21GB (GDDR7) -> 680...700$
- 9080GRE, 48CU, 16GB (GDDR6) -> 600$
Und zum Thema Pathtracing:
Im Sommer 2025 kommen neue AMD Treiber mit Opacity Micromaps (OMM) sowie Shader Execution Reorderung (SER) Support. Zwar anscheinend eine SW-Lösung, aber Pathtracing könnte in den kritischen Fällen (AW2, Black Myth Wukong, Indiana Jones) gut zulegen. Dazu noch FSR4 Project Redstone, wo man noch Ray Regeneration (Reconstruction) bekommen wird.
dildo4u
2025-06-07, 08:41:43
Ich gehe davon aus das die Karte 32GB hat um die 24GB 5080S zu kontern daher die 1000€.
basix
2025-06-07, 08:43:02
Eine 32GB Variante kann man immer noch machen. Sicher. Aber 24GB und dafür günstigere Preise wären sinnvoller für Gamer ;)
Ausserdem wäre die 9080XT wohl immer noch leicht langsamer als eine 5080S, welche vermutlich 999$ kosten wird. Da kann AMD schwer gleich viel verlangen, auch wenn es 32GB VRAM wären.
Platos
2025-06-07, 10:27:05
Keine Sorge, AMD kann und schafft das :D
Sie können das auch bei der 9060XT. Da sind sie auch gleich teuer.
MSABK
2025-06-07, 10:34:20
Gibt es überhaupt leaks? Ich glaube nicht so daran, dass da was größeres kommt.
basix
2025-06-07, 10:36:33
Nur Gerüchte, keine Leaks.
davidzo
2025-06-07, 13:26:01
Noch eine Idee zum N48XT Gerücht (3.6 GHz + GDDR7):
- N48XT würde ca. 5080 Performance erreichen. Je nach MSRP könnte das eine attraktive Karte werden (450W wären aber meh, 350W oder so wären noch OK)
- Was wäre mit einem N44XT mit ähnlichem Performance-Anstieg (mehr Takt und GDDR7)? Wäre auf ca. 7900GRE Niveau und etwas überhalb einer 4070. Mit 12GByte (da GDDR7) und z.B. 349$ MSRP wäre das eine ansprechende Karte, noch besser wären allerdings 16GB und eine 12GB Variante (keine 8GB Variante mehr ;))
Das ist doch alles Wunschdenken.
N4X und eine Optimierung, welche N44 anscheinend schon hat ;)
Bei RDNA2 hatte Navi23 auch höhere Boostclocks als Navi21.
Dass N44 weniger Voltage für den gleichen takt benötigt ist bei einem kleineren Chip mit kleinerem package, geringerer Leitungslänge, etc. auch anderweitig erklärbar. Allein aufgrund des Binomialen Bottlenecks muss die Voltage bei mehr Rechenwerken auf einem Chip ja auch höher sein (kleinster gemeinsamer Nenner).
AMD wird nicht grundlos die Fertigung wechseln und so kurzfristig neue teure Masken ordern nachdem der Chip überhaupt erst ein paar Monate läuft.
AMD muss nvidia nicht schlagen um kompetitiv zu sein. Solange sie das bessere P/L bieten und nicht über die Maße abgehängt sind erfüllen Sie trotzdem die Erwartungen der typischen AMD Käufer: Fast 5070ti und fast 5060ti Leistung zum jeweils geringeren Preis. Für AMDkäufer und Wechselkäufer reicht das als Argument und eingefleischte Nvidia Fans kriegt man damit sowieso nicht (die haben sogar Cine-FX gekauft).
Ob das jetzt 4 oder 8% hinten liegend bedeutet spielt keine Rolle. Selbst wenn man mal 5% schneller ist als NV wird das die Nvidia Kundschaft nicht groß beeindrucken, da die aus Prestigegründen und Kompatibilitätsangst Nvidia kaufen, nicht was schneller ist.
Das größte was ich mir vorstellen kann wäre eine Art RX580/590 bei der man vielleicht 1-2 Masken im Backend metal stack erneuert um die Taktbarkeit zu verbessern, bei aber schlechterer Effizienz als die niedrig taktenderen Vorgänger.
Die würde aber erst herauskommen nachdem Nvidia eine Super Generation vorgestellt hat. AMD braucht etwas das auf dem Papier neu ist erst dann wenn man die Gefahr eingeht als "last gen" abgestempelt zu werden. Vorher braucht man kein Update sondern sollte lieber die supplychain optimieren und die Masken und Entwicklungs über größere Bestellzahlen bei TSMC amortisieren.
Tom hat das jetzt unabhängig von mehreren Quellen gehört, dass da was im Busch ist und bisher hat er da ne wirklich gute Quote. Klar kann das dennoch dem Rotstift zum Opfer fallen, aber wenn N48 in N4X mehr Geld verdienen kann, wieso soll man das liegen lassen?
Und es kann billiger für AMD sein auf 2 16Gbit-Module zu setzen als auf 24Gbit-Module, je nach Vertrag und Lieferant. Es wird wohl davon abhängen, wie die Liefersituation wird. Wenn NV den 24Gbit-Module-Markt leergefegt hat auf absehbare Zeit kann 2x 16Gbit Clamshell für AMD Sinn ergeben, zumal die leicht zu kühlen sind.
davidzo
2025-06-07, 14:19:05
welcher Tom?
Btw, hier eines der seltenen 8Gb 9060XT reviews:
VdjF5t1Kryg
und hier eines dass die 5060 beinhaltet:
2l0L1SMwrtc
In der Spieleauswahl ist sie gerademal gleichwertig zur 5060. N44 kann also nicht viel aus den vollen 16 lanes PCIe gen5 ziehen. Ich hätte erwartet dass sie schneller ist als die 5060 zum gleichen Preis.
basix
2025-06-07, 15:43:01
welcher Tom?
Vermutlich MLID
Das ist doch alles Wunschdenken.
Wünsche, Gerüchte, Speku. Alles das gleiche ;)
Ich habe vor ein paar Posts dargelegt, dass gesteigerte Taktraten gar nicht so extrem Wunschdenken sind:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13768363#post13768363
Bei RDNA2 hatte Navi23 auch höhere Boostclocks als Navi21.
Die Bilder im Post oben belegen: Bei 1.0V haben N44 und N48 identische Taktraten. Natürlich haben kleinere Chips meistens etwas höhere Taktraten, die Unterschiede sind mittlerweile aber sehr gering (z.B. eine 4090 taktet fast gleich wie eine 4060).
AMD wird nicht grundlos die Fertigung wechseln und so kurzfristig neue teure Masken ordern nachdem der Chip überhaupt erst ein paar Monate läuft.
AMD muss nvidia nicht schlagen um kompetitiv zu sein. Solange sie das bessere P/L bieten und nicht über die Maße abgehängt sind erfüllen Sie trotzdem die Erwartungen der typischen AMD Käufer: Fast 5070ti und fast 5060ti Leistung zum jeweils geringeren Preis. Für AMDkäufer und Wechselkäufer reicht das als Argument und eingefleischte Nvidia Fans kriegt man damit sowieso nicht (die haben sogar Cine-FX gekauft).
Selbe Chipfläche, leicht teurerer Prozess, etwas teurerer Speicher. Im Gegenzug kann AMD mehr Geld verlangen, insbesondere wenn dann die Super-Refreshes bei Nvidia am Markt ankommen. AMD wäre mit einem 3.5 GHz N48 schlicht noch etwas konkurrenzfähiger. Dito bei N44. Dazu noch das Thema 128bit / 12GByte dank GDDR7. Gibt schon ein paar gute Gründe für einen Refresh. Und wie gesagt, dank N4X mit minimalem Aufwand. Einzige wichtige Vorbedingung, welche momentan unbekannt ist: Der jetzige Speichercontroller müsste bereits GDDR7 unterstützen. Sonst macht es nicht viel Sinn.
Nightspider
2025-06-07, 19:31:12
32GB wären schon übertrieben. 24GB wären der Sweetspot für die hypothetische 9080 mit >5080 Leistung.
Milchkanne
2025-06-07, 22:27:52
32GB wären schon übertrieben. 24GB wären der Sweetspot für die hypothetische 9080 mit >5080 Leistung.
32GB wäre natürlich für alle LLM Freunde interessant. GDDR7 wäre dann bei fast nem TB/s?
Bei Idealo gibts mit 32GB (preis Aufsteigend):
Radeon Pro W6800, 512GB/s, RDNA2, 1400€
Radeon Pro W7800, 576GB/s, RDNA3, 1900€
GeForce RTX 5090, 1792GB/s, Blackwell, ab 2350€
Als Pro Karte kann man da auch 2k verlangen. War ja ohnehin in der Gerüchteküche. Für 1200 würde das auch als Gamerkarte sehr gut laufen. Nicht unbedingt von Gamern. Ist halt die Frage, ob die endlich mal nen brauchbaren Einstieg für LLMs anbieten wollen.
Die 7900 XTX ist für LLMs viel interessanter als die 9070 XT. +50% Speicher, +50% Bandbreite bei +20% Preis. Aber will man die noch kaufen?
iamthebear
2025-06-08, 15:48:29
N4X vs. N4P macht erst bei >= 1.2V Sinn.
Techpowerup hat folgendes gemessen (Durchschnitt 25 Spiele):
3143MHz
1.035V
351W
Hochgerechnet macht das bei 1.2V (Annahme Takt skaliert linear mit Spannung):
3645MHz
1.2V
548W
Das wird so keiner mehr kühlen können. Damit macht sich AMD zur Lachnummer wenn sie so viel verbrauchen wie eine 5090 und dabei im Besten Fall zur 5080 in Raster aufschließen können.
Meine Vermutung: Es kommt einfdach eine 9070 XT mit 32 GB als Professional Karte
Das was AMD braucht ist:
.) N3E/N3P (um die Verlustleistung in den Griff zu bekommen)
.) 48 WGPs (wie bei der 7900 XTX) mit 384 Bit SI und 24GB RAM. GDDR7 ist nicht zwingend erforderlich aber wäre ein netter Bonus
Damit können sie auch wieder ihre 999$ verlangen, da sie spürbar vor der 5080 liegen sollten.
Darunter noch eine Salvage 9080 mit etwas weniger WGPs und 320Bit/20GB um die 800$. Die sollte dann in etwa auf 5080 Niveau landen.
amdfanuwe
2025-06-08, 18:07:22
Meine Vermutung: Es kommt einfdach eine 9070 XT mit 32 GB als Professional Karte
Gibt doch schon die AMD Radeon™ AI PRO R9700 (https://www.amd.com/de/products/graphics/workstations/radeon-ai-pro/ai-9000-series/amd-radeon-ai-pro-r9700.html)
davidzo
2025-06-09, 09:11:18
Das wird so keiner mehr kühlen können. Damit macht sich AMD zur Lachnummer wenn sie so viel verbrauchen wie eine 5090 und dabei im Besten Fall zur 5080 in Raster aufschließen können.
Meine Vermutung: Es kommt einfdach eine 9070 XT mit 32 GB als Professional Karte
Sehe ich ähnlich, aber ich glaube nicht dass plötzlich noch RDNA4 refresh Chips aus dem Nichts auftauchen. Hieß es nicht dass UDNA schon 2026 kommt?
RDNA 4 ist abgeschlossen.
Es kommt noch eine 9050, also N44 Salvage und vielleicht noch irgendwelche GREs in homöopatischen Dosen und dann können wir den Fred hier dicht machen.
Das dazwischen noch neue Chips kommen ist extrem unwahrscheinlich. Bei AMD liegen immer ca. 2 jahre zwischen den Achitekturen. UDNA wäre für Herbst 2026 sogar noch früher dran.
TheAntitheist
2025-06-09, 20:34:02
wegen 8% Marktanteil würde ich da jetzt kein Refresh bringen, vor allem dieses Jahr schon? das kann man sich auch nächstes Jahr noch überlegen. Aber was wollen sie machen? mehr VRAM? wozu? ist kein Highend also reichen 16GB.
10% mehr takt? das juckt doch keine Sau.
Palpatin
2025-06-12, 11:47:03
Mal eine Frage für was eigentlich eine größere RDNA4 Karte AMD saugt für Path Tracing der Rest läuft Problemlos.
Ich vermute das man massiv überzahlt wenn 9070 600€ und 9080 1k sind, 60% Aufpreis für 40% Leistung?
Die ganzen 5k OLED die jetzt kommen, würde ich nicht mit einer 16gb 9070 befeuern wollen, selbst 5080 mit 16gb wird da eng. Die 5090 suckt aus vielerlei Gründen und die 4090 gibt es leider nicht mehr. Perfektes Szenario für größere RDNA4.
[MK2]Mythos
2025-06-12, 14:31:52
Ich würde für eine spekulative 9080/90 mit 24/32GB und 15-40% Performanceuplift ggü der 9070xt meine RTX5080 jedenfalls sofort wieder in Rente schicken. Blackwell war mir genug nvidia Erfahrung für die nächsten Jahre.
DrFreaK666
2025-06-12, 14:55:34
...Ich vermute das man massiv überzahlt wenn 9070 600€ und 9080 1k sind, 60% Aufpreis für 40% Leistung?
Und +100% VRAM
rentex
2025-06-12, 15:25:49
Mythos;13770936']Ich würde für eine spekulative 9080/90 mit 24/32GB und 15-40% Performanceuplift ggü der 9070xt meine RTX5080 jedenfalls sofort wieder in Rente schicken. Blackwell war mir genug nvidia Erfahrung für die nächsten Jahre.
Ja? Wieso?
Complicated
2025-06-12, 17:32:45
Falscher Thread
dargo
2025-06-12, 17:59:04
Die ganzen 5k OLED die jetzt kommen, würde ich nicht mit einer 16gb 9070 befeuern wollen, selbst 5080 mit 16gb wird da eng.
Musst du auch nicht. Einfach Performance Upscaling rein, was immer noch 1440p als Input bedeutet und fertig ist der Lack. Das wird trotz Performance Upscaling absolut clean aussehen. Insbesondere dann bei 220ppi. Ich weiß jetzt schon, dass selbst das Performance Upscaling noch weiter abgesenkt werden kann. Zb. auf 1080p Input, wird immer noch super aussehen. Mit FSR 4 bzw. bald Redstone versteht sich von selbst.
Eine 9080 halte ich für möglich, da bereits die 9070xt in selben Gewässer fischt. Vielleicht kommt noch eine 32GB Variante mit einem Boostclock von ~3.45g und das war es. Die Chips sind selektiert und auch an der Leistungsaufnahme wird sich nichts ändern.
Palpatin
2025-06-12, 20:55:51
Musst du auch nicht. Einfach Performance Upscaling rein, was immer noch 1440p als Input bedeutet und fertig ist der Lack. Das wird trotz Performance Upscaling absolut clean aussehen. Insbesondere dann bei 220ppi. Ich weiß jetzt schon, dass selbst das Performance Upscaling noch weiter abgesenkt werden kann. Zb. auf 1080p Input, wird immer noch super aussehen. Mit FSR 4 bzw. bald Redstone versteht sich von selbst.
Sehe ich nicht so. Die 4070 ti 12gb war für 4K absolut untauglich, trotz DLSS. Bei India Jones habe ich gerne auf PT verzichtet um DLSS Qualität statt Performance fahren zu können. Entsprechenden würde ich auch meine 5080 gerne gegen eine spekulative 9090 XT 32 GB tauschen.
robbitop
2025-06-13, 07:32:58
Naja PT ist auch auf Nvidia ein absoluter Performancefresser. Ob es das wert ist muss jeder selbst entscheiden. IMO ist auch ein guter Weg RT hochzudrehen aber noch ohne PT. Da passt das fps/bq Verhältnis IMO viel besser.
Und: RT sieht mit upsampling zT nicht so toll aus ohne ray reconstruction. Gerade bei Reflexionen aber auch die Neonschilder bei cp77 aliasen sonst.
Bei der 4070 könnte auch der vram noch eine Rolle spielen. Aber mit optimierten Settings statt dem meist viel zu teuren max settings und ordentlich Upsampling sollte die 4070 (außerhalb des vram limits) meist locker für schnelles 4K reichen. Für PT und max settings Orgien nicht.
Aber IMO bekommt man meist viel zu wenig Gegenwert von max Settings vs optimierte Settings für den hohen fps drop
dargo
2025-06-13, 07:39:34
Sehe ich nicht so. Die 4070 ti 12gb war für 4K absolut untauglich, trotz DLSS. Bei India Jones habe ich gerne auf PT verzichtet um DLSS Qualität statt Performance fahren zu können. Entsprechenden würde ich auch meine 5080 gerne gegen eine spekulative 9090 XT 32 GB tauschen.
Weiß jetzt nicht so recht was die 4070ti 12GB mit dem Thema zu tun hat, es ging um 16GB. Und da habe ich noch gar nichts angetroffen wo die in 4k mit Upscaling limitieren. Ich verwende aber auch kein PT, da mir das viel zu teuer ist.
Palpatin
2025-06-13, 08:27:41
Weiß jetzt nicht so recht was die 4070ti 12GB mit dem Thema zu tun hat, es ging um 16GB. Und da habe ich noch gar nichts angetroffen wo die in 4k mit Upscaling limitieren. Ich verwende aber auch kein PT, da mir das viel zu teuer ist.
Da 12gb vor 2 Jahren bei 3440x1440 reichten und bei 4k versagten halt die Vermutung das es sich bei 16gb und 3840x2160 vs 5120x2160 ähnlich verhalten wird.
dargo
2025-06-13, 08:51:29
Du änderst doch nichts bei 5k beim Upscaling vs. 4k im Bereich des Inputs. Wenn 16GB bei 4k + Quality_Upscaling reichen wird es auch bei 5k + Performance_Upscaling reichen. Beides verwendet 1440p als Input. Zudem wird das Bild bei dem 5k genannten Beispiel sogar noch etwas besser aussehen. Will man die Karte länger nutzen (zb. 5 Jahre) dann wäre man sicherlich mit 24GB auf der sichereren Seite, keine Frage. Aktuell sehe ich aber 16GB noch nicht als stark limitierend an.
Palpatin
2025-06-13, 10:15:06
Du änderst doch nichts bei 5k beim Upscaling vs. 4k im Bereich des Inputs. Wenn 16GB bei 4k + Quality_Upscaling reichen wird es auch bei 5k + Performance_Upscaling reichen.
Das mag sein aber Performance ist mir bei DLSS 4 nicht gut genug aus meinen Erfahrungen mit der 5080 daher auch das Beispiel mit Indiana Jones. Kann zwar FSR nicht beurteilen aber alles was ich gelesen hab, ist es nicht besser als DLSS 4.
dargo
2025-06-13, 10:16:15
Du hast doch noch gar keine Erfahrungen mit 5k. :freak: Und wie ich schon sagte... je höher die Output-Auflösung umso besser auch die Bildqualität trotz gleichen Input. 5k mit 1440p Input wird besser aussehen als 4k mit 1440p Input. Ersteres ist Performance Upscaling, zweiteres Quality.
Palpatin
2025-06-13, 10:38:34
Du hast doch noch gar keine Erfahrungen mit 5k. :freak: Und wie ich schon sagte... je höher die Output-Auflösung umso besser auch die Bildqualität trotz gleichen Input. 5k mit 1440p Input wird besser aussehen als 4k mit 1440p Input. Ersteres ist Performance Upscaling, zweiteres Quality.
Wiso sollte das besser werden es ist beides 1440p es ändert sich doch nur die Breite des Bildes......16:9 vs 21:9, sprich im Idealfall sieht man mehr, was dazu führt das mehr Texturen Polygone geladen berechnet werden müssen....
raffa
2025-06-13, 11:28:12
Vorsicht mit den Begriffen:
"5K" 5.120 × 2.880 16:9
"5K2K" 5.120 x 2.160 21:9
https://de.wikipedia.org/wiki/5K_(Bildauflösung)
dargo
2025-06-13, 12:04:06
Wiso sollte das besser werden es ist beides 1440p es ändert sich doch nur die Breite des Bildes......16:9 vs 21:9, sprich im Idealfall sieht man mehr, was dazu führt das mehr Texturen Polygone geladen berechnet werden müssen....
Ich vergleiche 3840x2160 mit 5120x2880, beides @27", sprich 166ppi vs. 220ppi. Keine Ahnung was du vergleichst.
btw.
Schnapp dir den Optiscaler und lasse von bsw. 1700p bis 1800p auf 2160p upscalen, auf einem 4k Bildschirm versteht sich. Dann hast du eine ungefähre Vorstellung wie das Bild mit 5k und Performance Upscaling aussehen wird. Wobei letzteres wahrscheinlich immer noch etwas cleaner/schärfer aussehen wird.
Palpatin
2025-06-13, 15:02:00
Ich vergleiche 3840x2160 mit 5120x2880, beides @27", sprich 166ppi vs. 220ppi. Keine Ahnung was du vergleichst.
btw.
Schnapp dir den Optiscaler und lasse von bsw. 1700p bis 1800p auf 2160p upscalen, auf einem 4k Bildschirm versteht sich. Dann hast du eine ungefähre Vorstellung wie das Bild mit 5k und Performance Upscaling aussehen wird. Wobei letzteres wahrscheinlich immer noch etwas cleaner/schärfer aussehen wird.
Aktuell habe ich einen 42 Zoll 4k 16:9 und geplant sind 45 Zoll 5120x2160 21:9.
dargo
2025-06-13, 15:07:01
Ok, das sind dann natürlich andere Voraussetzungen. Unter 5k verstehe ich was anderes. :)
Wenn man denkt, es könne nicht besser werden ...
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-Treiber-Update-Benchmark-Test-1474379/ :up:
MfG
Raff
aceCrasher
2025-06-17, 14:36:30
geplant sind 45 Zoll 5120x2160 21:9.
Das ist kein 5K Monitor. Das ist WUHD, oder manchmal auch "5K2K".
basix
2025-06-17, 17:46:03
Wenn man denkt, es könne nicht besser werden ...
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/vs-RTX-5070-Ti-Treiber-Update-Benchmark-Test-1474379/ :up:
MfG
Raff
Wow, starke Performancezuwächse. Danke für den Nachtest!
Interessant ist, dass die 9070XT typischerweise etwas mehr zulegt als die 9070 (insbesondere bei PT) und dass UWQHD in Forza Motorsport auch mehr profitiert.
Palpatin
2025-06-23, 13:33:32
Das ist kein 5K Monitor. Das ist WUHD, oder manchmal auch "5K2K".
Ja die 5k2k hatte ich gemeint. Wurden ja groß von LG auf der CES in 45 und 39 Zoll angekündigt. Normale 5k also sprich 5120x2880 gibt es ja schon lange aber halt nichts brauchbares für Gamer.
Interessant ist, dass die 9070XT typischerweise etwas mehr zulegt als die 9070 (insbesondere bei PT) und dass UWQHD in Forza Motorsport auch mehr profitiert.
Das dürfte am Powerlimit liegen. Die 9070 ist hier einfach sehr eingeengt, während sich die 9070 XT besser entfalten kann.
MfG
Raff
Hakim
2025-06-23, 15:15:49
Normal müsste die 9070 vorm UV mehr profitieren gegenüber der XT oder? Da die 9070 durchs Powerlimit so eingegrenzt wird
nairune
2025-06-23, 16:05:29
Ja, siehe hier:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13771974#post13771974
Ist ja auch logisch: bis weniger MHz nicht mehr effizienter werden, muss man schon sehr, sehr tief gehen.
Dass die Gains durch den Treiber unterschiedlich sind, ist hingegen interessant, vielleicht kommt da die Breite auch besser zur Geltung - der Unterschied durch CUs war ja bislang relativ gering.
basix
2025-06-23, 19:54:42
Eine Vermutung meinerseits hinsichtlich Treiberverbesserungen:
Bessere Ausnutzung von Infinity Cache (reduzierte Speicherlatenz für PT) und VRAM-Bandbreite. Oder auch Shader Engine Frontend Limitierungen von Seiten ROPs oder so. Vielleicht ist hier die 9070XT in einen Flaschenhals geraten, welcher bei der 9070 aufgrund weniger CUs und Takt nicht oder nur geringfügig zum tragen gekommen ist.
Das widerspricht dem Einwand von Raff (Power Limit) nicht. Die 9070XT musste allenfalls Däumchen drehen, da z.B. die Bandbreite fehlte. Der Chip wurde taktmässig trotzdem hochgejagt und deswegen das Power Limit ausgereizt (AMDs Chips funktionieren Out-of-the-Box da halt so). Die 9070 lief schon näher am Maximum und kann sich aufgrund dem engen PL nicht noch weiter entfalten.
horn 12
2025-06-23, 20:17:29
Somit sind weitere 5 bis gar mehr Prozent in Zukunft noch realisierbar
und somit kann eine 9070 XT knapp eine 5080 erreichen.
vinacis_vivids
2025-06-25, 14:08:52
Normal müsste die 9070 vorm UV mehr profitieren gegenüber der XT oder? Da die 9070 durchs Powerlimit so eingegrenzt wird
Nein. Die 9070 hat weniger CUs, nur 56 zur Beschleunigung.
1 Mhz RX 9070 x 56 CU x 256 Flop ~ 14366 Flop/s
1 Mhz RX 9070 XT x 64 CU x 256 Flop ~ 16384 Flop/s
Die 9070XT wandelt pro Mhz an Takt in mehr Rechenleistung um und skaliert damit besser als die 9070. Vega 56 erreicht im maximum an UV/OC die Leistung der stock Vega64, aber niemals besser. Da fehlen einfach Rechenwerke, wie R9 Fury zur R9 FuryX.
nairune
2025-06-25, 16:23:07
Das macht keinen Sinn. Die 9070 ist Stock auf einem effizienterem Betriebspunkt. Effizienz bedeutet mehr Leistung pro Watt. Wenn also nun durch UV Powerbudget frei wird (und der Takt steigen kann), dann ist das mehr Leistung (mehr Takt) als wenn die XT vom Standardbetriebspunkt mit deutlich schlechterer Effizienz ein paar MHz dazu bekommt.
Das Taktplus durch UV ist einfach geringer bei der XT, auch wenn sie pro Takt ein bisschen mehr leistet.
vinacis_vivids
2025-06-25, 18:58:31
Effizienz:
Eine RX 9070XT kannste du ebenfalls auf 2,7 GHz eingrenzen und weniger Spannung einstellen. Sie ist dann wohl schneller als eine RX 9070 @ 2,7Ghz. Vielleicht braucht die RX 9070 2,9Ghz-3,0Ghz um auf das Level der RX 9070XT @ 2,7Ghz zu kommen. Bei 3,0Ghz explodiert sicher auch der Verbrauch der RX 9070. Das nix mehr mit viel effizient.
Hakim
2025-06-25, 19:17:05
Ich glaube du verstehst die Fragestellung nicht so ganz, ausgehend von beiden Stocks, 220W wo die 9070 sehr stark durch die Limitierung eingegrenzt wird gegenüber der 304W der 9070XT wo das Problem weniger der Fall ist da hier 84W mehr zu Verfügung stehen. Jetzt kann man dadurch bei der 9070 durch UV ausgehend von Stock Prozentual mehr Profitieren. Also kein was hat mehr FPS, sondern was legt Prozentual mehr zu, zu Stock.
robbitop
2025-07-05, 11:57:48
https://youtu.be/jPaBVrHq4qI?si=UllDZzU1hXXfCWb8
RDNA4 gewinnt ordentlich Performance unter Linux. Blackwell kaum. Könnte ggf daran liegen dass RADV (der von der community - hauptsächlich Valve und co) entwickelte Treiber besser ist als der von AMD. Potenziell könnte AMD (unter Windows mit ihren eigenen Treibern) also da noch gut was rausholen.
dildo4u
2025-07-05, 12:02:21
Es gab unter Windows schon nennenswerte Gewinne das wir abflachen wenn die gröbsten Schnitzer behoben wurden.
aWfMibZ8t00
robbitop
2025-07-05, 12:03:48
Ich gehe davon aus dass der PCGH Test mit neusten Treibern ist. Der kam heute erst raus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.