Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 9070 & 9070 XT Review-Thread
Leonidas
2025-03-05, 14:57:59
AMD Radeon RX 9070 XT
- Navi-48-Chip
- 64 CU @ 256-bit (Vollausbau)
- 16 GB GDDR6
- Listenpreis $599
- Launch-Reviews: 5. März
- Marktstart: 6. März
AMD Radeon RX 9070
- Navi-48-Chip
- 56 CU @ 256-bit (Salvage-Ausführung)
- 16 GB GDDR6
- Listenpreis $549
- Launch-Reviews: 5. März
- Marktstart: 6. März
|Chip|Hardware|Takt|VRAM|TDP|Listenpreis|Release
Radeon RX 9070 XT|Navi 48|64 CU @ 256-bit|2.40/2.97 GHz|16 GB GDDR6|304W|$599€|6. März 2025
Radeon RX 9070|Navi 48|56 CU @ 256-bit|2.07/2.52 GHz|16 GB GDDR6|220W|$549€|6. März 2025
Radeon RX 9060 XT 16GB|Navi 44|whrschl. 32 CU @ 128-bit|?|16 GB GDDR6|?|?|Q2/2025
Radeon RX 9060 XT 8GB|Navi 44|whrschl. 32 CU @ 128-bit|?|8 GB GDDR6|?|?|Q2/2025
Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/amd-radeon-rx-9070-9070-xt-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/198465/amd-radeon-rx-9070-xt-rdna4-graphics-cards-review-roundup).
AMD Radeon RX 9070 & RX 9070 XT mit RDNA 4 im Test: Eine faustdicke Überraschung! (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/) :up:
JU71t3rmnOs
8× RX 9070 (XT) im Test: Welches Custom-Design ist in welcher Disziplin die beste Wahl? (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/)
FSR 4 im ersten Test: Was kann AMDs KI-Upsamling? Qualität und Performance geprüft (https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/FSR-4-AMD-Release-vs-DLSS-4-1467123/)
MfG
Raff
Prinzenrolle
2025-03-05, 15:01:19
Bisschen schade, dass RT dann doch nicht so eingeschlagen ist.
Hätte mir in der Beziehung deutlich mehr erwartet. Schade.
Aber klasse Verbesserung, das muss man AMD lassen, im Endeffekt aber trotzdem lahm.
So einen RT Krüppel zu kaufen, macht ja irgendwie nur solange Sinn wie die GeForces so teuer sind.
Man merkt, dass den Karten die Bandbreite fehlt.
Eine 4070 Ti Super zum etwas günstigeren Preis, konnte man vorher auch schon kaufen. :D
Lawmachine79
2025-03-05, 15:08:12
Verstehe das Fazit nicht ganz. Der einzige Grund, warum die Karten gut sind, ist, weil sie billig sind und effizient sind die auch geworden. Aber der wichtigste Aspekt, Performance, wird nicht gewürdigt, man ist gerade mal auf 5070TI-Niveau. Ich finde, um wirklich ein positives Gesamtfazit ziehen zu können, hätte man zumindest den alten Highendvorgänger schlagen müssen und man hätte die 5080 schlagen müssen und vllt. irgendwo kurz hinter der 4090 landen. Und wenn die dann Strom fressen: egal. Es gibt ein Marktsegment, dessen Kunden das nicht interessiert.
ABER: ich nehme durchaus positiv mit, dass AMD jetzt eine neue Architektur hat, die hatte Flaschenhälse beseitigt; mit RDNA 3 war man an einer Glasdecken, mit RDNA 4 ist man zwar "am Boden" aber anscheinend herrscht hier "Luft" nach oben, vielleicht wird es mit der nächsten Evolutionsstufe ja wieder ein Zweikampf um die Leistungskrone. Aber für preisbewusste Gelegenheitsspieler ist RDNA 4 bereits jetzt ein großer Wurf. Als Enthusiast bin ich aber enttäuscht, aber das war ja auch absehbar.
MSABK
2025-03-05, 15:12:28
Wow, sehr beeindruckend, auch FSR4.
Den Idle-Verbrauch haben sie auch endlich gefixt.
Matrix316
2025-03-05, 15:13:03
Verstehe das Fazit nicht ganz. Der einzige Grund, warum die Karten gut sind, ist, weil sie billig sind und effizient sind die auch geworden. Aber der wichtigste Aspekt, Performance, wird nicht gewürdigt, man ist gerade mal auf 5070TI-Niveau. Ich finde, um wirklich ein positives Gesamtfazit ziehen zu können, hätte man zumindest den alten Highendvorgänger schlagen müssen und man hätte die 5080 schlagen müssen und vllt. irgendwo kurz hinter der 4090 landen. Und wenn die dann Strom fressen: egal. Es gibt ein Marktsegment, dessen Kunden das nicht interessiert.
ABER: ich nehme durchaus positiv mit, dass AMD jetzt eine neue Architektur hat, die hatte Flaschenhälse beseitigt; mit RDNA 3 war man an einer Glasdecken, mit RDNA 4 ist man zwar "am Boden" aber anscheinend herrscht hier "Luft" nach oben, vielleicht wird es mit der nächsten Evolutionsstufe ja wieder ein Zweikampf um die Leistungskrone. Aber für preisbewusste Gelegenheitsspieler ist RDNA 4 bereits jetzt ein großer Wurf. Als Enthusiast bin ich aber enttäuscht, aber das war ja auch absehbar.
Naja, also der Name wäre dann aber falsch gewesen, weil dann hätten die 9090 und 9090XT heißen müssen und nicht 9070. ;) Alleine dadurch wurde ja klar, dass man an die "80er" nicht rankommen wirde.
Aber klar, natürlich wäre ein High End Modell noch besser gewesen.
Na das sind doch sehr gute Mittelklassekarten geworden, ohne echte Schwächen und zu vglw. guten Preisen.(y)
AMD Radeon RX 9070 & RX 9070 XT mit RDNA 4 im Test: Eine faustdicke Überraschung! (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/) :up:
...
hervorragender Test, vielen Dank!:massa:
ChaosTM
2025-03-05, 15:17:26
Sehr einhelliges Resüme der Reviewer. In dem Preisbereich wo die meisten Gamer kaufen liegt man auf Augenhöhe. Nur bei NV optimierten PT spielen ist NV noch nennenswert vorne.
PreisLeistung/€ geht an AMD, wenn man die Dinger denn auch kaufen kann. :)
Gut fürs PC Gaming !
Und jetzt schau ich in Ruhe Raffs Video..
nairune
2025-03-05, 15:18:41
Gefällt mir und wird gekauft (sofern UVP erreicht wird).
Kühler der Pulse sieht auch völlig ausreichend aus, werde eh einiges der -30% PT-Möglichkeit ausschöpfen.
Ex3cut3r
2025-03-05, 15:19:48
Guten Karten, da kann man echt nicht motzen.
https://s1.directupload.eu/images/250305/7rnve4jq.png
Lehdro
2025-03-05, 15:19:58
Viel besser als ich erwartet habe. FSR 4 und die Effizienz sind das Sahnehäubchen obendrauf. Nur Schade das es kein Highend gibt.
Palpatin
2025-03-05, 15:21:41
Falls ich morgen eine gute zu einem fairen Preis < 800€ ergattern kann, wird zugeschlagen und die 5080 geht in die Bucht.
dildo4u
2025-03-05, 15:21:41
Ist das ein Fehler die 4070S grillt die 5070?
https://i.ibb.co/XfLDpqrw/RT-CP2077-p.webp (https://ibb.co/hx9cHSJq)
https://www.techspot.com/review/2961-amd-radeon-9070-xt/
Lawmachine79
2025-03-05, 15:22:52
Sehr einhelliges Resüme der Reviewer. In dem Preisbereich wo die meisten Gamer kaufen liegt man auf Augenhöhe. Nur bei NV optimierten PT spielen ist NV noch nennenswert vorne.
PreisLeistung/€ geht an AMD, wenn man die Dinger denn auch kaufen kann. :)
Gut fürs PC Gaming !
Und jetzt schau ich in Ruhe Raffs Video..
Aber in dem Segment spielt man nicht mit Pathtracing. Wäre bestenfalls in Full HD denkbar. Leider verbauen Notebookhersteller auf jeder Briefmarke wenigstens WQHD.
Lurtz
2025-03-05, 15:23:18
Ist die 9070 XT jetzt eine Überlegung wert, wenn man von einer 4070 kommt? :ugly: Wäre FSR 3.1 verbreiteter, gefühlt eher, aktuell fühlt es sich eher nach abwarten und DLSS eine Stufe runterstellen an... :D
Außerdem bin ich gespannt was die Spezis hier zu FSR4 sagen, zu DLSS4 war so viel Bullshit da draußen zu lesen.
---
HWU ziehen ein eher gemischtes Fazit. Sie korrigieren aber ihr "AMD muss 20% billiger als nVidia sein"-Mantra auf 15% :ugly:
VQB0i0v2mkg
Sie betonen, dass FSR4 den Abstand zu DLSS4 laut Ersteindrücken deutlich näher kommt. Sie meinen aber wenn die 9070 XT nicht bei ~550$ Marktpreis ankommt, ist sie kein NoBrainer gegenüber nVidias Mittelklasse. Da AMD laut ihnen die MSRP-Modelle subventioniert, sind die Chancen dafür wohl erstmal gering.
Außerdem kritisieren sie, dass AMD mit dem Vergleich zur 970 GRE nicht erbrachte Performancegewinne der XT vermarktet und damit falsche Erwartungen geweckt hat. Haben andere Reviewer das auch so gemessen oder lief da mal wieder was schief bei denen?
Goser
2025-03-05, 15:24:01
6q3m0ohjI2w
DrFreaK666
2025-03-05, 15:24:38
PT wohl nur FSR4 P empfehlenswert.
Da ich aber kein Spiel habe, dass das anbieten würde, interessiert mich das nicht.
Bin überrascht wie gut die Karten bei AI Software abschneidet (siehe CB-Tests). Da ich Gigapixel AI sehr gern nutze, würde es sich dafür lohnen
Palpatin
2025-03-05, 15:25:01
Ist das ein Fehler die 4070S grillt die 5070?
Nö die sind zwar im Schnitt recht nah beieinander, z.T. ist aber die 5070 wegen Bandbreite und z.T. die 4070S wegen FP32 Alus deutlich vorne. In Summe gleicht es sich in etwas aus.
Shink
2025-03-05, 15:26:22
Naja, also der Name wäre dann aber falsch gewesen, weil dann hätten die 9090 und 9090XT heißen müssen und nicht 9070.
Außerdem müssten sie dann 600W brauchen.
Ist das ein Fehler die 4070S grillt die 5070?
Ist ein Pathtracing
dildo4u
2025-03-05, 15:27:42
Ist ein Pathtracing
Nein normales RT.
Dural
2025-03-05, 15:27:43
Besser als erwartet.
Aber wenn es nur eine Karte geben müsste, würde ich klar zur 5070ti greifen, da deutlich besseres OC potential und komplett gesehen das rundere Produkt.
Bei mir gibt es 5080 Master und 9070XT Nitro, das stand aber schon vor den Test heute fest.
Ich rechne aber nicht damit das ich morgen die Nitro bekomme...
DrFreaK666
2025-03-05, 15:33:44
Laut PCGH ist schon die 9070 immer mehr als doppelt so schnell wie meine 6700XT. Hm...
Der Performance-Sprung zur 9070XT ist eigentlich auch fast zu gering
Ex3cut3r
2025-03-05, 15:34:04
Ist die 9070 XT jetzt eine Überlegung wert, wenn man von einer 4070 kommt?
Das wäre ein + von 40%, lohnt sich IMHO nicht, aber musst du wissen.
Lurtz
2025-03-05, 15:35:59
Das wäre ein + von 40%, lohnt sich IMHO nicht, aber musst du wissen.
Plus VRAM halt. Aber 12 GB sind noch nicht wirklich hinderlich genug, erst recht nicht wenn man heavy RT nicht beachtet.
dildo4u
2025-03-05, 15:39:02
Mit Vram Test in Indiana Jones.
pFDEa4xD9Yk
Ex3cut3r
2025-03-05, 15:40:39
Plus VRAM halt. Aber 12 GB sind noch nicht wirklich hinderlich genug, erst recht nicht wenn man heavy RT nicht beachtet.
Notfalls kannst du immer 1-2 Settings, wie Texturen und Schatten heruntersetzen. + DLSS nutzen.
Das ist ja der Vorteil, wenn man PC User ist, optimized Setttings nutzen. Ist zwar nett, dass CB und PCGH Max Settings nutzen, so, zocke ich aber schon seit 4 Jahren nicht mehr.
Lurtz
2025-03-05, 15:43:31
Notfalls kannst du immer 1-2 Settings, wie Texturen und Schatten heruntersetzen. + DLSS nutzen.
Das ist ja der Vorteil, wenn man PC User ist, optimized Setttings nutzen. Ist zwar nett, dass CB und PCGH Max Settings nutzen, so, zocke ich aber schon seit 4 Jahren nicht mehr.
Texturen willst du in den meisten Spielen nicht runterstellen, da die Konsolen dank ihres Unified Memory und SSD-Streamings in der Regel die höchste Stufe nutzen und alles darunter mies aussieht.
Der_Korken
2025-03-05, 15:45:11
Verstehe das Fazit nicht ganz. Der einzige Grund, warum die Karten gut sind, ist, weil sie billig sind und effizient sind die auch geworden. Aber der wichtigste Aspekt, Performance, wird nicht gewürdigt, man ist gerade mal auf 5070TI-Niveau. Ich finde, um wirklich ein positives Gesamtfazit ziehen zu können, hätte man zumindest den alten Highendvorgänger schlagen müssen und man hätte die 5080 schlagen müssen und vllt. irgendwo kurz hinter der 4090 landen.
Wie schon irgendwo im anderen Thread jemand schrieb: Der Preis ist immer ein Argument. Ansonsten wäre jede 5000er außer der 5090 auch eine Enttäuschung, weil es die Performance ja schon vorher in Form der 4090 gab. Es ist ja auch nicht so, als würde AMD die Karte verramschen: Der Chip ist kleiner als in der 5080/5070Ti und man verbaut günstigeren Speicher, d.h. AMD kann auch zu niedrigeren Preisen als die 5070Ti noch wirtschaftlich agieren.
Zur Karte selbst: Liegt im großen und ganzen im Rahmen, was man zuletzt vermutet hat. Bei RT hätte ich mir tatsächlich auch noch ein klein wenig mehr Bums gewüscht. Bei PT würde mich mal interessieren, ob da noch softwareseitig was zu holen ist, denn die alte 7900XTX wird bei PCGH je nach PT-Bench schon ordentlich verhauen und trotzdem reicht es nicht immer für die 5070 ohne Ti.
Die Sauferei im Idle scheint sich zum Glück massiv verbessert zu haben. Ich hoffe das bestätigt sich auch bei 4K240, aber der geringe Dual-Monitor-Verbrauch stimmt mich da eher optimistisch. Das Powertarget geht um 30% nach unten :up: Das reicht mir persönlich mehr als aus, selbst bei einem 330W-BIOS.
Zu FSR4 schreibt CB, dass man sich ungefähr auf DLSS3-Level bewegt. Auch das finde ich absolut solide, wenn man bedenkt von wo FSR3.1 kommt. Zum einen ist AMD damit so dicht an Nvidia drin wie noch nie und zum anderen meckert man hier bei der Bildqualität auf einem immer höheren Niveau, Da muss jeder für sich entscheiden, ob einem das bessere Transformer-Modell von DLSS4 die krassen Nvidia-Aufpreise wert ist - mir persönlich eher nicht.
Ex3cut3r
2025-03-05, 15:47:25
Texturen willst du in den meisten Spielen nicht runterstellen, da die Konsolen dank ihres Unified Memory und SSD-Streamings in der Regel die höchste Stufe nutzen und alles darunter mies aussieht.
Doch, viele Spiele nutzen nur einen Texturen Steaming Pool für die Texturen als Einstellungs Stufe, ob du da High oder Ultra auswählt, die Texturen an sich, sind dieselben. Kann halt nur sein, dass man per Texturen Pop In wahrnimmt.
Lurtz
2025-03-05, 15:50:43
Doch, viele Spiele nutzen nur einen Texturen Steaming Pool für die Texturen als Einstellungs Stufe, ob du da High oder Ultra auswählt, die Texturen an sich, sind dieselben. Kann halt nur sein, dass man per Texturen Pop In wahrnimmt.
Außer idTech fällt mir da kaum eines ein, aber viele wo High zu Ultra schon deutlich abfällt (oder VRAM komplett dynamisch allokiert wird wie zuletzt bei Snowdrop).
Die neuen Karten sind auf jeden Fall ein Schritt in die richtige Richtung, das lässt hoffen für die Zukunft. Der Haben Wollen Reflex ist da, aber von einer 7900 GRE kommend wohl nicht sehr sinnvoll. Warte auf die nächste Generation der CPUs/GPUs von AMD.
Linmoum
2025-03-05, 15:56:24
Sehr schöne Karten für alle, die nur Raster-Performance wollen. Dazu erfreulich hohe Effizienz und auch entsprechende Verbesserungen bzgl. Idle/Teillast.
Unter Berücksichtigung von RT/PT ist das aber schon wieder eher wenig begeisternd. Ja, im Vergleich zu RDNA3 hat man hier einen schönen Sprung nach vorne gemacht. Aber bei PT nicht einmal an einer 5070 vorbeizukommen, ist schon ziemlich unterwältigend. Wir haben 2025, langsam gibt's für diese Stiefmütterlichkeit auch keine logischen Erklärungen mehr.
Was HWUB sagt, würde ich daher mit Blick auf alle Aspekte auch unterschreiben: Preis trotz allem zu hoch, müssten eigentlich (mindestens) $50 runter.
So, wie AMD die Karten (preislich) am Markt platziert, dürfte das an Marktanteile aber wenig ändern. Leider.
Lawmachine79
2025-03-05, 15:58:47
Sehr schöne Karten für alle, die nur Raster-Performance wollen. Dazu erfreulich hohe Effizienz und auch entsprechende Verbesserungen bzgl. Idle/Teillast.
Unter Berücksichtigung von RT/PT ist das aber schon wieder eher wenig begeisternd. Ja, im Vergleich zu RDNA3 hat man hier einen schönen Sprung nach vorne gemacht. Aber bei PT nicht einmal an einer 5070 vorbeizukommen, ist schon ziemlich unterwältigend. Wir haben 2025, langsam gibt's für diese Stiefmütterlichkeit auch keine logischen Erklärungen mehr.
Was HWUB sagt, würde ich daher mit Blick auf alle Aspekte auch unterschreiben: Preis trotz allem zu hoch, müssten eigentlich (mindestens) $50 runter.
So, wie AMD die Karten (preislich) am Markt platziert, dürfte das an Marktanteile aber wenig ändern. Leider.
Naja, aber die AMD-Karten sind verfügbar. Wäre die 5070TI/5070 verfügbar, müssten man mit den Preisen runter, nach dem man solange hinterher rennt, hat man schon einen gewissen "Malus".
Troyan
2025-03-05, 15:59:36
Woher kommt der Punkt mit der Effizienz? Bei Computerbase ist eine 5070 TI (deutlich) effizienter. Von der eigentlich zu vergleichenden 5080 brauchen wir nicht reden, die ist >20% effizienter.
RDNA 4 zeigt, wieso warten verschwendete Lebenszeit ist. Hätte man vor 12 Monaten sich eine 4070 TI Super gekauft und jeden Tag 1€ weggelegt, hätte man nun noch Geld über. Und seit einem Jahr erheblich mehr Spaß beim Gamen mit DLSS 2 und Reflex.
Nach dem Hype und Hass auf Blackwell, ist das hier genauso schlecht. Bietet RDNA 4 eigentlich irgendwas, was es noch nicht gibt?
dildo4u
2025-03-05, 16:02:20
Asus lässt 350 Watt zu die Monster Kühler sind nicht umsonst
0eweKFJ-D7U
fizzo
2025-03-05, 16:03:12
Zu FSR4 schreibt CB, dass man sich ungefähr auf DLSS3-Level bewegt. Auch das finde ich absolut solide, wenn man bedenkt von wo FSR3.1 kommt. Zum einen ist AMD damit so dicht an Nvidia drin wie noch nie und zum anderen meckert man hier bei der Bildqualität auf einem immer höheren Niveau, Da muss jeder für sich entscheiden, ob einem das bessere Transformer-Modell von DLSS4 die krassen Nvidia-Aufpreise wert ist - mir persönlich eher nicht.
Mit dieser Bildqualität muss sich FSR 4 auch nicht vor DLSS 4 verstecken. Selbst gegenüber dem neuen und wirklich guten Transformer-Model ist FSR 4 nicht chancenlos.
Schlussendlich sieht die Redaktion DLSS 4 noch als den Gewinner, doch ist der Unterschied wirklich überraschend klein. Gegenüber DLSS 3 geht FSR 4 teils auch als der Gewinner vom Platz.
Klingt doch gut :up:
Der erste Eindruck ist doch sehr positv. Muss noch weiter einlesen:
X 9070 XT Custom-Designs im Test: ASRock Taichi vs. Asus TUF, Sapphire Nitro+/Pure & XFX Mercury (https://www.computerbase.de/artikel/grafikkarten/radeon-rx-9070-xt-custom-design-test.91523/)
maximus_hertus
2025-03-05, 16:03:34
Ich bin beeindruckt. Die 9070 (XT) ist rundum gut bis sehr gut mit nur noch (sehr) wenigen Schwächen.
Sollte eine Basisversion dauerhaft für 699 Euro (oder weniger) lieferbar sein, wäre es imo ein no brainer, so lange die 5070 Ti Karten eher im Bereich von 1000 Euro liegen.
Erst wenn es vernüftige 5070 Ti Karten für rund 850 Euro geben würde, würde ich nicht mehr von einem no brainer reden. Aber ich sehe die 5070 Ti schlicht nicht für 850 Euro, ich denke eher, dass diese dauerhaft bei (deutlich) über 900 Euro verweilen wird.
Und bei der 9070 XT habe ich das Gefühl, dass die meisten Customkarten auch eher im Bereich 750 - 850 Euro liegen werden und damit eher nicht mehr so attraktiv sein würden.
Aber hier müssen wir abwarten, wie sich Verfügbarkeit und Preis entwickeln.
Das Produkt (9070) bietet zumindest alle Möglichkeiten, um wieder eine gewisse Relevanz im GPU Markt zu erreichen. Und das ist doch das, was für uns Kunden am besten ist. Ein echter Kampf und kein quasi Monopol.
Der_Korken
2025-03-05, 16:03:53
Was HWUB sagt, würde ich daher mit Blick auf alle Aspekte auch unterschreiben: Preis trotz allem zu hoch, müssten eigentlich (mindestens) $50 runter.
So, wie AMD die Karten (preislich) am Markt platziert, dürfte das an Marktanteile aber wenig ändern. Leider.
Bisher scheint Nvidia nicht den Eindruck zu vermitteln, dass sie mit der 5000er Serie groß um Kunden werben würden. Solange Nvidia weiterhin zu Apothekenpreisen verkauft und AMD für 700$/€ liefern kann, werden imho diesmal sehr viele zu Team Rot greifen. FSR4 und die bessere RT-Performance heben die 9070XT imho klar von der 7900XT ab, die vorher zu ähnlichen Preisen gehandelt wurde und vorher bereits ein sehr gutes P/L hatte - sofern man mit den RDNA3-Marotten leben konnte. RDNA4 ist keine Überarchitektur, aber Nvidia hat bisher in 2025 leider ziemlich reingeschissen.
Exxtreme
2025-03-05, 16:04:10
Aber bei PT nicht einmal an einer 5070 vorbeizukommen, ist schon ziemlich unterwältigend. Wir haben 2025, langsam gibt's für diese Stiefmütterlichkeit auch keine logischen Erklärungen mehr.
Ich glaube, bei den getesteten "PT-Spielen" hat Nvidia jedes Mal mit eigenem Personal mitgeholfen. Sprich, PT ist derzeit wohl als eine Art Techdemo anzusehen, welche für die eigenen Produkte optimiert wurde. Und ich glaube nicht, dass die Rücksicht auf die Konkurrenz genommen haben.
Wäre interessant wie das bei unabhängigen Spielen aussieht.
aufkrawall
2025-03-05, 16:06:49
Ist mir doch egal? Wenn ich 800€ ausgebe, will ich auch, dass der geilste Scheiß läuft.
Die Karte erscheint halt ok, weil Nvidia massiv verkackt hat und nicht lieferbar ist. Ansonsten dürfte das hier nicht mehr als 600€ kosten. Es war einfach ein lange überfälliger Technologie-Fix.
GerryB
2025-03-05, 16:14:01
@Leonidas
Kann es sein, das eines der üblichen+interessantesten Reviews nicht verlinkt ist?
https://overclocking.com/test-gigabyte-rx-9070-xt-gaming-oc/8/
Tesseract
2025-03-05, 16:15:13
ist zumindest auf einem niveau wo man sie - je nach preis und verfügbarkeit - uninformierten dritten empfehlen kann ohne asterisk mit dreiseitiger erklärung was die vor- und nachteile sind.
@Leonidas
Kann es sein, das eines der üblichen+interessantesten Reviews nicht verlinkt ist?
https://overclocking.com/test-gigabyte-rx-9070-xt-gaming-oc/8/
Warum findest du das erwähnenswert? Weil da FG-Werte drin sind? :confused:
MfG
Raff
Der_Korken
2025-03-05, 16:17:54
@Leonidas
Kann es sein, das eines der üblichen+interessantesten Reviews nicht verlinkt ist?
https://overclocking.com/test-gigabyte-rx-9070-xt-gaming-oc/8/
Wo haben die denn eine 5070Ti FE her? :upara:
Matrix316
2025-03-05, 16:18:56
Ist mir doch egal? Wenn ich 800€ ausgebe, will ich auch, dass der geilste Scheiß läuft.
Die Karte erscheint halt ok, weil Nvidia massiv verkackt hat und nicht lieferbar ist. Ansonsten dürfte das hier nicht mehr als 600€ kosten. Es war einfach ein lange überfälliger Technologie-Fix.
Für 800 bekommst du maximal eine 5060 dann. :freak:
Die Preise sind einfach im Boppes. ~400 Euro sollten die 70er Karten IMO kosten. Aber nicht mehr. Und 600 die 80er und 750 die 90er. Immerhin sind das auch Euro Preise. 800 Euro wären 1600 Mark. Und das für eine Mittelklasse Grafikkarte. Selbst in den 90ern waren die Preise nicht so hoch. Das kam erst mit der Geforce 2 Ultra meine ich.
aufkrawall
2025-03-05, 16:19:12
ist zumindest auf einem niveau wo man sie - je nach preis und verfügbarkeit - uninformierten dritten empfehlen kann ohne asterisk mit dreiseitiger erklärung was die vor- und nachteile sind.
Tja, denkt man. Wenn der Shader Cache immer noch unzuverlässig mit Fortnite ist, wovon auszugehen ist, fällt Radeon da etwa weiterhin komplett raus.
Auch weniger technikaffine Menschen sterben ungerne durch Ruckler.
Zephyroth
2025-03-05, 16:19:20
Ist mir doch egal? Wenn ich 800€ ausgebe, will ich auch, dass der geilste Scheiß läuft.
Die Karte erscheint halt ok, weil Nvidia massiv verkackt hat und nicht lieferbar ist. Ansonsten dürfte das hier nicht mehr als 600€ kosten. Es war einfach ein lange überfälliger Technologie-Fix.
Du kannst mit einem Golf GTI gerne auf die Nordschleife gehen, fahren wird er genauso. Aber der Porsche wird immer deutlich schneller sein und ggf. mehr Freude bereiten.
Grüße,
Zeph
Robbson
2025-03-05, 16:23:18
Woher kommt der Punkt mit der Effizienz? Bei Computerbase ist eine 5070 TI (deutlich) effizienter. Von der eigentlich zu vergleichenden 5080 brauchen wir nicht reden, die ist >20% effizienter.
Die 9070 ist die effizienteste Karte am Markt. Das XT Modell leider nicht.
AMD müsste nur die 9070 verdoppeln und den Takt niedrig lassen, dann wäre man knapp hinter der 5090 mit weniger Verbrauch.
Also den Die vergrößern, 32GB Ram an breiterem Interface... Easy :D
fizzo
2025-03-05, 16:24:10
PCGH - Radeon RX 9070 XT Custom-Modelle im Test (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/2/)
Das die Sapphire Pulse das leiseste Modell ist, überrascht schon. Sollte diese wirklich morgen <700€ erhältlich sein, meine erste Wahl.
Leonidas
2025-03-05, 16:24:39
@Leonidas
Kann es sein, das eines der üblichen+interessantesten Reviews nicht verlinkt ist?
https://overclocking.com/test-gigabyte-rx-9070-xt-gaming-oc/8/
Ich habe garantiert nicht jedes erfasst. Da kommt noch ein Nachschlag. Das von Dir genannte ist dann mit dabei.
DrFreaK666
2025-03-05, 16:24:53
Ist mir doch egal? Wenn ich 800€ ausgebe, will ich auch, dass der geilste Scheiß läuft.
Dann gib halt 800+€ für ne 5070 aus ;D
Linmoum
2025-03-05, 16:25:49
Du kannst mit einem Golf GTI gerne auf die Nordschleife gehen, fahren wird er genauso. Aber der Porsche wird immer deutlich schneller sein und ggf. mehr Freude bereiten.
Grüße,
ZephDie 5070 ein Porsche? Das ist mal ein Autovergleich, der erstaunlich ist. :D Das Ding basiert auf einem deutlich kleineren Chip mit knauserigen 12GiB.
ChaosTM
2025-03-05, 16:27:13
Wenn die 5070er ein Porsche ist, dann wäre die 5090er ein Königsegg :D
aufkrawall
2025-03-05, 16:29:05
Natürlich müsste dann die 5070 Ti für 800€ kaufbar sein, wenn die 9070 XT bei 600 wäre. Das sind eigentlich auch schon absurde Zahlen für so langsame GPUs, aber hier hat offenbar schon ein Gewöhnungseffekt eingesetzt.
Troyan
2025-03-05, 16:33:50
Die 9070 ist die effizienteste Karte am Markt. Das XT Modell leider nicht.
AMD müsste nur die 9070 verdoppeln und den Takt niedrig lassen, dann wäre man knapp hinter der 5090 mit weniger Verbrauch.
Also den Die vergrößern, 32GB Ram an breiterem Interface... Easy :D
9070 taktet deutlich niedriger und liefert deutlich weniger Leistung.
Die 5080 ist z.B. in FF16 20% schneller als die 9070 und verbraucht exakt das selbe bei Computerbase. Die 5070 TI ist in Spider-Man 2 mit RT 45% schneller beim selben Verbrauch (keine Angabe zur 5080 vorhanden).
Extrembeispiel ist Warhammer, wo die 5080 337W benötigt. Dort liefert die Karte 67% mehr Leistung bei 53% mehr Stromverbrauch zur 9070.
Also RNDA 4 ist null effizient.
/edit: In Warhammer ist die 5090 exakt genauso effizient wie die 9070. Und das mir 3x mehr Bandbreite und doppelten Speicher.
The_Invisible
2025-03-05, 16:33:55
Das Beste ist wohl FSR4, hört sich wirklich gut an, wobei da jetzt plötzlich nicht mehr hingewiesen wird das es proprietär und somit böse ist, aber gut ;) Ansonsten hätte ich mir RT/PT doch mehr erwartet, ist zwar ein guter Jump nach oben aber bei heavy RT/PT bleibt doch wieder nur NV über.
Die 9070 ist die effizienteste Karte am Markt. Das XT Modell leider nicht.
AMD müsste nur die 9070 verdoppeln und den Takt niedrig lassen, dann wäre man knapp hinter der 5090 mit weniger Verbrauch.
Also den Die vergrößern, 32GB Ram an breiterem Interface... Easy :D
Das würde sich Nvidia wohl auch wünschen das einfach alles 1:1 linear skaliert ;)
ChaosTM
2025-03-05, 16:36:11
Extrembeispiel ist Warhammer, wo die 5080 337W benötigt. Dort liefert die Karte 67% mehr Leistung bei 53% mehr Stromverbrauch zur 9070.
Komisch, dass du gerade einen der 2 negativen Ausreißer nach unten gewählt hast.. :rolleyes:
fizzo
2025-03-05, 16:36:18
Also RNDA 4 ist null effizient.
:ugly:
Energieeffizienz in FPS pro Watt - neue Referenz:
link (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_energieeffizienz_in_fps_pro_watt)
Hakim
2025-03-05, 16:38:19
Die Karten sind schon sehr Ordentlich, sehr erfreulich das AMD endlich auch an der B-Note was getan hat. Raster wie erwartet, bei RT je nachdem mal Ordentlich und mal schwächer, bei vollen RT wie bei BM Wukong, geht es schon ordentlich in die Knie im Vergleich zu den GFs.
Colin MacLaren
2025-03-05, 16:41:07
Die Daten sind wirklich beeindruckend. Wenn es Eine gute Custom für sagen wir 750 € gibt, dann bin ich echt am Überlegen. Die 5090 ist eine geile Karte, aber nicht das Vierfache wert. Dann könnte ich warten bis die Preise sinken oder das gesparte Geld in etwas anderes sinnvolles investieren.
nairune
2025-03-05, 16:42:10
Die XT ist halt schon ein wenig geprügelt. Ich werde die schön etwas einbremsen, dann wird die Effizienz sehr gut aussehen, so viel kann man von den Teillastverbräuchen und der non-XT bereits ableiten.
Die XT ist halt schon ein wenig geprügelt. Ich werde die schön etwas einbremsen, dann wird die Effizienz sehr gut aussehen, so viel kann man von den Teillastverbräuchen und der non-XT bereits ableiten.
Hier kannst du noch deutlich mehr ablesen: Undervolting & Overclocking (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3) :up:
Zum Tunen ist die XT auf jeden Fall das dankbarere Objekt.
MfG
Raff
Redneck
2025-03-05, 16:46:43
:ugly:
Energieeffizienz in FPS pro Watt - neue Referenz:
link (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_energieeffizienz_in_fps_pro_watt)
Bei Einsatz von einem Framelimiter.... sollte dazu gesagt werden.
Dann , O-Ton CB, dreht RDNA Kreise in Sachen Effizienz.. und das nicht nur um Blackwell.
Finde ich jut..
mczak
2025-03-05, 16:50:27
:ugly:
Energieeffizienz in FPS pro Watt - neue Referenz:
link (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_energieeffizienz_in_fps_pro_watt)
Die Grafik ist schon krass, aber zeigt natürlich nicht wirklich wie effizient die Architektur an sich ist. Nur dass man das runtertaken bei Teillast sehr gut im Griff hat - womöglich geht da Nvidia bei Takt / Spannung einfach nicht so weit runter. Ist aber trotzdem schön zu sehen dass auch solche "Details" gut umgesetzt sind.
Tegenarian
2025-03-05, 16:59:46
Ich konnte bisher nur querlesen: Gibt es irgendwo ein Blender-Benchmark test? Auf deren Testseite taucht nichts auf.
maximus_hertus
2025-03-05, 17:04:15
Von der eigentlich zu vergleichenden 5080 brauchen wir nicht reden,
Das kapiere ich nicht. AMD sagt an, dass sie ihr NAmensscheme (mal wieder) nagepasst haben und nun das gleiche wie nVidia nutzen. Ergo ist die 9070er das Equivalent zur 5070er RTX Klasse. Wie kommt man darauf, dass man mit der 5080 vergleichen müsste?
Vielleicht muss man es nochmal deutlich sagen: AMD ist nicht besser als die RTX 5000 Karten. Eine 5070 Ti ist immer noch das bessere Paket im Verlgeich zu jeder 9070 Karte. Wenn, ja wenn es keine Preise geben würde.
Es bleibt abzuwarten, wie sich die Straßenpreise hüben wie drüben entwickeln.
Bei 200 Euro Preisdifferenz zwischen der 9070 XT und der 5070 Ti sehe ich nciht viele Gründe, die für eine 5070 Ti sprechen. Besseres Gesamtpaket, ja. Aber nicht 200 Euro besser.
Bei 150 Euro PReisdifferenz wird es interessant. Hier könnte ich dann schon sehen, dass der MEhrpreis das "mehr" , was man bei der RTX bekommt, rechtfertigt.
Bei z.B. nur 100 Euro Aufpreis wäre eine 5070 Ti der wahrscheinlich bessere Deal.
Stand jetzt sieht es sogar so aus, dass die Custom Vanilla 5070 12GB Karten teurer sein werden als die 9070 XT. Und hier (5070 12GB vs 9070 XT) gibt es kein Duell, da die 5070 schon direkt am Start verloren hat (12 GB im Jahre 2025....).
Aber nochmals zur Eingangsfrage, warum muss man die 9070 mit der 5080 vergleichen?
Elite_Warrior
2025-03-05, 17:08:02
Sehr schön, gut gelungen das Ganze! Denke ne 9070 (non-xt) Pulse wird meine 6700 XT ersetzen. Dann noch etwas UV + dem verbesserten Videoprozessor und es geht richtig effizient mit meinem Dual Monitor Setup :smile:
Danke an PCGH fürs Testen der verschiedenen Modelle :up: Raffs Video war auch ganz gut, inklusive dem 9070 "XTX" :biggrin:
Schnitzl
2025-03-05, 17:09:08
-30% PT im Treiber ... endlich :freak:
/EDIT: und endlich das Idle-Verbrauchsthema gelöst, ja iss heute schon Weihnachten? ;D
Bei CP77 mit RT Faktor 2 zur 7800/6800XT - sehr schön.
Das ist der Weg. Weiter so AMD.
Freestaler
2025-03-05, 17:14:28
Ich nehme an, PT wird sich als bald mit extratools auch wieder frei wählen lassen. Weiss da bereits einer was a la more power tools?
Sehr schön, dann weiß ich schon was ich morgen kurz vor 15:00 Uhr mache.
Die XFX Karten kann ich schon mal streichen, da diese anscheinend durch Ihre besondere Lautstärke glänzen.
ASRock: Suche Tests/Reviews
AMD Radeon™ RX 9070 XT Steel Legend Dark 16GB
AMD Radeon™ RX 9070 XT Steel Legend 16GB
Powercolor: Suche Tests/Reviews
Hellhound AMD Radeon™ RX 9070 XT 16GB GDDR6
Hellhound Spectral White AMD Radeon™ RX 9070 XT 16GB GDDR6
Reaper AMD Radeon™ RX 9070 XT 16GB GDDR6
Sapphire:
PULSE AMD Radeon™ RX 9070 XT GPU
PURE AMD Radeon™ RX 9070 XT GPU 317 W
Matrix316
2025-03-05, 17:17:27
Zwei 9070 im Crossfire wäre schon ziemlich schnell und verbrauchen gar nicht so viel. Kann man das nicht wieder einführen? Mit AI am besten?
ASRock: Suche Tests/Reviews
AMD Radeon™ RX 9070 XT Steel Legend Dark 16GB
AMD Radeon™ RX 9070 XT Steel Legend 16GB
Ist die Taichi nichts für dich? Hier gibt’s erste Messwerte: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/2/#a6
Das ist auch die(selbe) Karte, welche in den PCGH-Tests maximal aufgedonnert eine "Radeon RX 9070 XTX" mimt. :)
MfG
Raff
x-force
2025-03-05, 17:28:47
ich verstehe nicht, weshalb amd nicht mehr auf pt leistung gesetzt hat.
es ist klar wohin die reise geht und gerade dort ist man wieder nicht auf augenhöhe, zumindest wenn der gegner wie postuliert 5070ti sein soll.
realistisch ist es eine alternative zur 5070, jedoch selbst da leider kein nobrainer, denn die gleiche leistung wird mit mindestens 80w aufpreis erkauft.
@raff
9070xt max oc vs 5070 max oc wäre nun interessant :)
Ein Transistorbudget ist, wie Arbeitszeit pro Tag (16 Stunden ;)) begrenzt. Begrenzter denn je. Da muss man als GPU-Team Prioritäten setzen. Ein Chip für die Masse kann nicht das "Endziel der Grafik" im Fokus haben - wenn, dann ist das etwas für 800-mm²-Trümmer, die dann entsprechend 3.000 Euro kosten (hat da jemand Titan V gesagt?).
MfG
Raff
ChaosTM
2025-03-05, 17:31:26
Zwei 9070 im Crossfire wäre schon ziemlich schnell und verbrauchen gar nicht so viel. Kann man das nicht wieder einführen? Mit AI am besten?
Im Nachhinein schade, dass AMD das Oberste Segment vorübergehend verlassen hat.
Bei der nächsten Generation erwarte ich sie aber wieder zurück.
Noch etwas an PT schrauben und wir könnten wieder High End Duelle halbwegs auf Augenhöhe erleben. Wäre nett..
Ist die Taichi nichts für dich? Hier gibt’s erste Messwerte: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Specials/Custom-Designs-Hands-on-Test-1467296/2/#a6
Das ist auch die(selbe) Karte, welche in den PCGH-Tests maximal aufgedonnert eine "Radeon RX 9070 XTX" mimt. :)
MfG
Raff
Mein Fokus liegt auf die von mir aufgelisteten Karten welche alle ein 2× 8 Stromzufuhr besitzen.
Edit:
Aber ja die Taichi ist auch nice, da sollte dann auch eine Steel Legend gut sein.
Rabiata
2025-03-05, 17:40:15
Ein Transistorbudget ist, wie Arbeitszeit pro Tag (16 Stunden ;)) begrenzt. Begrenzter denn je. Da muss man als GPU-Team Prioritäten setzen. Ein Chip für die Masse kann nicht das "Endziel der Grafik" im Fokus haben - wenn, dann ist das etwas für 800-mm²-Trümmer, die dann entsprechend 3.000 Euro kosten (hat da jemand Titan V gesagt?).
MfG
Raff
Hier sagt jemand RTX 5090. Die fängt auf Geizhals bei 3299,- Euro an.
Was ich sehr positiv finde ist der Spielraum beim Senken des Powertargets. AMD scheint auf mich gehört zu haben :freak:
Hakim
2025-03-05, 17:41:00
Ich könnte es ja mit 3 x 8Pin betreiben, aber da ich die Power sowieso auf ~270W begrenzen will ist es mir eigentlich egal, ob zwei oder drei Anschlüsse.
Matrix316
2025-03-05, 17:50:48
Im Nachhinein schade, dass AMD das Oberste Segment vorübergehend verlassen hat.
Bei der nächsten Generation erwarte ich sie aber wieder zurück.
Noch etwas an PT schrauben und wir könnten wieder High End Duelle halbwegs auf Augenhöhe erleben. Wäre nett..
Eigentlich wäre es ja einfach, wenn die so ein Interface wie Apple hätten, wo man einfach zwei 9070 Chips aneinanderklebt und dann einen 9070 MAX oder Ultra Chip hätte. ;) Das würde sich bestimmt auch gut kühlen lassen noch, bei nur 440 Watt was das verbrauchen würde.
@Leonidas
Kann es sein, das eines der üblichen+interessantesten Reviews nicht verlinkt ist?
https://overclocking.com/test-gigabyte-rx-9070-xt-gaming-oc/8/
Sehe ich dies richtig, dass auch eine 4090 verhauen wird?
Prinzenrolle
2025-03-05, 18:02:08
PCGH hat wirklich von allen Reviews die mit Abstand besten Rasterergebnisse für die Radeon.
Die Custom Preise sind natürlich wieder eine absolute Unverschämtheit.
r3ptil3
2025-03-05, 18:03:08
Erster vernünftiger GPU-Launch dieses Jahr.
Muss aber gestehen, dass mir die RX 9070 fast noch interessanter vorkommt als das XT-Modell.
Vielleicht tausche ich meine RTX 4090, einfach weil mir eine Nvidia-GPU mittlerweile fast schon unwohl ist im System.
AffenJack
2025-03-05, 18:04:41
Die Daten sind wirklich beeindruckend. Wenn es Eine gute Custom für sagen wir 750 € gibt, dann bin ich echt am Überlegen. Die 5090 ist eine geile Karte, aber nicht das Vierfache wert. Dann könnte ich warten bis die Preise sinken oder das gesparte Geld in etwas anderes sinnvolles investieren.
Die Karten sind sehr gut, aber gerade der Punkt macht mir Kopfschmerzen. Das wirkt erstmal sehr nach Fake UVP wie bei Nvidia. Die Customkarten haben UVPs mit größeren Preisunterschieden, als es jemals bei AMD gab. Ich hab arge Zweifel, wieviel die Hersteller von den günstigen Karten nach dem initialen Start wirklich produzieren werden. Für 850€ wie Asus ist das dann nicht mehr so toll.
Linmoum
2025-03-05, 18:10:16
Die Karten sind sehr gut, aber gerade der Punkt macht mir Kopfschmerzen. Das wirkt erstmal sehr nach Fake UVP wie bei Nvidia. Die Customkarten haben UVPs mit größeren Preisunterschieden, als es jemals bei AMD gab. Ich hab arge Zweifel, wieviel die Hersteller von den günstigen Karten nach dem initialen Start wirklich produzieren werden. Für 850€ wie Asus ist das dann nicht mehr so toll.HWUB war es glaube ich die meinten, dass AMD die UVP subventioniert.
USS-VOYAGER
2025-03-05, 18:11:40
Ich glaub meine 6800XT bleibt noch eine weile im Rechner... Für 700 Tacken ist mir das zu wenig bzw. zu teuer...
woodsdog
2025-03-05, 18:12:52
natürlich werden die Hersteller da in den Topf greifen. Am Ende kosten die Roten Karten wieder nur knapp weniger als das NV Produkt und AMD ist der Gelackmeierte.
Gier frisst Hirn
AffenJack
2025-03-05, 18:13:10
HWUB war es glaube ich die meinten, dass AMD die UVP subventioniert.
Das werden die dann aber nur ne begrenzte Zeit machen. Mag sein, dass das der Grund für MLID Meldung war, dass ab April die Preise hoch gehen. Während man gerade konkurrenzlos wäre, wird es bei den Customs schwieriger, wenn sich Nvs Liefersituation mal ändert. Dann wird es interessant, wie sich das ganze stabilisiert.
Linmoum
2025-03-05, 18:21:11
Das werden die dann aber nur ne begrenzte Zeit machen. Mag sein, dass das der Grund für MLID Meldung war, dass ab April die Preise hoch gehen. Während man gerade konkurrenzlos wäre, wird es bei den Customs schwieriger, wenn sich Nvs Liefersituation mal ändert. Dann wird es interessant, wie sich das ganze stabilisiert.
Finally, we have some concerns about how "real" the $600 MSRP actually is. After some investigation, it appears that AMD is providing retailers with a $50 rebate to achieve the $600 pricing. This strongly suggests the intended MSRP was actually $650, and AMD is temporarily subsidizing models to hit the lower price point.
For example, XFX confirmed that the 9070 XT Mercury – a model featured in this review – will not cost $650. In fact, it won't even cost $700. Instead, the official MSRP is $770, and due to tariffs, its on-shelf price is expected to be $850 – which would be tragic if true.
From what we've gathered, it seems AMD is starting to play Nvidia's pricing game. This means that while some 9070 XT models may be available at $600 initially, most will likely be priced higher, and restocks at that price may be limited or infrequent.
https://www.techspot.com/review/2961-amd-radeon-9070-xt/
Am Ende hängt es dann logischerweise davon ab, wie gut sich die Karten verkaufen. Preis hochhalten wie bei Nvidia wird bei AMD nicht funktionieren, wenn die Nachfrage sinkt.
woodsdog
2025-03-05, 18:21:27
350W mit realer Gaminglast auf den Custom XTs ist für das Gebotene auch nur so La La.
Teillast Effizient aber wann kommt das vor, wie relevant soll das sein? idle UHD 120Hz bei >20 OK i guess.
Die Karten müssen locker 20% vom befürchteten Preis abgeben sonst überzeugt man da keine Wechsel.
FSR4 sieht auf jeden Fall spannend aus, ich freu mich auf Detailanalysen.
GerryB
2025-03-05, 18:26:27
Warum findest du das erwähnenswert? Weil da FG-Werte drin sind?
Ich persönlich bin nicht so empfindlich, was Upscaler@4k angeht.
Insofern ist FSR3/4-Perf. + FG schon ideal für 24/7.
(gerade im Hochsommer)
Eigentlich muss nur der Moni auch bei GtG schnell genug sein, damits nicht so ghostet.
Prinzenrolle
2025-03-05, 18:27:14
Die Energieeffizienz der Nitro liegt auf dem Niveau der 7900XTX.
https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-nitro/42.html
Colin MacLaren
2025-03-05, 18:28:57
Gegen DLSS Transformer kann FSR4 aber leider nicht anstinken.
https://www.youtube.com/watch?v=nzomNQaPFSk
AffenJack
2025-03-05, 18:30:30
https://www.techspot.com/review/2961-amd-radeon-9070-xt/
Am Ende hängt es dann logischerweise davon ab, wie gut sich die Karten verkaufen. Preis hochhalten wie bei Nvidia wird bei AMD nicht funktionieren, wenn die Nachfrage sinkt.
Wenn das so kommt, dann ist das genauso ernüchternd wie die 5000er Serie, nur dass man im Gegensatz zu Nvidia ein cleveres Marketing hatte, dass das gut verschleiert hätte.
fizzo
2025-03-05, 18:42:36
https://www.techspot.com/review/2961-amd-radeon-9070-xt/
Am Ende hängt es dann logischerweise davon ab, wie gut sich die Karten verkaufen. Preis hochhalten wie bei Nvidia wird bei AMD nicht funktionieren, wenn die Nachfrage sinkt.
Da muss man sich keine Sorgen um AMD machen. Die 9070XT ist in der Produktion günstiger wie eine 5070TI. Die Margen von NV kennen wir ja, da ist noch viel Luft. Wenn man eine 7900XT kostendeckend um 650€ verkaufen konnte, sehe ich da kein Grund warum dies nicht bei der 9000er Serie gehen sollte. Diese wurde ja gerade auf Kostenminmierung hin getrimmt.
Hakim
2025-03-05, 18:52:52
Wieso sind die Energie Werte bei Hardware Unboxed komplett anders? Offensichtlich wurde das Gesamtsystem gemessen, aber wie kann es sein das im Gegensatz zu den reinen Grafikkarte das Gesamtsystem 80W mehr schluckt als z.B bei der 5070Ti?
blaidd
2025-03-05, 18:57:17
Ich hab vorhin mal gecheckt, weil mir der Deutschland-Aufschlag relativ hoch vorgekommen ist...
Ist er eigentlich gar nicht. 599 Dollar plus 19 % Mehrwertsteuer wären 712,81 Dollar.
Allerdings schmiert der Dollar seit Monaten ab (https://www.tagesschau.de/wirtschaft/boersenkurse/eu0009652759-25108390/) (bzw. der Euro wird im Verhältnis stärker). Wenn man den aktuellen Kurs berücksichtigt, landet man ausgehend von 712,81 Dollar bei 662,91 Euro. Und es gibt wohl kaum Customs zu dem Preis.
basix
2025-03-05, 19:01:49
Ich konnte bisher nur querlesen: Gibt es irgendwo ein Blender-Benchmark test? Auf deren Testseite taucht nichts auf.
Gibt es bei TPU: (Momentan) keine Verbesserung zu RDNA3
https://www.techpowerup.com/review/sapphire-radeon-rx-9070-xt-nitro/38.html
Robbson
2025-03-05, 19:06:27
natürlich werden die Hersteller da in den Topf greifen. Am Ende kosten die Roten Karten wieder nur knapp weniger als das NV Produkt und AMD ist der Gelackmeierte.
Gier frisst Hirn
Dann legt AMD das nächste Mal wieder Referenzmodelle auf und verkauft die im eigenen Shop zum UVP...
mczak
2025-03-05, 19:06:53
Ein Transistorbudget ist, wie Arbeitszeit pro Tag (16 Stunden ;)) begrenzt. Begrenzter denn je. Da muss man als GPU-Team Prioritäten setzen
Wobei wenn man von Transistorbudget spricht - rein von den Chips her müsste sich eine 9070 XT schon den Vergleich mit einer 5800 XT gefallen lassen wenn man die Architekturen vergleichen will. Geht man davon aus dass N4P 5% dichter gepackt ist als 4N (was ja 5nm sein soll, und das ist die Angabe von TSMC für die Packdichte von N4P gegen N5) wären GB203 und N48 ziemlich genau gleich gross (ich lasse jetzt mal die viel höhere Transistorzahl von N48 ausser acht, andere Zählweise, bessere Implementierung...).
Dazu sollte N4P auch noch Vorteile bei der Performance (bzw. Perf/W) haben, selbst wenn man das nicht berücksichtigt sieht es für RDNA4 nicht so rosig aus - da wäre man dann bei etwa 20% architekturbedingtem Rückstand in Rasterperformance, und deutlich mehr bei RT (und AI). Wobei GB203 deutlich mehr Speicherbandbreite hat - ich vermute mal gddr7 SI kostet kaum Fläche, und obwohl man nicht gerade sagen kann dass Blackwell allzu viel mit der höheren Bandbreite anfangen kann würde N48 wohl durchaus schon auch davon profitieren.
Da ist also insgesamt schon noch ein Rückstand auszumachen bei der Architektur von RDNA4 gegenüber Blackwell. Ist aber auch nicht so riesig (weit entfernt vom Rückstand den Intel auch noch mit Battlemage hat).
Für den Endkunden ist das natürlich so direkt am Ende egal - man wird keine RTX 5080 zu Preisen einer 9070 XT sehen, ganz egal wie sich die Preise entwickeln.
fizzo
2025-03-05, 19:12:01
Ich hab vorhin mal gecheckt, weil mir der Deutschland-Aufschlag relativ hoch vorgekommen ist...
Ist er eigentlich gar nicht. 599 Dollar plus 19 % Mehrwertsteuer wären 712,81 Dollar.
Allerdings schmiert der Dollar seit Monaten ab (https://www.tagesschau.de/wirtschaft/boersenkurse/eu0009652759-25108390/) (bzw. der Euro wird im Verhältnis stärker). Wenn man den aktuellen Kurs berücksichtigt, landet man ausgehend von 712,81 Dollar bei 662,91 Euro. Und es gibt wohl kaum Customs zu dem Preis.
Hier mal ein paar UVP’s. PowerColor vermisse ich.
basix
2025-03-05, 19:14:17
Die Sapphire Pulse ist der wohl beste Deal. Der Kühler ist faktisch der selbe wie bei der Pure und richtig leise. Nur schwarz anstatt weiss ;)
kuscheltier
2025-03-05, 19:28:35
Gibt es Tests mit Linux als Betriebssystem?
Ich nutze aktuell eine 3060ti unter Fedora und die Treiber-Einstellungen sind im Gegensatz zu Windows sehr abgespeckt. Wollte wechseln, da AMD Linux angeblich besser unterstützt. Ich finde aber nichts dazu, wie die Treiber/Software und Performance dort aussehen. Also gibts da auch Möglichkeiten für Undervolting und FSR4?!
Badesalz
2025-03-05, 19:38:49
Yep. Falls ihr sehen wollt, was Navi 48 @ knapp 3,3 GHz und mit 720 GByte/s leistet, sie ist in allen Benchmarks als "XTX" enthalten: https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/"Testhandwerklich" ok.
Mediatechnisch gefiel mir das aber NICHT. Warum ist die Stimme so leise? Und warum hab ich das Gefühl, das Video läuft mit 1,1x? (vor allem eben was Sprache angeht...) Muss man auf YT Sendezeit zahlen?
Ich fing schon an mich leicht zu ärgern, denn SONST war das schon ok. Bitte mehr auf sowas achten.
@all
Alle Tester durchweg einfach zufrieden. Weil teilweise auch positiv überrascht :D Die Tests sind in der Prosa positiver als die vom 9800X3D :freak: Wobei grad RT mich selbst auch überraschte. Stellenweise sogar der 5080 auf den Fersen hab ich jetzt tatsächlich nicht erwartet.
Zahlen kann man nicht hinschwätzen ;) aber von der Prosa her... Irgendwie gibts eine Art HandInHand O-Ton :usweet: Ich hab das Gefühl die sind alle wegen Perf/Watt und vor allem Verfügbarkeit und Preise ziemlich stinkig auf die Grünen und wollen die Roten jetzt richtig gut darstellen :tongue:
Dem Markt wirds nicht schaden.
Cubitus
2025-03-05, 19:38:59
Gegen DLSS Transformer kann FSR4 aber leider nicht anstinken.
https://www.youtube.com/watch?v=nzomNQaPFSk
Ja, genau das ist der Punkt, DLSS 4 setzt neue Maßstäbe. Allerdings hat AMD ordentlich aufgeholt. Wenn DLSS 4 nicht verfügbar ist, scheint FSR 4, sofern unterstützt, mittlerweile sogar die bessere Wahl zu sein. Das ist definitiv eine beachtliche Leistung von AMD.
Badesalz
2025-03-05, 19:40:50
Bisschen schade, dass RT dann doch nicht so eingeschlagen ist.
Hätte mir in der Beziehung deutlich mehr erwartet. Schade.Normalerweise findet man dich auch bisschen seltsam und das wäre jetzt ein gute aktuellere Begründung dafür :freak:
edit:
Lawmachine auf der ersten Seite direkt klischeehaft megalustig wie Lawmchine halt :ulol: Ohne Sinn :D
edit2 NOCH BESSER:
Gibt es Tests mit Linux als Betriebssystem? Ich hab 2 Stück Tests mit Linux und unter Linux, aber nicht als Betriebssystem :conf:
Gibt es Tests mit Linux als Betriebssystem?
Ich nutze aktuell eine 3060ti unter Fedora und die Treiber-Einstellungen sind im Gegensatz zu Windows sehr abgespeckt. Wollte wechseln, da AMD Linux angeblich besser unterstützt. Ich finde aber nichts dazu, wie die Treiber/Software und Performance dort aussehen. Also gibts da auch Möglichkeiten für Undervolting und FSR4?!
ich fand erstmal nur die Phoronix-Benchmarks
https://www.phoronix.com/review/amd-radeon-rx9070-linux-compute
Aber ja, mir fehlt auch ein vernünftig aufgepumptes Konfig-Tool von AMD-Karten unter Linux. Da wäre mir sogar Bloatware egal.
AtTheDriveIn
2025-03-05, 19:43:57
Ab wann ist denn Verkaufsstart morgen?
Ab wann ist denn Verkaufsstart morgen?
Bislang war das immer 15 Uhr.
MfG
Raff
Badesalz
2025-03-05, 19:46:10
Das die Sapphire Pulse das leiseste Modell ist, überrascht schon. Sollte diese wirklich morgen <700€ erhältlich sein, meine erste Wahl.Obwohl ich schon in dem anderen Thread shrieb, daß ich keine Pulse mit schlechter Kühlung kenne? ;)
Dino-Fossil
2025-03-05, 19:48:47
Gut gelungene Hardware, FSR 4 scheint auch ein guter Sprung zu sein. Deutlicher Preisvorteil ggü. NVIDIA, aber leider wie eben alle Karten aktuell eigentlich trotzdem zu teuer.
Badesalz
2025-03-05, 19:49:01
350W mit realer Gaminglast auf den Custom XTs ist für das Gebotene auch nur so La La.Weil?
Die Karten müssen locker 20% vom befürchteten Preis abgebenWeil?
Hast du noch mehr steile Thesen? Du, Prinz und aufkrawall seid wirklich das Beste was 3DC an Technik- und Marktanalysten hat. Richtig toll.
edit:
VERSCHRIEBEN
StevenB
2025-03-05, 19:51:42
Leider kein Test zu einer Hellhound XT. Schauen wir mal wie teuer die Arock Taichi wird, sonst wird es erstmal wohl eine Pulse.
Der Preissprung zur Nitro+ scheint mir etwas zu hoch zu sein, wenn man sich den Kühler anschaut. :(
dildo4u
2025-03-05, 20:08:03
Nicht am Netzteil sparen ich würde auf 700 Watt Minimum setzen mher für XT.
https://www.igorslab.de/amd-radeon-9070xt-und-9070-im-test-taktorgie-mit-brechstange-und-zumindest-etwas-vernunft-als-gegenpol/8/
kleeBa
2025-03-05, 20:30:21
Gibt es Tests mit Linux als Betriebssystem?
Ich nutze aktuell eine 3060ti unter Fedora und die Treiber-Einstellungen sind im Gegensatz zu Windows sehr abgespeckt. Wollte wechseln, da AMD Linux angeblich besser unterstützt. Ich finde aber nichts dazu, wie die Treiber/Software und Performance dort aussehen. Also gibts da auch Möglichkeiten für Undervolting und FSR4?!
Als AMD User nutzt man in der Regel unter Linux die Mesa 3D Grafikbibliothek.
Software wie die Adrenalin Edition gibt es dafür nicht. Treiberfeatures wie AFMF gibt es nur unter Windows.
Für OC / UV kann man Tools wie LACT oder CoreCtrl nutzen.
FSR4 muss doch im Spiel integriert sein?
Meine 7900XTX läuft unter Linux (Nobara) jedenfalls runder als unter Windows.
Wiseman
2025-03-05, 20:35:02
Hier kannst du noch deutlich mehr ablesen: Undervolting & Overclocking (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/6/#a3) :up:
Zum Tunen ist die XT auf jeden Fall das dankbarere Objekt.
MfG
Raff
Der Regelbereich des Powerlimits beträgt bei allen uns vorliegenden RX-9000-Grafikkarten -30 bis +10 Prozent
Danke, dass du das neue Power-Limit ausdrücklich erwähnst. War bisher - für mich jedenfalls - völlig unbefriedigend gelöst: Fürs Stromsparen waren -10% PL vorgesehen, fürs Stromverplempern aber +15%. Ich wäre auch mit -20% PL zufrieden gewesen, aber -30% übertrifft alle Erwartungen. Gut gemacht, AMD. :up:
So etwas muss belohnt werden :biggrin:. Ich werde eine flüsterleise 9070XT, die laut heutigen Tests einer 7900XTX leistungsmäßig ebenbürtig ist, in Bälde mein Eigen nennen. Ich freue mich schon darauf, den Stromverbrauch weiter reduzieren zu können. Meine 7900XTX betrieb ich mit max 312W. Die 9070XT möchte ich mit ... sagen wir mal max 220W betreiben.
Linmoum
2025-03-05, 20:39:37
Irgendwie frag ich mich ja, was Sapphire da bei der Nitro+ angestellt hat. Nahezu identischer Verbrauch vs. Q-Bios der Taichi, größerer Kühler, über 400g schwerer - und trotz allem sowohl etwas lauter als auch mit leicht höheren Temperaturen.
crux2005
2025-03-05, 20:45:37
Bei den Endpreisen sehe ich nicht unbedingt steigende Marktanteile für AMD.
dildo4u
2025-03-05, 20:49:18
Bei den Endpreisen sehe ich nicht unbedingt steigende Marktanteile für AMD.
Der Markt reguliert den Preis AMD wollte 900€ für 7900XT war später 700€.
fizzo
2025-03-05, 20:50:54
Bei den Endpreisen sehe ich nicht unbedingt steigende Marktanteile für AMD.
Da AMD alleine mehr 9070XT als NV komplett Modelle der 5000er Serie ausgeliefert hat, wird das zwangsläufig passieren.
Grafikkarten-Absatz: Nvidia verliert erstmals wieder Anteile an AMD und Intel (https://www.computerbase.de/news/grafikkarten/grafikkarten-absatz-nvidia-verliert-erstmals-wieder-anteile-an-amd-und-intel.91658/)
Oranje7
2025-03-05, 20:51:35
Ich weis klingt absolut bescheuert, aber anstatt sich über irgendwelche Preise zu echauffieren vielleicht den Marktstart und den 7Tage muss haben aufschlag abwarten?
crux2005
2025-03-05, 20:53:25
Der Markt reguliert den Preis AMD wollte 900€ für 7900XT war später 700€.
Ja, aber wie lange soll ich warten? Und was interessiert mich das wen im März-April keine UVP 9070 XT oder UVP 5070 Ti kaufen kann?
Die Lage wird in DE, USA oder Japan vielleicht anders aussehen.
Edit: Heutiger Newsletter:
https://i.postimg.cc/c02Q69K2/9070d.jpg
Edit2: Der OCUK Besitzer meint die Anzahl an UVP Karten wird limitiert sein.
dildo4u
2025-03-05, 21:01:21
Schätze 3 Monate Vergleichbar mit 9800X3D extreme Nachfrage aber irgendwann ist man bei UVP.
Gute Karten, aber die Customs versauen es immer wieder durch die Preise. Asus Tuf Oced 899€ ...
Eine Nitro würde ich auch nicht kaufen, da kein Bios-Switch. Meine Wahl wäre wahrscheinlich eine Taichi. Sehr leise, viel Potential zwecks UV und OC. Japp, dies wäre die Karte, welche ich kaufen würde!
forenhoernchen
2025-03-05, 21:07:42
Solide Karten, der Preis wird's aber wie immer bestimmen wie erfolgreich die Karten werden.
Wäre echt interessant gewesen wenn AMD das mit dem Multichip Ansatz geschafft hätten, 2x9070 (ohne XT, weil effizienter) wäre ein ziemliches Ausrufezeichen geworden. Aber gut, gibt's nur in ner alternativen Realität ;)
crux2005
2025-03-05, 21:07:48
Schätze 3 Monate Vergleichbar mit 9800X3D extreme Nachfrage aber irgendwann ist man bei UVP.
Hoffe ich mal. Hoffe auch das Alza nicht so scalpen wird wie oben pgs.sk.
Wobei OCUK in deren Forum gemeint hat die MSRP Karten werden limitiert sein. Was auch immer er damit meint.
Shink
2025-03-05, 21:11:28
7Tage muss haben aufschlag abwarten?
Wann hat denn das das letzte Mal funktioniert?
The_Invisible
2025-03-05, 21:12:26
Hier in Österreich kannst schon bestellen :D
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91855&stc=1&d=1741205519
und XT
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91856&stc=1&d=1741205618
FarCry
2025-03-05, 21:29:14
Falls ich morgen eine gute zu einem fairen Preis < 800€ ergattern kann, wird zugeschlagen und die 5080 geht in die Bucht.
Warum willst du dich für 800 Euro verschlechtern?
Er wird die 5080 sicherlich für deutlich mehr als 1000 EUR los.
Lightning
2025-03-05, 21:36:19
[...]Die 9070XT möchte ich mit ... sagen wir mal max 220W betreiben.
Ähnliches überlege ich auch. Ich frage mich nur: Bekommt man mit diesem Ziel mit der 9070 XT noch nennenswert mehr Leistung raus als mit der 9070? Oder doch lieber 60€ sparen?
Master3
2025-03-05, 21:36:25
Geile Karten, aber was geht denn bitte bei den Preisen der Partnerkarten ab? Erst die Kunden heiß machen mit den offiziellen AMD UVPs und dann spucken schonmal die Partner mit Ihren Aufschlägen in die Suppe. Wenn die Händler noch Ihre Aufschläge draufhauen, dann ist die XT schnell im 4 stelligen € Bereich. So wird das aber nix mit Karten für die breite Masse.
So ist eine XT bei mir raus. Ich schau mal was mit der 9070 Pulse passiert mit Ihren 2 Lüfterdesign. Gemäß PCGH super Kühler und hält einfach die Standard Specs ein. Für um die 630€ wäre das ok.
basix
2025-03-05, 21:40:21
Fürs Stromsparen waren -10% PL vorgesehen, fürs Stromverplempern aber +15%. Ich wäre auch mit -20% PL zufrieden gewesen, aber -30% übertrifft alle Erwartungen. Gut gemacht, AMD. :up:
Pfft, bei meiner Nvidia kann ich -98% einstellen :D
Ne, Spass beiseite. -30% sind OK. Für meinen Geschmack etwas zu wenig, weil es an die Custom TGP gekoppelt ist. Bei einer 340W Karte steigt damit die minimale Leistungsaufnahme halt auch.
Also falls man das Minimum sucht, also eine 300W Karte nehmen.
wandermann
2025-03-05, 21:46:45
Also ich komme von der Vega 56 und endlich mal wieder eine verhältnismäßig gute Preis/Leistungskarte ohne große Nebenprobleme. FSR4 sah auch gut verwendbar aus. Hier werde ich definitiv kaufen, wenn man zum UVP auch wirklich kaufen kann.
Jetzt werden erst einmal die Verrückten und Bedürftigen bestellen, im Sommer werden AMD und Nvidia doch wieder ihr ganzes Sortiment liefern können und mit der fallenden Nachfrage im Sommer sehe ich zuversichtlich zum Kauf. Da wegen Nvidia so eine große Grafikkartenarmut vorherrscht, glaube ich nicht, dass die Bestände von AMD ausreichen, da die Karten für den Preis doch attraktiver sind als die überteuerte 5070Ti.
Goser
2025-03-05, 21:53:01
Solange es Leute gibt welche solche Preise zahlen.. mal einfach nicht diese Preise sondern abwarten würde helfen.
Der Markt reguliert sich schon, wenn die Käufer sich mal regulieren würden. Aber das ist heutzutage einfach wohl schon zu viel erwartet befürchte ich.
Wenn sich die Käufer weiter so verhalten, dann bekommen wir nächste Gen ne PS6 für 2000€ zum release und neue Grafikkarten mit 500% Aufschlag.
https://youtu.be/6q3m0ohjI2w
Hier wird aber auch wieder gesagt, daß die AMD Treiber nicht so gut sind wie die von Nvidia. Igor hat hier auch bemängelt, das FSR an einigen Stellen nicht so gut aussieht wie DLSS.
Solange es Leute gibt welche solche Preise zahlen.. mal einfach nicht diese Preise sondern abwarten würde helfen.
Der Markt reguliert sich schon, wenn die Käufer sich mal regulieren würden. Aber das ist heutzutage einfach wohl schon zu viel erwartet befürchte ich.
Wenn sich die Käufer weiter so verhalten, dann bekommen wir nächste Gen ne PS6 für 2000€ zum release und neue Grafikkarten mit 500% Aufschlag.
Warum soll man warten, wenn man es JETZT braucht? Klar, wer in Ruhe abwarten kann, ist im Vorteil. Aber es gibt auch Umstände, wo man nicht warten kann.
wenn ich jetzt dringend eine GPU bräuchte, könnte ich auch eine 6xxx oder 7xxx kaufen. Der Rest ist mMn FOMO (aber auch ich hatte "Kaufwunsch"-Gedanken mit der 9070XT ^^, von daher versteh ich es)
Armaq
2025-03-05, 22:30:01
:ugly:
Energieeffizienz in FPS pro Watt - neue Referenz:
link (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9#abschnitt_energieeffizienz_in_fps_pro_watt)
https://youtu.be/yP0axVHdP-U
Im Gamersnexus Test ist das nicht so. Man findet hier eher unterschiedliche Angaben, sollte aber nicht so sein? Kann es sein, dass die Reviewer ihre aufgemotzten Karten und nicht aufgemotzten Karten vergleichen? Die mit hohem PT sind natürlich schlechter bei der Effizienz.
wenn ich jetzt dringend eine GPU bräuchte, könnte ich auch eine 6xxx oder 7xxx kaufen. Der Rest ist mMn FOMO (aber auch ich hatte "Kaufwunsch"-Gedanken mit der 9070XT ^^, von daher versteh ich es)
Sorry, würdest Du ehrlich jetzt noch in eine über 4,5 Jahre alte GPU neu investieren? Ich nicht, da es keine kluge und nachhaltige Investition ist. Wenn man neu PC-HW kauft, sollte man immer und eher in aktuelle HW investieren. Und hast Du Dir schon mal die aktuellen Gebrauchtpreise bei Nvidia angeschaut ab RTX 30x0 angeschaut, von den 40x0 fange ich erst gar nicht mal an.
Und schon allen wegen Stromverbrauch würde ich jetzt nur in eine 9070 (XT) investieren denn in ollen 6xxx oder den 7900 XT(X), die jetzt noch teurer sind als die 9070er, wenn die Preise in dem Rahmen wie angekündigt bleiben.
Topic: Aber einen Nachteil haben die neuen RDNA4 GPUs, keine :mad: 4:2:2 Hardware-Decoding, so wie sie jetzt Nvidia hat. Ansonsten wäre es jetzt auch für alle Videoschneider eine gute Alternative. Wäre das jetzt wirklich so aufwendig gewesen, daß noch mit reinzubauen? Aber gut, hier versagt die GPU aktuell sowieso total.
Und was ich so beim Überfliegen aller Tests vermisse ist einen Blender Test der 9070 (XT).
Daher mein Fazit: 9070 (XT) bzw. RDNA4 ist die ersehnte Gaming GPU, die auch nur dafür tauglich ist, und Blackwell bleibt die "bessere" Workstation-GPU, mit der man aber auch teilweise besser spielen kann. Und ich bin jetzt auf die realen Straßenpreise wie Verfügbarkeit gespannt.
Es ist alles eine Sache der Technik, die man braucht. Aktuell besitze ich die 6700 XT und nutze lediglich HD-Auflösung in Spielen. Würde die jetzt auf einmal kaputtgehen, würde ich mir keine GPU kaufen, die mehr kostet als meine 6700XT Anno 2021 (die sich eh massiv langweilt).
why_me
2025-03-05, 22:41:23
Irgendwie frag ich mich ja, was Sapphire da bei der Nitro+ angestellt hat. Nahezu identischer Verbrauch vs. Q-Bios der Taichi, größerer Kühler, über 400g schwerer - und trotz allem sowohl etwas lauter als auch mit leicht höheren Temperaturen.
Da wird die schwarze Platte zum Schutz vom Kabel die Kühlung beeinflussen.
Gerade das blow through hinten an der Karte bringt die meiste Kühlung und wird dadurch stark ausgebremst. Verstehe auch nicht, warum man damit so viel Fläche zu baut und nicht Langlöcher in die Platte gemacht hat.
Es ist alles eine Sache der Technik, die man braucht. Aktuell besitze ich die 6700 XT und nutze lediglich HD-Auflösung in Spielen. Würde die jetzt auf einmal kaputtgehen, würde ich mir keine GPU kaufen, die mehr kostet als meine 6700XT Anno 2021 (die sich eh massiv langweilt).
Und wenn Du doch mal Bock auf ein aktuelles Spiel hast? Dann investierst Du hier doppelt, wenn Du dann zuerst zu einer günstigeren GPU greifst, und dann doch eine besser brauchst.
Ich verstehe Deine Argumentation und iwo bewahre will Dir da bestimmt nicht dreinreden in Deinen Entscheidungen, das ist jedem selbst überlassen. Sie hat aber einen großen Haken, Du wirst Dir dann, wenn Du schon von vornherein ein limitiertes System hast, auch wenn Du Lust darauf hättest, jedes aktuelle Spiel unbewußt verweigern, weil es Deine Specs nicht hergeben. Du wirst also immer schon Deine Entscheidungen immer grundsätzlich limitieren, weil dann im Gegenzug immer der Reinvest entgegensteht. Sprich, Du wirst Gamingtechnisch immer auf einem "alten" Level bleiben, oder mit starken Limitierungen und potentieller Spielspaßreduzierung leben müssen.
Wenn Du Dich aber im Gegenzug trotz besserer Hardware selbst limitierst, ja, in diesem Fall lägst Du richtig, es wäre eine "verschwendete" Investition, bis jetzt vielleicht auf die Tatsache, daß die neue Generation relativ zur Deiner aktuellen HW stromsparender, effizienter und leiser agieren würden.
Armaq
2025-03-05, 22:45:16
Die Tests sind ziemlich ungleich. Bei Roman schlägt die 9070XT die 7900XTX teilweise, bei GN so gar nicht. https://youtu.be/6q3m0ohjI2w
Was letzte Datenlage?
Sicher, wenn es ein aktuelles Spiel gibt, das ich auf einmal nicht spielen kann, weil die GPU die Ursache ist, dann habe ich natürlich verloren. Wobei ich auch Cyberpunk 2077 mit meiner R9 380 gespielt habe auf 30fps. Und es sah trotzdem okay aus. Aber da sind meine Vorgaben recht niedrig (y)
Was letzte Datenlage?
Schauen, wer vergleichbare Karten vergleicht. Referenzkarten mit OC-Kloppern zu vermischen ergab nie Sinn und wird nie Sinn ergeben. Äpfel gegen Äpfel ist nur, Baseline-Modelle mit Baseline-Modellen der Mitbewerber zu vergleichen. Du weißt, wo du das kriegst, da bin ich sicher. :biggrin:
MfG
Raff
Armaq
2025-03-05, 22:55:37
Schauen, wer vergleichbare Karten vergleicht. Referenzkarten mit OC-Kloppern zu vermischen ergab nie Sinn und wird nie Sinn ergeben. Äpfel gegen Äpfel ist nur, Baseline-Modelle mit Baseline-Modellen der Mitbewerber zu vergleichen. Du weißt, wo du das kriegst, da bin ich sicher. :biggrin:
MfG
Raff
Das ist durchaus richtig, aber beim Bauer kommt die AMD Gen echt richtig gut weg, wohingegen bei GN es eher unspektakulär wirkt.
Was ja auch sein kann ist, dass bei AMD die Karten an sich einfach breiter streuen und unterschiedlich gut gemacht sind. Ich hab mir das nebenbei reingezogen, vll. bin ich auch zu müde im Moment.
Bei beiden Videos kommt wirklich diametral: Kauf nvidia (GN) vs Kauf AMD (8auer). Beide zeigen das auch anhand ihrer Daten. :freak:
Die Tests sind ziemlich ungleich. Bei Roman schlägt die 9070XT die 7900XTX teilweise, bei GN so gar nicht. https://youtu.be/6q3m0ohjI2w
Wer ist bitte GN? :confused:
Ach der yP0axVHdP-U
Irgendwie ist mir die Performance viel zu inkonsistent. In einigen Games ist die 9070XT auf oder über 7900XTX Level, auch ohne (massiv) RT, in einigen meilenweit dahinter.
Treiber können es ja nicht sein, sollen ja da die besten Release Treiber ever sein. ;)
Duran05
2025-03-05, 23:05:37
Ich bleib bei der 7900XT hängen, bisher scheint es keinen wirklichen Grund da wegzurüsten.
Hätte eher erwartet das die 9070 XT stärker abbaut je höher wir die Auflösungen schrauben da sie weniger Bandbreite hat. In vielen Benchmarks kommt das so nicht rüber.
Also haben Sie da noch anderweitig optimiert.
Oder liegt es einfach nur daran das fast alle Benches mit FSR4 gemacht wurden?
Und langfristig... wenn doch mal die 16 GB knapp werden zieht die ältere Karte halt doch vorbei. Zumal es die in Angeboten um ~630-640 Euro gab. War kein schlechter Deal auch jetzt nicht.
Hätte eher erwartet das die 9070 XT stärker abbaut je höher wir die Auflösungen schrauben da sie weniger Bandbreite hat. In vielen Benchmarks kommt das so nicht rüber.
Also haben Sie da noch anderweitig optimiert.
Richtiger Timestamp verlinkt: https://www.youtube.com/watch?v=JU71t3rmnOs&t=755s
Das dürfte an der neu abgestimmten Mischung aus Cache-Hierarchie, verbesserter Speicherkompression und der flexiblereren Speichernutzung liegen. Ist aber purer Spekulatius, denn einiges hilft eher in Low-Les (weniger Latenz), anderes in Hi-Res. Dennoch beeindruckend, was der "kleine Scheißer" stemmt.
MfG
Raff
Ich bleib bei der 7900XT hängen, bisher scheint es keinen wirklichen Grund da wegzurüsten.
Da hast Du, so wie die RTX 4090, alles richtig gemacht und kannst getrost diese Generation überspringen.
Wenn ich mir diese Werte so anschaue, haben wir grob 20% Unterschied von 9070 zu 9070 XT bei den CUs, RT Ac, AI Ac, Tops, und dazu noch grob 400 MHz mehr Takt und mehr Leistung.
https://scr3.golem.de/screenshots/2502/AMD_Radeon_RX9070/thumb620/Screenshot%202025-02-28%20123426.png
Wenn ich mir bei CB die 9070 als 100% Referenz nehme, komme ich nur auf maximal 113-114% mehr Leistung (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160), aber bei PCGH auf 119-121%, (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/)sprich die erwartete Leistung. Wieso das?
Da hast Du, so wie die RTX 4090, alles richtig gemacht und kannst getrost diese Generation überspringen.
Wenn ich mir diese Werte so anschaue, haben wir grob 20% Unterschied von 9070 zu 9070 XT bei den CUs, RT Ac, AI Ac, Tops, und dazu noch grob 400 MHz mehr Takt und mehr Leistung.
https://scr3.golem.de/screenshots/2502/AMD_Radeon_RX9070/thumb620/Screenshot%202025-02-28%20123426.png
Wenn ich mir bei CB die 9070 als 100% Referenz nehme, komme ich nur auf maximal 113-114% mehr Leistung. Wieso das?
+15 % overall bei PCGH, btw. Skaliert nun mal nicht linear, u. a. wegen identischer Cache- und Speicherleistung. Nur beim Pathtracing (pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/) schlägt die Rohleistung stärker durch (+18 %).
MfG
Raff
horn 12
2025-03-05, 23:15:13
@Raff
Abmessungen der 9070 XT Pulse und hat jene nur 2x 8Pin
aber auch keine RGB Beleuchtung oder etwa doch ?
Soll ja extrem Leise sein, aber auch nur bis 2550 bis 2600 Mhz takten
Da fehlt ja bis zur XFX Mercury ja fast 20% an Taktunterschied, jene 3100+ Mhz
fizzo
2025-03-05, 23:17:12
Da hast Du, so wie die RTX 4090, alles richtig gemacht und kannst getrost diese Generation überspringen.
Wenn ich mir diese Werte so anschaue, haben wir grob 20% Unterschied von 9070 zu 9070 XT bei den CUs, RT Ac, AI Ac, Tops, und dazu noch grob 400 MHz mehr Takt und mehr Leistung.
https://scr3.golem.de/screenshots/2502/AMD_Radeon_RX9070/thumb620/Screenshot%202025-02-28%20123426.png
Wenn ich mir bei CB die 9070 als 100% Referenz nehme, komme ich nur auf maximal 113-114% mehr Leistung (https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-2#abschnitt_performancerating_mit_und_ohne_rt_in_3840__2160), aber bei PCGH auf 119-121%, (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/5/)sprich die erwartete Leistung. Wieso das?
CB hatte eine 245Watt 9070nonXT am Start:
@Raff
Abmessungen der 9070 XT Pulse und hat jene nur 2x 8Pin
aber auch keine RGB Beleuchtung oder etwa doch ?
Soll ja extrem Leise sein, aber auch nur bis 2550 bis 2600 Mhz takten
Da fehlt ja bis zur XFX Mercury ja fast 20% an Taktunterschied, jene 3100+ Mhz
Die Pulse hat keine Beleuchtung, jo. Finde ich gut - auch so Features wie bei Asrock (seit Jahren), dass man die LEDs via Switch ausschalten und die Power für Boost (https://www.youtube.com/watch?v=JU71t3rmnOs&t=383s) nutzen kann. :biggrin:
MfG
Raff
horn 12
2025-03-05, 23:24:05
https://www.youtube.com/watch?v=2nC70KeogRk&t=325s
Gigabyte lernt nie aus
Masse on Paste! Himmel und Hölle und wieder Saulaut in Werkseinstellungen!
Hakim
2025-03-05, 23:24:09
Ehrlich gesagt hab ich etwas Zweifel jetzt, ich war heute eigentlich fest entschlossen Morgen eine zu Kaufen (oder es zumindest zu Versuchen), aber jetzt nach paar Tests bin ich mir nicht ganz so Sicher, gerade der Test bei HWUB hat mir zu gedenken gegeben. Aber ja falls ich doch was in nächste Zeit neu kaufe, wird es eine 9070XT sein, 5070 ist crap und 5070Ti finde ich zu Teuer. Gibt ja sonst nichts.
@Raff, gerade das Spiel fehlt, was mein Sohnemann aktuell am meisten spielt, ist Spiderman 2. Warum taucht das Spiel bei Euch im Test nicht auf? Gibts hier tiefere Gründe?
Hakim
2025-03-05, 23:32:05
@PHuV bei HWUB war zumindest die Remasterd Version vom ersten drin, leider nicht so pralle da glaube ich.
Der_Korken
2025-03-05, 23:42:03
Sorry, ich hätte schwören können, dass ich in diesen Thread gepostet hätte statt in den Speku-Thread:
Gibt es eigentlich gute Reviews von der 9070XT Hellhound? Der Kühler scheint dünner als der von Pulse und Pure zu sein, aber die beiden haben absolut keine Temperaturprobleme und sind bereits super leise. Da letztere aber auch noch no-coilwhine-approved von Raff sind, würde ich die Hellhound ungerne blind kaufen, auch wenn sie vielleicht günstiger sein wird.
Da ich mein Whitebuild gerne ausbauen würde, kommen für mich nur die Pure oder weiße Hellhound in Frage. Die Pure ist im Vergleich zur Pulse schon etwas frech bepreist, aber da weiß ich anhand der Reviews wenigstens was ich kriege. Ich habe noch nie beim ersten Ansturm gekauft, aber ich hab jetzt die ganze RDNA3-Phase ausgesessen und hab so gar kein Bock, dass morgen um 15:05 alles ausverkauft ist für die nächsten 6 Monate :usad:
@Raff, gerade das Spiel fehlt, was mein Sohnemann aktuell am meisten spielt, ist Spiderman 2. Warum taucht das Spiel bei Euch im Test nicht auf? Gibts hier tiefere Gründe?
Yep, zu neu, zu unfertig, zu CPU-lastig für GPU-Tests. Steht aber auf dem Zettel für die Mid-Year-Revision, in der Hoffnung, dass noch 1-2 Patches kommen. :)
Ehrlich gesagt hab ich etwas Zweifel jetzt, ich war heute eigentlich fest entschlossen Morgen eine zu Kaufen (oder es zumindest zu Versuchen), aber jetzt nach paar Tests bin ich mir nicht ganz so Sicher, gerade der Test bei HWUB hat mir zu gedenken gegeben. Aber ja falls ich doch was in nächste Zeit neu kaufe, wird es eine 9070XT sein, 5070 ist crap und 5070Ti finde ich zu Teuer. Gibt ja sonst nichts.
Ich bin weiterhin fest davon überzeugt, dass dich eine 9070 oder XT ausgehend von einer 3060 Ti sehr glücklich machen wird.
MfG
Raff
Hakim
2025-03-05, 23:50:28
@Raff ja mit jeder neuen Karte werde ich auf jeden Fall gut Plus machen, das auf jeden Fall, nach deinem Testvideo war ich mir eigentlich sicher eine 9070XT zu holen, vielleicht hätte ich danach einfach nicht mehr weitere Tests schauen sollen :)
DrFreaK666
2025-03-05, 23:52:39
...Und was ich so beim Überfliegen aller Tests vermisse ist einen Blender Test der 9070 (XT)...
Blender läuft wohl noch nicht.
https://i.postimg.cc/hPjxxssQ/Screenshot-20250305-235115-You-Tube.jpg (https://postimg.cc/6TkyxdDB)
KnL_PtQBGqk
crux2005
2025-03-05, 23:53:14
Ehrlich gesagt hab ich etwas Zweifel jetzt, ich war heute eigentlich fest entschlossen Morgen eine zu Kaufen (oder es zumindest zu Versuchen), aber jetzt nach paar Tests bin ich mir nicht ganz so Sicher, gerade der Test bei HWUB hat mir zu gedenken gegeben. Aber ja falls ich doch was in nächste Zeit neu kaufe, wird es eine 9070XT sein, 5070 ist crap und 5070Ti finde ich zu Teuer. Gibt ja sonst nichts.
Die relativ schwächere UE4/5 Leistung ggü. Blackwell war schon vor Release klar (AMD Benchmarks). HWU bestätigt das nur noch mal. Malt aber kein gutes Bild für die Zukunft.
DrFreaK666
2025-03-05, 23:56:38
Die relativ schwächere UE4/5 Leistung ggü. Blackwell war schon vor Release klar (AMD Benchmarks). HWU bestätigt das nur noch mal. Malt aber kein gutes Bild für die Zukunft.
Wieso nicht?
RDNA4 in PS5 Pro und als Grafikkarten. Grund genug die Engine darauf zu optimieren
Die relativ schwächere UE4/5 Leistung ggü. Blackwell war schon vor Release klar (AMD Benchmarks). HWU bestätigt das nur noch mal. Malt aber kein gutes Bild für die Zukunft.
Welche Spiele oder Tester nähren dieses Gerücht (für mehr halte ich es nicht) denn? Ich sehe hier nichts Schlechtes und schon gar nichts Bedenkliches. Ein Beispiel mit frischer UE5, eines mit alter UE5. €dit: Jetzt noch Raytracing, einmal mit UE5 und einmal mit UE4. Desordre = Hardware-Lumen = die Zukunft.
MfG
Raff
crux2005
2025-03-06, 00:13:18
Wieso nicht?
Weil viele Spiele UE5 + RT benutzen werden.
Wenn ich so was sehe denke ich mir, wieso wird die 5070 so gehated aber 9070 XT ist top?
Klar, weniger VRAM aber sie hat DLSS4 und MFG oben drauf.
https://i.imgur.com/r2Pq378.png
https://www.youtube.com/watch?v=VQB0i0v2mkg&t=1167s
DrFreaK666
2025-03-06, 00:15:52
Weil die 5070 nur 12GB hat? Wird doch ständig in jedem Review wiederholt.
Wie kann man sowas überlesen/überhören?
Außerdem gibt es nicht nur HWU
crux2005
2025-03-06, 00:21:56
Weil die 5070 nur 12GB hat? Wird doch ständig in jedem Review wiederholt.
Wie kann man sowas überlesen/überhören?
Außerdem gibt es nicht nur HWU
Und es gibt nicht nur Indiana Jones and the great circle mit Supreme Texturen.
ChaosTM
2025-03-06, 00:26:32
Weil viele Spiele UE5 + RT benutzen werden.
Wenn ich so was sehe denke ich mir, wieso wird die 5070 so gehated aber 9070 XT ist top?
Klar, weniger VRAM aber sie hat DLSS4 und MFG oben drauf.
Der Schnitt wird wohl durch das desaströse Wukong Ergebnis in den Keller gerissen. Abgesehen von dem Spiel liegen die Karten gut und bei den 1% sogar oft über den NV`s.
Ein Link zum Bild wäre nett gewesen aber Raffs Bilder zeigen die "realen" Ergebnisse :)
DrFreaK666
2025-03-06, 00:26:49
Wo habe ich Indiana Jones erwähnt? Halluzinierst du?
crux2005
2025-03-06, 00:32:36
Wo habe ich Indiana Jones erwähnt? Halluzinierst du?
Wird wohl dein Klon sein:
Absolute Lachnummer
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13719057&postcount=3
DrFreaK666
2025-03-06, 00:36:27
In dieser Diskussion habe ich es aber nicht erwähnt.
Da du HWU aber so sehr hervorhebst.
Deren Meinung zur 5070
However, the RTX 5070 is a poor-value option, offering just 12GB of VRAM, which means we won't recommend it.
https://www.techspot.com/review/2961-amd-radeon-9070-xt/
Wahrscheinlich ist HWU plötzlich wieder scheiße :lol:
horn 12
2025-03-06, 00:43:44
@Wisemann
Extra für Dich :-)
Wird wohl ebenso bei mir nun die
2x 8 Pin
328 mm Länge
54 mm Höhe
sprich Hellhound PowerColor werden
https://www.youtube.com/watch?v=5sMOQY9ZK6M
ashantus
2025-03-06, 01:46:03
ich fand erstmal nur die Phoronix-Benchmarks
https://www.phoronix.com/review/amd-radeon-rx9070-linux-compute
Aber ja, mir fehlt auch ein vernünftig aufgepumptes Konfig-Tool von AMD-Karten unter Linux. Da wäre mir sogar Bloatware egal.
Linux hat noch keinen offiziellen stable treiber für die 9070. Das sagt ja auch phoronix im Vorwort. Daher sind die Werte von Phoronix im Augenblick noch zu wechselhaft. Übrigens finde ich, dass phoronix richtig blöde Spieletitel als Benchmarks nimmt. CB macht manchmal Benches mit Linux. Da wird man aber noch warten müssen auf den stable treiber bevor die das machen.
Slipknot79
2025-03-06, 01:59:29
FSR4 ist also der Grund, warum man keine RDNA4 Karte holen darf. Einfach weil es jedes Pixel verunstaltet wird vs DLSS4 transformer.
Weil Autovergleiche beliebt sind: Du kaufst den Neuwagen RDNA4 und der wird bereits zerkratzt angeliefert. (y) Und dafür auch noch Geld zahlen? Ne. ;)
Wem Geld komischerweise wichtig ist bei einem Hobby, der soll zur 5070Ti grapschen (oder Ada gleich behalten).
Hakim
2025-03-06, 02:16:00
Autovergleiche sind nur gut wenn der Vergleich paßt. Aber DLSS4 vs FSR4 als einen Neuwagen Zerkratzt oder Heile zu vergleichen ist halt sehr sehr Schlecht. Praktisch alles andere wäre besser gewesen, besseres Schaltgetriebe, Federkomfort und und. Falls jemanden das DLSS Transformer sehr wichtig ist, mag das Stimmen, aber es sollte auf das Gesamt Paket inkl. Preis ankommen. Du kaufst ja auch nicht, um bei deinem Autovergleich zu bleiben, ein Auto nur wegen einer einzigen Kriterium wie, Federung ist bei A besser, alles andere interessiert mich nicht mehr.
Für Ada Besitzer lohnt die neue Gen sowieso nicht so Richtig, egal ob AMD oder NVidia.
dildo4u
2025-03-06, 02:27:04
9700 hat den deutlich besser Betriebspunkt mit 250 Watt, hoffentlich regelt sich der Preis mit der Zeit.
vfc3nhus12k
Slipknot79
2025-03-06, 02:39:05
Autovergleiche sind nur gut wenn der Vergleich paßt. Aber DLSS4 vs FSR4 als einen Neuwagen Zerkratzt oder Heile zu vergleichen ist halt sehr sehr Schlecht. Praktisch alles andere wäre besser gewesen, besseres Schaltgetriebe, Federkomfort und und. Falls jemanden das DLSS Transformer sehr wichtig ist, mag das Stimmen, aber es sollte auf das Gesamt Paket inkl. Preis ankommen. Du kaufst ja auch nicht, um bei deinem Autovergleich zu bleiben, ein Auto nur wegen einer einzigen Kriterium wie, Federung ist bei A besser, alles andere interessiert mich nicht mehr.
Für Ada Besitzer lohnt die neue Gen sowieso nicht so Richtig, egal ob AMD oder NVidia.
Der Preis spielt bei einem Hobby überhaupt keine Rolle. Wenn du nen Auto als Hobby kaufst, dann spielt auch hier Geld keine Rolle. Warum auch?
Geld spielt dann eine Rolle, wenn das Auto ein Gebrauchtgegenstand ist. Dann ist es auch interessant, was zB die Reparatur kostet und darüber ärgert man sich dann wieder. Nicht aber wenn es ein Hobby ist. Weil Geld eben keine Rolle spielt bei einem Hobby. (y) Dann ist die Reparatur eine dicke Freude: Wenn zB die Federung kaputt ist, kauft man sich eben eine Sportfederung. Kein Ärger, pure Freude am Hobby.
Um die Schaltung etc ging es nicht bei meinem Autovergleich.
Es wird die Bildqualität FSR4 vs DLSS4 verglichen. FSR4 ist eben ein zerkratztes Auto. Du betrachtest die Grafik auf der Karosserie und stellst fest, dass die geraytracte hood zerkratzt ist.
Hakim
2025-03-06, 02:57:52
wird OT, nur um es vereinfacht auszudrücken, wenn Geld keine Rolle spielt weil Hobby, du gehst doch nicht zu jedem M4 Fahrer rüber und fragst warum er sich kein 911 Turbo S geholt hat, klar spielt es eine Rolle. Das Leben wäre ja einfach wenn es nur eine Lösung für alle gebe, und es ist auch Eigenartig so zu Argumentieren, das was ich Kauf oder Bevorzuge aus Gründen ist das Richtige, alle anderen machen Fehler, merkst du selber oder? Ein Kratzer ist ein Mangel und kein Feature, ich habe das Gefühl ich verschwende gerade meine Zeit lassen wir es lieber :)
Slipknot79
2025-03-06, 03:04:25
Kratzer sind kein Mangel, weil man ja wissend den Schrott in dem Zustand kauft. Es steht ja drauf "FSR4" ;)
Es gibt aber im GPU Markt keine Auswahl: M4, Porsche, etc... Es gibt nur Bugatti Veyron oder Skoda Fabia. ;)
Colin MacLaren
2025-03-06, 04:35:56
Ich hatte jetzt kürzlich Assasin's Creed Mirage einmal auf einer 7900XTX und einmal einer 4080 Mobile am gleichen Monitor gespielt und mich sofort gewundert, warum das auf der AMD so unscharf aussieht. DLSS Transformer ist wirklich gut und ich sehe da Fortschritte bei AMD, aber de facto sehen die Spiele halt leider schlechter aus.
Hinzu kommt, dass es viele Games gibt, die nur FSR2 oder gar kein FSR, wohl aber DLSS unterstützen. Oder sie unterstützen FSR Framegen, aber kein Anti Lag 2. Dann fängt man jedes Mal an mit Optiscaler, fakenvapi, nukems, LukeFSR etc. da dran rumzumodden. Manchmal geht das easy und schnell (Cyberpunk, Robocop) oder es ist katastrophal (RE4-Engine). Das geht mir auf dem Legion Go so auf den Senkel, dass ich überlege, den wieder zu verkaufen. Allein bei Dragon's Dogma 2 hatte ich damals bestimmt 10h reinversenkt, nur um es dann aufzugeben.
Auf der anderen Seite ist z.B. eine 5080 nur 20*% schneller, kostet aber Straßenpreis das Doppelte, eine 5090 ist doppelt so schnell, kostet aber mehr als das Vierfache.
crux2005
2025-03-06, 05:10:05
Ich habe ja befürchtet das es wenige MSRP Karten geben wird:
https://i.imgur.com/cew3NKI.jpeg
https://www.youtube.com/watch?v=huy65HPPLSY&t=596s
ashantus
2025-03-06, 06:10:07
9070XT ultimate wird erwähnt. Hört sich an, als ob es doch noch eine Karte gibt, wo es von den 305Watt auf offizielle 340Watt hochgeht. So wie es bspw. bei der Taichi bereits der Fall ist. Daher wohl die Vorahnung von Raff, die Taichi als 9070XTX zu benennen.
madzapp
2025-03-06, 06:22:15
Bei einer Sapphire soll auch so eine Biosbenennung entdeckt worden sein, aber schon bisschen her..
fizzo
2025-03-06, 06:22:24
UK retailer confirms stock of 1,000 units of a single Radeon RX 9070 XT model at MSRP ( https://videocardz.com/newz/uk-retailer-confirms-stock-of-1000-units-of-a-single-radeon-rx-9070-xt-model-at-msrp)
So schlecht klingt das nicht.
Badesalz
2025-03-06, 06:27:22
@Colin McLaren
Was sind das für Vergleiche? Wer kauft sich eine Spielegraka von über einem bis mehrere k€ und nutzt DLSS4 in P statt Q? Jetzt, wo Q endlich die erste Sprosse Richtung sehr gut betreten hat? Verstehe ich nicht. Du? Wenn denn, dann fährt man das doch in Q und vergleicht es entsprechend mit FSR4-Q? Oder gilt das "immer neusten Scheiß haben will" um alles möglichst nach rechts zu schieben, bis auf die Quali vom Supersampling? :|
Ich find das noch seltsamer als wenn im eigenen HW-Lager alles stimmt und man zufrieden ist und dann trotzdem in anderen HW-Lagern marodiert um klarzumachen wieviel schlechter sie sind.
Spieler = Spielkind oder was bedeutet sowas?
Hier wird aber auch wieder gesagt, daß die AMD Treiber nicht so gut sind wie die von Nvidia. Igor hat hier auch bemängelt, das FSR an einigen Stellen nicht so gut aussieht wie DLSS.Wow. Mega wie du das nach Jahren über Jahre auch mal gecheckt hast. Oder verstanden hast welchen Sprung das für FSR4 bedeutet, wenn es an einigen Stellen nicht so gut aussieht wie DLSS4. Wo FSR3 mehr oder weniger noch als kaum zumutbar galt.
Autovergleiche sind nur gut wenn der Vergleich paßt.Bitte endlich die Umstände berücksichtigen. Slipknot betrachtet Lagen und Situationen für gewöhnlich mit der Blickschärfe, die sein Avatar symbolisiert.
mczak
2025-03-06, 08:06:57
9070XT ultimate wird erwähnt. Hört sich an, als ob es doch noch eine Karte gibt, wo es von den 305Watt auf offizielle 340Watt hochgeht. So wie es bspw. bei der Taichi bereits der Fall ist. Daher wohl die Vorahnung von Raff, die Taichi als 9070XTX zu benennen.
Also ich wüsste nicht wie das gehen soll. Höhere TDP allein bringt sehr wenig, und Undervolting ist zwar toll für Tweaker liegt aber bei Retail-Produkten nicht drin - die Karten laufen ja nicht zum Spass mit "zu hoher" Spannung. Allenfalls mit Binning könnte man da vielleicht schon noch etwas herausholen, so dass die Karte zumindest bei Raster-Performance oberhalb einer 5070 Ti landet, aber bei RT reicht das nie (die Performance würde IMHO tiefer sein als die simulierte XTX bei pcgh, soviel Undervolting wird auch mit Binning nicht drinliegen).
Oder aber der Chip kann doch gddr7...
Badesalz
2025-03-06, 08:11:07
PCGH hat die XTX nur auf dem Papier simuliert? Boah da hab ich mich verschaukeln lassen :ulol: Nicht aufgepasst. Dachte das war eine penibelst-OC XT :usad:
ChaosTM
2025-03-06, 08:15:10
Kommt vielleicht noch offiziell. Wer weiß :)
Raff hatte auch schon eine 5080 Super(glaub ich) dabei. Sneaky..
maximus_hertus
2025-03-06, 08:20:50
PCGH hat die XTX nur auf dem Papier simuliert? Boah da hab ich mich verschaukeln lassen :ulol: Nicht aufgepasst. Dachte das war eine penibelst-OC XT :usad:
Die haben eine Taichi genommen und mit einem mehr an PT, Speichertakt und UV eine potentielle "XTX" mitgbencht. Ergo sind das Werte einer realen Karte, unabhängig, ob sowas mal real auf den Markt kommt.
Eddyk
2025-03-06, 08:48:54
Und wenn Du doch mal Bock auf ein aktuelles Spiel hast? Dann investierst Du hier doppelt, wenn Du dann zuerst zu einer günstigeren GPU greifst, und dann doch eine besser brauchst.
Ich verstehe Deine Argumentation und iwo bewahre will Dir da bestimmt nicht dreinreden in Deinen Entscheidungen, das ist jedem selbst überlassen. Sie hat aber einen großen Haken, Du wirst Dir dann, wenn Du schon von vornherein ein limitiertes System hast, auch wenn Du Lust darauf hättest, jedes aktuelle Spiel unbewußt verweigern, weil es Deine Specs nicht hergeben. Du wirst also immer schon Deine Entscheidungen immer grundsätzlich limitieren, weil dann im Gegenzug immer der Reinvest entgegensteht. Sprich, Du wirst Gamingtechnisch immer auf einem "alten" Level bleiben, oder mit starken Limitierungen und potentieller Spielspaßreduzierung leben müssen.
Wenn Du Dich aber im Gegenzug trotz besserer Hardware selbst limitierst, ja, in diesem Fall lägst Du richtig, es wäre eine "verschwendete" Investition, bis jetzt vielleicht auf die Tatsache, daß die neue Generation relativ zur Deiner aktuellen HW stromsparender, effizienter und leiser agieren würden.
Da merkt man, in welcher Bubble wir hier unterwegs sind.
Ich nutze auch eine 6700xt und konnte das aktuelle Indiana Jones auf Ultra in WQHD durchzocken. 1% lows bei 56 fps. (FSR gab es noch nicht)
Mehr als genug, sicherlich ausreichend für die nächsten 1-2 Jahre.
Wenn man alle Balken rechts haben möchte und die Unterschiede mit Standbildern und Lupen gesucht werden, ist man hier im Thread sowieso falsch.
Zudem bezweifle ich, dass Spiele einem "verweigert" werden weil man eine 6700xt hat. Seltsame Aussage für eine Karte die nicht gerade am VRAM verhungern wird :tongue:
Die 9070/9070xt sind ein hervorragendes upgrade für alle 6700xt Besitzer. Doppelte Raster Leistung, Dreifache Raytracing Leistung, mehr VRAM.
Wenn man sich noch gedulden kann und auf einen Sale wartet nach dem der Hype Staub sich gelegt hat, ist es der perfekte Deal.
Andererseits auf eine 5070 Super mit 18G VRAM 1-2 Jahre warten.
Badesalz
2025-03-06, 08:48:58
Die haben eine Taichi genommen und mit einem mehr an PT, Speichertakt und UV eine potentielle "XTX" mitgbencht. Ergo sind das Werte einer realen Karte, unabhängig, ob sowas mal real auf den Markt kommt.Ha! Mein ich doch :up: Ergibt der Text von mczak dann irgendeinen Sinn? Die pseudo-XTX hat doch soweit gut performt, daß sie auch als echte ein gute Figur machen würde (?) Oder missverstand ich die Ergebnisse?
War die nicht sogar stellenweise, bei RT, in der Sichtweite der 5080? Und streckenweise ordentlich vor der XT? Das wäre noch zu schlecht für eine XTX?
@Eddyk
Das ist keine Bubble, wo man selbst nicht checkt in einer zu schweben. Sowas wird bewusst und gezielt ausgesondert. Meist auch trotz des besseren Wissens. Du weißt welche Sorte von pseudosachlichen Klamauk damit gemeint ist? Wahrscheinlich schon ;)
G3cko
2025-03-06, 08:49:39
Es gibt aber im GPU Markt keine Auswahl: M4, Porsche, etc... Es gibt nur Bugatti Veyron oder Skoda Fabia.
Betrug beim VRAM (GTX970), Betrug bei DX-Level (GTX680), diese Generation abfackelnde Stecker, fehlende ROPs, Proprietäre Lösungen,....
Kauf ruhig dein Premium-Produkt beim Scapler des vertrauens... :wink:
Badesalz
2025-03-06, 08:56:29
Betrug beim VRAM (GTX970), Betrug bei DX-Level (GTX680), diese Generation abfackelnde Stecker, fehlende ROPs, Proprietäre Lösungen,....
Kauf ruhig dein Premium-Produkt beim Scapler des vertrauens... :wink:Gesteuerte Verknappung. Aber das Paradebeispiel der nur teils vergangenen Tage hast du verpasst: Lange vor DLSS selbst entscheiden was man in welcher Quali rendert. Wattebäuschen statt Schnee hatten wir schon, wo sie direkt dabei erwischt wurden.
Und die naiv-ehrlichen Schweine von AMD versuchen immer ALLES so zu rendern wie das Spiel es vorgibt und werden dann von den Hunden gebissen :rolleyes:
G3cko
2025-03-06, 09:04:33
Das waren nur meine persönlichen Highlights. Die Liste ist bei Nvidia ja durchaus lang. ;)
ashantus
2025-03-06, 09:09:19
Das waren nur meine persönlichen Highlights. Die Liste ist bei Nvidia ja durchaus lang. ;)
Nicht zu vergessen die Grafikkarte die er mal bei einer Präsentation hochgehalten hat. Dabei wurde dann doch bekannt, daß der Chip noch nicht mal ein Tape-out für den Prototyp hatte und er irgendeinen uralten Scheiss in der Hand hatte, wissentlich.
madzapp
2025-03-06, 09:18:52
Und die naiv-ehrlichen Schweine von AMD versuchen immer ALLES so zu rendern wie das Spiel es vorgibt und werden dann von den Hunden gebissen :rolleyes:
Nöööö, AMD hat das nur nicht drauf. Deswegen kaufen tolle Menschen auch kein AMD.
Colin MacLaren
2025-03-06, 09:19:57
@Colin McLaren
Was sind das für Vergleiche? Wer kauft sich eine Spielegraka von über einem bis mehrere k€ und nutzt DLSS4 in P statt Q? Jetzt, wo Q endlich die erste Sprosse Richtung sehr gut betreten hat? Verstehe ich nicht. Du?
Keine Ahnung, wovon Du sprichst. Ich benutze schon seit DLSS3 quasi nur Performance, da das dort schon in 4K sehr gut aussah und auch oft notwendig war für ordentliche FPS. Quality habe ich nur für 1080p oder niedriger genutzt. DLSS4 in Performance sieht bessser aus als nativ, da gibt es für mich gar keine Frage, was ich verwende. FSR4 ist ein Riesensprung, aber damit ist AMD halt wieder erst an dem Punkt, wo NVIDIA vor 2 Jahren war. Das heißt nicht, dass die 9070XT für <700 EUR eine sehr kompetitive Karte ist. In einem Pc der ~1.200 EUR-Klasse würde ich die jederzeit empfehlen.
Badesalz
2025-03-06, 09:36:17
Keine Ahnung, wovon Du sprichst. Ich benutze schon seit DLSS3 quasi nur Performance, da das dort schon in 4K sehr gut aussah Ja. Ok. Dann hast du wirklich keine Ahnung wovon ich spreche.
DLSS4 in Performance sieht bessser aus als nativ, da gibt es für mich gar keine Frage, was ich verwende.Das wird langsam wirklich eng ;(
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13717571&postcount=20582
The_Invisible
2025-03-06, 09:53:28
Das wird langsam wirklich eng ;(
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13717571&postcount=20582
Was ist daran so schwer wenn in nativ heute alles flimmert/aliased wie sau. Keine Ahnung was deine Anti-NV Kampagne hier soll in letzter Zeit, würd mal empfehlen das HWU DLSS4 Video anzusehen dann brauchst dich auch nicht unnötig aufregen.
madzapp
2025-03-06, 09:57:06
Nix NV. Anti smear, ghost, blur.
w0mbat
2025-03-06, 09:59:22
Bisher noch keine Karten gelistet, dabei soll in ca. 5 Std. der Verkauf starten. Nach der 5090 FE Enttäuschung hätte ich echt gerne ne 9070 XT Pulse.
Dural
2025-03-06, 10:03:44
Also wenn ich eine 5090 möchte, wäre ich auch glücklich mit einer 9070, nicht.
Ich bin ja schon sehr gespannt wie das heute mit den "mehreren Tausend" Karten abgeht.
Bei den Stückzahlen wird immer gelogen, ob jetzt rauf oder runter sei dahingestellt.
Als Unternehmer würde ich nie Stückzahlen nennen, den man macht sich auch für die Konkurrenz planbarer und vor allem angreifbarer.
mczak
2025-03-06, 10:13:59
Ha! Mein ich doch :up: Ergibt der Text von mczak dann irgendeinen Sinn? Die pseudo-XTX hat doch soweit gut performt, daß sie auch als echte ein gute Figur machen würde (?) Oder missverstand ich die Ergebnisse?
Ja mit "simuliert" meinte ich dass die Karte eben so nicht existiert. Die Ergebnisse sind durchaus real.
Aber da ist eben alles dabei: höhere TDP, Undervolting, Speicher-OC. Höhere TDP wäre kein Problem für eine XTX, bringt aber nicht sonderlich viel. Speicher-OC wird man garantiert nicht fertig vorkonfiguriert sehen (und schnellere gddr6 Chips gibt es nicht). Und Undervolting wird man eben auch nicht sehen - deshalb habe ich ja geschrieben besseres Binning der Chips könnte in dieselbe Richtung gehen, wird aber höchstwahrscheinlich hinter dem was man mit der manuell getweakten XT erreicht zurückbleiben.
w0mbat
2025-03-06, 10:16:03
Naja, ich komme von einer RX 6800 und spiele aktuell in UWQHD. Mein Plan war eine 5090 FE zu kaufen. Klar, sehr teuer, aber dafür kann ich alle Spiele @max gut Zocken. Auch CP77 mit PT, AW2 mit PT, etc. pp.
Jetzt gibt es die FEs nicht zu kaufen, Blackwell ist an sich eher eine Enttäuschung. Ich hatte echt vor eines meiner Lieblingsspiele - Mirror's Edge - endlich mal mit PhysX zu spiele. Geht auch nicht mehr.
Mit einer 9070 XT kann ich in UWQHD viele aktuelle Spiele @max wieder Spiele. Silent Hill 2 z.B. Oder Stalker. Oder Space Marine 2. Und und und.
Was damit nicht @max läuft sind die ganzen PT Spiele, also CP77, AW2, Indiy, und vielleicht noch Star Wars Outlaws. Aber sonst sieht es gut aus.
Dafür 300W vs. 575W und (hoffentlich) 689€ vs. aktuell 3500€+ und es ist ein no-brainer. Wenn ich eine 5090 FE zum launch hätte kaufen können, würde sich die Frage gar nicht stellen. Aber Nvidia kann nicht liefern.
Badesalz
2025-03-06, 10:17:22
Was ist daran so schwer wenn in nativ heute alles flimmert/aliased wie sau. Keine Ahnung was deine Anti-NV Kampagne hier soll Schöne Übersicht der Inhalte. Hast du nen Schweißhelm an? Ich bin als klarer Gegner des bis dato Mists - u.a. bis zu richtigen Kämpfen mit Raff ;) - schon mehrmals dabei erwischt worden DLSS4-Q zu loben. Was für eine "Kampagne"?
Zum einen. Zum anderen: Hast du schon erlebt in einem NV- wie in einem AMD-Thread, wo es halt rein um die Hardware geht, daß irgendjemand sich länger mit dem ANDEREN Lager aufhält, wenn keine Trolle des anderen Lagers zugegen sind? Ich hab das noch nie erlebt.
Wobei man auch leider zugeben muss, daß solche Threads selten sind. Vielleicht deswegen kennst du diese Korrelation auch garnicht und deswegen auch fällt dir garnicht mehr auf, daß du es dauernd solchen nachahmst?
Daher ein anderer Vorschlag der Ruhe wegen: Wie wäre es mit paar Ansätzen von geistiger Reife? (auch wenn ich die teilweise die aktuelle Frust verstehen kann, man muss es aber auch nicht dermaßen ausleben wie aktuell oder?)
Ravenhearth
2025-03-06, 10:55:41
AMD Radeon RX 9070 & RX 9070 XT mit RDNA 4 im Test: Eine faustdicke Überraschung! (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/) :up:
Danke für den Test! Mich hätte noch eine voll auf Effizienz optimierte XT interessiert, also -30% PT und -150mV :)
DrFreaK666
2025-03-06, 11:10:28
... Ich hatte echt vor eines meiner Lieblingsspiele - Mirror's Edge - endlich mal mit PhysX zu spiele. Geht auch nicht mehr...
Du könntest eine gebrauchte GTX1080 oder so für GPU-PhysX einbauen und nutzen.
Mit AMD geht das nicht
...
Daher ein anderer Vorschlag der Ruhe wegen: Wie wäre es mit paar Ansätzen von geistiger Reife? (auch wenn ich die teilweise die aktuelle Frust verstehen kann, man muss es aber auch nicht dermaßen ausleben wie aktuell oder?)
Welchen "aktuellen Frust" soll er mit einer RTX4090 haben?
dildo4u
2025-03-06, 11:11:58
Interessanter Patzer der 5070 in Warhammer sieht man echt selten von NV.
gWIIA-a9Q9A
Dimon
2025-03-06, 11:14:59
.
Dafür 300W vs. 575W und (hoffentlich) 689€ vs. aktuell 3500€+ und es ist ein no-brainer. Wenn ich eine 5090 FE zum launch hätte kaufen können, würde sich die Frage gar nicht stellen. Aber Nvidia kann nicht liefern.
Mir gehts genauso, keine RTX5090, alleine achon wegen dem verbrauch und der abfackel gefahr, von der verfügbarkeit ganz zu schweigen.
Ich hoffe nur das die RX9070XT auch in ausreichender menge lieferbar ist.
Und beim PT mach ich mir ehrlich gesagt keine sorgen, da wird AMD sicherlich die treiber dahingehend optimieren und eine ausreichende performance erreichen, ich denke das die spiele sowieso eher für NV optimiert wurden...
Colin MacLaren
2025-03-06, 11:17:21
Ja. Ok. Dann hast du wirklich keine Ahnung wovon ich spreche.
Das wird langsam wirklich eng ;(
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13717571&postcount=20582
Sorry, sehe ich nicht. Slap me. Mal random das erste Spiel in der Liste gepickt. Den einzigen Unterschied, den ich sehe, ist die fehlende Ray Reconstruction im Haar bei TAA. Alleine deswegen ist DLSS P schon besser als nativ, TAA oder FSR.
Schöne Übersicht der Inhalte. Hast du nen Schweißhelm an? Ich bin als klarer Gegner des bis dato Mists - u.a. bis zu richtigen Kämpfen mit Raff ;) - schon mehrmals dabei erwischt worden DLSS4-Q zu loben. Was für eine "Kampagne"?
Zum einen. Zum anderen: Hast du schon erlebt in einem NV- wie in einem AMD-Thread, wo es halt rein um die Hardware geht, daß irgendjemand sich länger mit dem ANDEREN Lager aufhält, wenn keine Trolle des anderen Lagers zugegen sind? Ich hab das noch nie erlebt.
Wobei man auch leider zugeben muss, daß solche Threads selten sind. Vielleicht deswegen kennst du diese Korrelation auch garnicht und deswegen auch fällt dir garnicht mehr auf, daß du es dauernd solchen nachahmst?
Daher ein anderer Vorschlag der Ruhe wegen: Wie wäre es mit paar Ansätzen von geistiger Reife? (auch wenn ich die teilweise die aktuelle Frust verstehen kann, man muss es aber auch nicht dermaßen ausleben wie aktuell oder?)
Beitrag anzeigen
Nichts Kampagne, mir ist die Firma eigentlich egal. Mir geht es gerade ein bisschen wie w0mbat.
.
Badesalz
2025-03-06, 11:24:23
Welchen "aktuellen Frust" soll er mit einer RTX4090 haben?Mit Blackwell. Mit der 4090 hat er keinen, wenn am Stecker noch alles ok ist. Aber er woltle eigentlich schon auch die 5090. "Immer den neusten Scheiß". Hat er aber bisher nicht :up:
@Colin
Da wir kurz bei geistiger Reife waren: Würdest du die Güte haben mit Schwachsinn aufzuhören? Standbilder, während über Flimmern und Flackern geheult wurde? Sonst zieh dir so lange das zweite Zitat rein bis du das Gefühl hast es wirklich verstanden zu haben. Wenn du nichts ZUM TOPIC beizutragen hast, melde dich freiwillig beim Mod. Wäre nur männlich. thx
Ravenhearth
2025-03-06, 11:29:21
Für die Leute, die eine XT an einem 500W-Netzteil betreiben wollen:
Anders sieht es hingegen beim plötzlichen Wechsel von Idle zu Volllast aus, denn dann explodieren die Leistungsaufnahmen beider Radeon-Grafikkarten kurzzeitig. Die Radeon RX 9070 XT kommt auf bis zu 467 Watt, bei der Radeon RX 9070 lassen sich bis zu 359 Watt messen. Das ist ungewöhnlich hoch, die Radeon RX 7800 XT kommt bei der Messreihe nur auf 298 Watt, selbst bei der Radeon RX 7900 XTX sind es geringere 445 Watt.
Ein genauer Blick in die log-Datei verrät, dass die neuen Radeon-Grafikkarten nach einer Idle-Phase für etwa 5 Millisekunden deutlich mehr Energie aufnehmen als im Schnitt geplant, bevor die Telemetrie eingreift und diese massiv einbremst. Ob dies ein von AMD gewolltes Verhalten oder ein Bug ist, ist unklar. Es ist auf jeden Fall ungewöhnlich. Keine andere Radeon verhält sich so und eine GeForce ebenso wenig.
Aus diesem Grund ist es ratsam, das Netzteil etwas größer einzuplanen als bei einer 220-Watt und einer 304-Watt-Grafikkarte eigentlich nötig wäre. Um auch diese Lastspitzen problemlos abfangen zu können, sollte man auf Nummer Sicher gehen.
https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9
Disco_STFU
2025-03-06, 11:32:25
Meldet CB hoffentlich an AMD.
ENKORE
2025-03-06, 11:53:02
Ja mit "simuliert" meinte ich dass die Karte eben so nicht existiert. Die Ergebnisse sind durchaus real.
Aber da ist eben alles dabei: höhere TDP, Undervolting, Speicher-OC. Höhere TDP wäre kein Problem für eine XTX, bringt aber nicht sonderlich viel. Speicher-OC wird man garantiert nicht fertig vorkonfiguriert sehen (und schnellere gddr6 Chips gibt es nicht). Und Undervolting wird man eben auch nicht sehen - deshalb habe ich ja geschrieben besseres Binning der Chips könnte in dieselbe Richtung gehen, wird aber höchstwahrscheinlich hinter dem was man mit der manuell getweakten XT erreicht zurückbleiben.
Samsung hat afaik GDDR6 bis 24 Gbps.
https://semiconductor.samsung.com/dram/gddr/gddr6/k4zaf325bc-sc24/ ... aber noch nicht mass production. Kommt vielleicht für nen Refresh passend?
Ravenhearth
2025-03-06, 12:09:06
Die existieren quasi nur auf dem Papier
Hakim
2025-03-06, 12:17:00
Was mich sehr wundert, in einigen Tests wie z.B CB wird gezeigt und gesagt das die 9070XT quasi immer am Power Limit arbeitet. Vorhin Video Test geschaut was es ganz anders beschreibt und zeigt. Obwohl beides mit Stock Werten
Sumpfmolch
2025-03-06, 12:20:41
Gibt es eine Übersicht über alle MSRP Modelle?
dildo4u
2025-03-06, 12:22:05
Was mich sehr wundert, in einigen Tests wie z.B CB wird gezeigt und gesagt das die 9070XT quasi immer am Power Limit arbeitet. Vorhin Video Test geschaut was es ganz anders beschreibt und zeigt. Obwohl beides mit Stock Werten
Laut dem erreicht sie nicht mal die default Boost Clock in F1 24 1440p mit RT.
Da macht die Aussage von CB Sinn klar kann man Games finden die CPU Limitiert sind wo sie 3Ghz mit 300 Watt schafft.
https://youtu.be/AHpIGcABFbc?si=cbnPhMIrjW8aURmO&t=1758
Interessanter Patzer der 5070 in Warhammer sieht man echt selten von NV.
Da gibt’s eigentlich keinen Patzer abseits der VRAM-Kapazität. Witzig btw, dass ausgerechnet Space Marine 2 auch auf RDNA 4 etwas schwächelt (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3985634/).
MfG
Raff
Hakim
2025-03-06, 12:30:55
@dildo4u ja aber schau mal was ich meine
Bei CB sieht man klar und deutlich halt quasi immer im Power Limit über alle Spiele.
Schaut man sich den Test bei Hardwaredeals an, im Durchschnitt über vieler Spiele 285W. Ja ist nicht die Welt ~20W aber halt dennoch
w0mbat
2025-03-06, 12:32:12
Ich denke bei RDNA4 werden wir über die nächsten Monate auch noch etwas mehr Leistung über bessere Treiber bekommen. Ist bei allen neuen Architekturen meistens der Fall. Vor allem Ausreißer nach unten wird es weniger geben mit ausgereiften Treibern.
dildo4u
2025-03-06, 12:35:24
Da gibt’s eigentlich keinen Patzer abseits der VRAM-Kapazität. Witzig btw, dass ausgerechnet Space Marine 2 auch auf RDNA 4 etwas schwächelt (https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/Tests/Preis-Test-kaufen-Release-Specs-Benchmark-1467270/galerie/3985634/).
MfG
Raff
Bei Hardware Unboxed/Techspot ist die 4070S schneller als 7900XT/5080, die 5070 fällt komplett weg.
https://i.ibb.co/TDCs554n/SM2-p.webp (https://ibb.co/9mM7jjbf)
https://www.techspot.com/review/2961-amd-radeon-9070-xt
Ergibt aber keinen Sinn, da klemmt irgendwas mit Blackwell bei den Kollegen. Siehe CB - bestätigt PCGH (oder umgekehrt).
MfG
Raff
Badesalz
2025-03-06, 12:44:23
Ist bei allen neuen Architekturen meistens der Fall. Vor allem Ausreißer nach unten wird es weniger Die Zeit hat AMD sich bereits genommen :tongue:
Das mit den Ausreißern wird aber so sein. Spiele die in Testparkours vorkommen sollte man nicht ignorieren.
The_Invisible
2025-03-06, 12:51:53
Unser hiesiger Händler MyLemon hat die Preise seit gestern schon schön erhöht, normale 9070 ab 835 und XT ab 930, bin ja gespannt heute...
fizzo
2025-03-06, 12:56:04
Unser hiesiger Händler MyLemon hat die Preise seit gestern schon schön erhöht, normale 9070 ab 835 und XT ab 930, bin ja gespannt heute...
Ist mir schon aufgefallen. Die wollen wohl die Schmerzgrenzen ausloten.
ChaosTM
2025-03-06, 13:00:11
Das passt schon. Die Leute sollen gefälligst 5080er um 18 Hunderter kaufen.
Bleibt mehr in der Kassa.
Wenn es genug gibt, kaufen die Leute halt woanders oder ganz kluge warten zur Not ab.
Das geht !
Ex3cut3r
2025-03-06, 13:06:48
Für mich frisst die 9070 XT und auch die 9070 non XT zu viel Strom vs 5070 Ti / 5070 non Ti. Wenn ich mir die Benches von DF ansehe.
Die GeForce schafft es mal wieder, die gleiche Leistung oder je nach Game mehr Leistung bei 50-100W in der Regel weniger.
https://s1.directupload.eu/images/250306/3bmbdw7n.png
dildo4u
2025-03-06, 13:10:27
Lösung Einfach 9700 kaufen die Nachfrage der XT wird die Preise weit über 800€ halten.
Die Masse kauft diese Modelle nicht nur die 4070 hat sich durchgesetzt.
https://i.ibb.co/Gv0hmYQL/Screenshot-2025-03-06-13-11-20-507-com-sec-android-app-sbrowser-edit.jpg (https://ibb.co/vxHt9y4G)
Prinzenrolle
2025-03-06, 13:10:38
Für mich frisst die 9070 XT und auch die 9070 non XT zu viel Strom vs 5070 Ti / 5070 non Ti. Wenn ich mir die Benches von DF ansehe.
Im Schnitt nimmt sich das alles aber nichts mehr, gut bei RT ist Nvidia noch effizienter, aber die riesige Effizienzlücke von RDNA 3 gibt es weder in Raster noch RT. Nur noch bei PT.
Und bei letzterem muss man noch schauen ob AMD da noch bei der Software Nachholbedarf hat. Viel werden sie aber nicht rausholen können.
Ravenhearth
2025-03-06, 13:11:51
Für mich frisst die 9070 XT und auch die 9070 non XT zu viel Strom vs 5070 Ti / 5070 non Ti. Wenn ich mir die Benches von DF ansehe.
Die GeForce schafft es mal wieder, die gleiche Leistung oder je nach Game mehr Leistung bei 50-100W in der Regel weniger.
DF hat übertaktete Modelle getestet, @Stock sind die Karten sparsamer und kaum langsamer. Guck dir andere Reviews an, die 9070 ist die effizienteste Karte am Markt.
Ex3cut3r
2025-03-06, 13:12:01
Im Schnitt nimmt sich das alles aber nichts mehr, gut bei RT ist Nvidia noch effizienter, aber die riesige Effizienzlücke von RDNA 3 gibt es weder in Raster noch RT. Nur noch bei PT.
Und bei letzterem muss man noch schauen ob AMD da noch bei der Software Nachholbedarf hat. Viel werden sie aber nicht rausholen können.
Fast 100W mehr - bei 2 FPS weniger, siehe Bild, finde ich jetzt z.B. nicht so unbedeutend.
ChaosTM
2025-03-06, 13:13:32
Das Spiel ist ein Ausreißer und du hast die Szene mit dem höchsten Unterschied rausgesucht. :)
Selektive Wahrnehmung - aber wer immer noch viel Wukong spielt, hat mit AMD sicher keine überzogene Freude. Speziell mit PT gehts ganz böse nach unten..
Ex3cut3r
2025-03-06, 13:15:59
:confused:
Bei Hitman ist es auch so ähnlich.
https://s1.directupload.eu/images/250306/njdekttr.png
Die XT ist ziemlich geprügelt, und da es nur Customs gibt, werden die alle so sein. Heißt IHMO mann muss selbst handanlegen. Aber eine 5070 Ti kann man auch UV. Heißt also die GeForce wird immer effizienter sein.
Badesalz
2025-03-06, 13:22:29
Für mich frisst die 9070 XT und auch die 9070 non XT zu viel Strom vs 5070 Ti / 5070 non Ti. Wenn ich mir die Benches von DF ansehe.Das ist so, wenn man nicht über UVP zahlen will. Müssen wir halt schauen was Sache ist, wenn die Scalper anfangen aufzugeben. Grad bei der 9070(XT) und der 5070.
Bei Hitman scheinen da aber auch entsprechend mehr FPS bei rauszukommen.
Ravenhearth
2025-03-06, 13:43:06
:confused:
Bei Hitman ist es auch so ähnlich.
https://s1.directupload.eu/images/250306/njdekttr.png
Die XT ist ziemlich geprügelt, und da es nur Customs gibt, werden die alle so sein. Heißt IHMO mann muss selbst handanlegen. Aber eine 5070 Ti kann man auch UV. Heißt also die GeForce wird immer effizienter sein.
Es gibt auch Customs ohne OC (zB Sapphire Pulse). Außerdem kann man die Radeons auch undervolten...
ChaosTM
2025-03-06, 13:49:33
Immer wenn neue Karten rauskommen, werden die Kirschenpflücker aktiv. Selbst wenn gar keine wachsen ?! Seltsames Verhalten..
LhsvrhedA9E
die kleine scheint nicht soo ineffizient zu sein
Der_Korken
2025-03-06, 14:15:06
Jemand schon was interessantes zur Hellhound XT gefunden? Der Kühler ist ja anders als bei der non-XT.
Ex3cut3r
2025-03-06, 14:36:53
Immer wenn neue Karten rauskommen, werden die Kirschenpflücker aktiv. Selbst wenn gar keine wachsen ?! Seltsames Verhalten..
https://youtu.be/LhsvrhedA9E
die kleine scheint nicht soo ineffizient zu sein
Nochmal, es ging mir unter anderem primär um die XT
Diese ist definitiv je nach Custom viel zu "hart" geprügelt. Mit Spitzenwerten um die 350W!
KA, was für ein Problem du hast, mit deinen Kirschen, die Kirschen hängen eher bei dir, und das nicht gerade sehr hoch in der Regel.
GraphikkartusLongus
2025-03-06, 14:41:24
In Österreich hat der Verkauf schon begonnen ;D
The_Invisible
2025-03-06, 14:42:44
In Österreich hat der Verkauf schon begonnen ;D
Gestern schon ;)
Ab 830EUr für eine 9070 gehts los :D
GraphikkartusLongus
2025-03-06, 14:45:24
Gestern schon ;)
Ab 830EUr für eine 9070 gehts los :D
falsch! €727,47 XFX RX 9070 OC Swift - bin grad auf der Seite ^^ 10min später: €750,63
Sapphire Radeon RX9070XT GAMING OC 16 GB GDDR 6 HDMI 2x DP (eigentlich eine Sapphire Pure Radeon RX 9070 XT lt Hersteller Artikelnummer): €810,41 10min später €835,61
mczak
2025-03-06, 14:58:57
Die existieren quasi nur auf dem Papier
In der Tat die sind seit etlichen Jahren gelistet mit Sample Status. Ich hätte ja auch gedacht die gibt's irgendwann tatsächlich aber waren anscheinend nur dazu gedacht Nvidia davon zu überzeugen nicht auf gddr6x zu setzen - nvidia hat aber wohl den Bluff erkannt... 24 gb/s gddr6 wäre aber sicher hilfreich für N48, aber ob das SI das mitmachen würde ist auch alles andere als klar. Es gibt auch keine Listungen für 22 gb/s gddr6, obwohl sonst schön immer 2 gb/s Schritte existieren (14/16/18/20 gb/s), und da jetzt (mehr oder weniger...) gddr7 erhältlich ist gehe ich auch nicht mehr davon aus dass die 24 gb/s je Massenproduktion erreichen - die gehen dann wohl irgendwann direkt von Sample auf EOL.
Goser
2025-03-06, 15:00:12
und los. Geld verbrennen! :wink:
SentinelBorg
2025-03-06, 15:30:13
Wieso nicht?
RDNA4 in PS5 Pro und als Grafikkarten. Grund genug die Engine darauf zu optimieren
Die PS5 Pro hat nur die RDNA4 RT Einheiten, ansonsten ist es weiterhin die gleiche RDNA2/3 Mix Architektur.
ChaosTM
2025-03-06, 15:37:35
und los. Geld verbrennen! :wink:
Deutlich effizienter lässt sich Geld auf Ebay verbrennen - nach RTX 5090 suchen. Da schaffst du locker 2k mit einer Bestellung.
2 Bekannte haben schon Kaufbestätigungen bekommen. Jeweils nur 750-800 verheizt. Laangweilig..
Flusher
2025-03-06, 15:38:59
Scheint ja wirklich der beste Launch seit der Radeon 9700 Pro Anno 2001 zu sein. Nur mit dem Makel, dass man gar nicht um die Krone des Top-Dogs kämpft.
DeadMeat
2025-03-06, 16:10:09
Nur mit dem Makel, dass man gar nicht um die Krone des Top-Dogs kämpft.
oder das es Karten tatsächlich zu kaufen gibt ;D
BlacKi
2025-03-06, 17:06:16
oder das es Karten tatsächlich zu kaufen gibt ;D
war die nachfrage zu hoch trotz hoher stückzahlen, oder waren wie bei nv einfach keine stückzahlen vorhanden? glaub eher letzteres, und damit hast du dann wohl recht das es der verkaufsstart einen makel hat.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.