Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
aufkrawall
2025-02-26, 08:16:55
Dann wurde die Vorgehensweise vermutlich geändert, oder es ist vom Publisher abhängig. Bisher hatte ich nur Fälle wo ich einen Key direkt bei AMD angefordert habe und dieser Key dann einfach vom x-beliebigen Rechner aktiviert werden konnte.
In welchem Jahrhundert war das?
Ich musste sowohl beim Ryzen 5500 2022 Uncharted via einer Authenticator-App auf dem System mit verbauter CPU aktivieren, als auch später mit verbauter 7800 XT Avatar.
Ergo kein Preis-Rabatt, wenn einem die Spiele egal sind.
DrFreaK666
2025-02-26, 08:22:29
In welchem Jahrhundert war das?
Ich musste sowohl beim Ryzen 5500 2022 Uncharted via einer Authenticator-App auf dem System mit verbauter CPU aktivieren, als auch später mit verbauter 7800 XT Avatar.
Ergo kein Preis-Rabatt, wenn einem die Spiele egal sind.
Dann händeln es wohl Sony und Ubi (wurde schon erwähnt) so.
Wie gesagt: Bei Starfield gab mir die Authenticator-App einen Steam-Code, den ich selbst aktivieren musste
Disco_STFU
2025-02-26, 08:27:33
Jop, mit der Authenticator-App die Hardware einmal verifizieren und dann taucht im AMD Reward Account die Verknüpfungsmöglichkeit auf! Die kann jeder X Beliebige mit seinem Steam Account verbinden.
DrFreaK666
2025-02-26, 09:12:20
... Von demher aber völlig egal, ist schönrechnen und gibts bei NV auch immer wieder mal...
NV müsste 8 ROPs dazulegen ^^
stinki
2025-02-26, 09:27:09
Mal eine Frage zu den Watt Zahlen. Bei 304W Karten lande ich mit +15% Power-Tune Zugabe bei ca. 350W, das müsste mit zwei (2) PCIe Steckern ja noch gerade so gehen. Bei 330W Karten komme ich mit +15% PT dann auf ca. 380W. Dafür bräuchte ich doch eigentlich drei (3) PCIe Stecker, oder? Wenn es denn bei +15% PT bleibt.
Badesalz
2025-02-26, 09:37:59
Niemand braucht/kauft eine 600W-AMD-Graka für 3k€.
btw.
Nach m.E. wird sich zeigen, das AMD in der Effizienz immer noch zurück liegt und daher
erstmal nicht mit großen Chips hantieren sollte.Schwierigkeiten und Probleme beim Hantieren mit großen Chips scheint aktuell ein allgemeines Thema zu sein...
dargo
2025-02-26, 09:39:51
In welchem Jahrhundert war das?
In diesem.
Disco_STFU
2025-02-26, 09:41:15
In diesem.
Jop, letztes Jahr Nov/Dez!
edit: Boah wie ich mich auf kommenden Mittwoch freue. Wien Schnitzel! :D
Mal sehen wie AMD diesmal diese Steilvorlage verbockt...:freak:
dargo
2025-02-26, 09:43:51
Mal eine Frage zu den Watt Zahlen. Bei 304W Karten lande ich mit +15% Power-Tune Zugabe bei ca. 350W, das müsste mit zwei (2) PCIe Steckern ja noch gerade so gehen. Bei 330W Karten komme ich mit +15% PT dann auf ca. 380W. Dafür bräuchte ich doch eigentlich drei (3) PCIe Stecker, oder? Wenn es denn bei +15% PT bleibt.
Kannst du nicht wenigstens noch bin Anfang März warten? Erstens... wir wissen nicht wie hoch man bei N48 PT anheben kann. Zweitens... die Hellhound 7900XTX kannst du mit dem Performance Bios auf 400W prügeln und sie hat zwei Stromstecker. Zerbrecht euch doch nicht den Kopf über diese max. 150W pro 8-Pin. Selbst damit und PCIe kommst du so auf max. 366W. Außerdem haben die 8-Pin Stecker eine Reserve von Faktor 1,9! Das ist überhaupt nicht mit dem Schrott-Nvidia Stecker vergleichbar der extrem auf Kante designt wurde.
Mal sehen wie AMD diesmal diese Steilvorlage verbockt...:freak:
Da der Release um ca. 6 Wochen verschoben wurde könnte man zumindest vermuten, dass diesmal alles einigermaßen glatt über die Bühne geht.
The_Invisible
2025-02-26, 09:53:10
Mehr Stromstecker sind doch immer gut, heißt ja nicht das diese max genutzt werden müssen. Hätte auch nix gegen 2x 12HPWR bei NV, mehr tut nicht weh.
Disco_STFU
2025-02-26, 10:29:22
Da der Release um ca. 6 Wochen verschoben wurde könnte man zumindest vermuten, dass diesmal alles einigermaßen glatt über die Bühne geht.
Ich hoffs auch, aber es bleibt AMD... :freak:
Ich hoffs auch, aber es bleibt AMD... :freak:
Gesunder Realismus ist eine Einstellung, die viele positive Erfahrungen ermöglicht, welche Optimisten niemals wahrnehmen (können)!
MfG
Raff
fondness
2025-02-26, 10:39:01
Da der Release um ca. 6 Wochen verschoben wurde könnte man zumindest vermuten, dass diesmal alles einigermaßen glatt über die Bühne geht.
Nach dem Nvidia Fiasko liegt die Latte jedenfalls nicht besonders hoch :D
Gipsel
2025-02-26, 10:55:34
Gesunder Realismus ist eine Einstellung, die viele positive Erfahrungen ermöglicht, welche Optimisten niemals wahrnehmen (können)!
https://i.pinimg.com/736x/2a/a7/8c/2aa78cfd4b661afb02bd678ce3570ae7.jpg
:rolleyes:
Disco_STFU
2025-02-26, 11:04:37
Nach dem Nvidia Fiasko liegt die Latte jedenfalls nicht besonders hoch :D
Und AMD schaffts trotzdem noch die zu reißen... :freak:;D
Ich drück jedenfalls alle Daumen für den Release!
Nach dem Nvidia Fiasko liegt die Latte jedenfalls nicht besonders hoch :D
sollte also kein Problem für AMD sein, da drüber zu stolpern:ulol:
Lurtz
2025-02-26, 11:31:17
Nach dem Nvidia Fiasko liegt die Latte jedenfalls nicht besonders hoch :D
Klar, wenn man DLSS 4 ignoriert. Da liegt AMD immer noch zwei Generationen zurück aktuell (plus weniger Verbreitung plus tendenziell mehr Gefrickel als bei Geforces wenn man es reinmodden will).
Ich wäre gewillt auf eine Radeon zu gehen, aber dafür müsste FSR4 schon ähnlich gut wie DLSS4 sein, das ist einfach die absolute Referenz aktuell.
Ray Reconstruction und Pathtracing wäre mir ja sogar egal atm. Ist zwar schon mal spielbar mit einer Mittelklasse-Geforce, aber nichts woran ich jetzt meine komplette Kaufentscheidung ausrichten würde.
Ansonsten ist das abseits der 5090 alles ziemlich egal. Dinge wie ROP-Anzahl wird in einem Monat niemanden mehr interessieren wenns wirklich nur eine Fehlproduktion war und bis dahin raus aus dem Markt ist. Das wird keine großartigen Auswirkungen haben.
Badesalz
2025-02-26, 11:33:00
Ich hoffs auch, aber es bleibt AMD... :freak:Bei der Vorlage der Grünen reicht diesmal für einen erfolgreichen Launch, daß die Teile stabil funktionieren und verfügbar sind.
@Lurtz
Wenn du das Massaker auf einen HW-Dongle für DLSS4 reduzierst...
Dinge wie ROP-Anzahl wird in einem Monat niemanden mehr interessieren wenns wirklich nur eine Fehlproduktion war und bis dahin raus aus dem Markt ist. Das wird keine großartigen Auswirkungen haben.Falls jeder Käufer angeschrieben wird, dann ja... War das mit den ROPs, schon alles bisherige? Verfolge das grad nicht so genau, mit den Blackscreens.
Ansonsten hast du es schön zusammgefasst, da an sich wirklich jedem klar ist, daß AMD an DLSS4 diesmal noch nicht rankommt ;) Überleg grad, ob das überhaupt für AMD das angepeilte Marktsegment war, die 4k Zocker.
davidzo
2025-02-26, 11:34:09
Boah irgendwie sind diese Pre-Launch Diskussionen doch immer auch sehr unterhaltsam:popcorn:
Das ist so wie Stromberg. Im Prinzip genial lustig, aber man muss auch immer mal wieder stoppen wenn einem das zu doll wird.
Neben den Hyptrain-junkies faszinierden mich ja auch die Langsamdenker immer wieder :ucrazy3:
Man kann förmlich beim denken zusehen und wenn es nach einem inhaltlichen Post wieder fünf antworten braucht die jeweils einen Halbsatz mehr Verständnis des Ursprungsposts aufweisen.
Da komme ich jetzt nicht ganz mit. (...) Reine TFLOPs zu vergleichen macht imo überhaupt keinen Sinn wenn Chip A diese TFLOPs gar nicht auf die Straße bringen kann, aus Gründen.
Aha, ein Architekturvergleich mit Tflops/Bandbreite vs Realperformance bringt also keinen Erkenntnisgewinn in Bezug auf die Architektur? :biggrin:
Ohne jetzt nachzurechnen denke ich davidzo bezieht sich hier auf reine TFLOPs bezüglich Rechenleistung.
Ohne jetzt nachzudenken würde ich behaupten dass das genau die Definition von Rechenleistung ist: Alu-Rohleistung in Tflops :freak: in diesem Fall FP32, also das bei Spielegrafik meistgenutzte Format.
Sag bloß. :cool: Und dass unterschiedliche Spiele auf unterschiedlichen GPU-Architekturen unterschiedlich skalieren ist Neuland für dich? :)
Achso ist das. Vor 3 posts hast du noch gesagt das es unsinnig wäre GPU Architekturen auf Skalierung zu untersuchen. Jetzt hast du scheinbar begriffen worüber die Erwachsenen geredet haben.
Es ist wirklich spannend wenn so man einen Denkprozess von außen in Zeitlupe beobachten kann. :uconf3:
Nun machst du quasi das gleiche was du eben noch als unwichtig kritisiert hast: Vergleiche SKUs mit unterschiedlicher Rechenleistung aber gleicher Bandbreite. Mal sehen ob dich das auch zu Erkenntnissen führt :rolleyes:
Und nur mal so als Denkanstoß... die RX 9070XT ist im Schnitt 17% schneller als die 9070 non XT. Das deutet jetzt nicht unbedingt darauf hin, dass die RX 9070XT an Bandbreite super verhungert. Auch nicht in einzelnen Games die stark bei der Skalierung voneinander abweichen.
Dir ist schon klar dass die XT auf dem Papier 34% mehr Rechenleistung hat?
(4096*2970*2*2 vs 3584*2520*2*2) FP32 Tflops.
Die rohe Transferrate spricht für die 4080S, Navi 48 hat aber eine andere Cache-Hierarchie mit insgesamt mehr Zwischenspeicher.
Endlich mal nützliche Infos. ;)
Achso! Während man also bei RDNA3 und RDNA4 die Speichersysteme und Bandbreitenskalierung nicht vergleichen sollte weil das keinen Aufschluss über Architekturverbesserungen und Bandbreiteneffizienz liefert ist der Quervergleich zu nvidia natürlich ausdrücklich nützlich!
Mir drängt sich der Eindruck auf das ist hier eher ein "Who said it first?" Spiel. :freak:
Also in dem Sinne weitermachen @Dargo. Ich guck mir das hier in ein paar tagen wieder an. Wenn ich Zerstreuung brauche sind die 3Dcenter Sku-channels immer ein Garant.:ubeer:
fondness
2025-02-26, 11:34:17
Klar, wenn man DLSS 4 ignoriert. Da liegt AMD immer noch zwei Generationen zurück aktuell (plus weniger Verbreitung plus tendenziell mehr Gefrickel als bei Geforces wenn man es reinmodden will).
Ich wäre gewillt auf eine Radeon zu gehen, aber dafür müsste FSR4 schon ähnlich gut wie DLSS4 sein, das ist einfach die absolute Referenz aktuell.
Ray Reconstruction und Pathtracing wäre mir ja sogar egal atm. Ist zwar schon mal spielbar mit einer Mittelklasse-Geforce, aber nichts woran ich jetzt meine komplette Kaufentscheidung ausrichten würde.
Ansonsten ist das abseits der 5090 alles ziemlich egal. Dinge wie ROP-Anzahl wird in einem Monat niemanden mehr interessieren wenns wirklich nur eine Fehlproduktion war und bis dahin raus aus dem Markt ist. Das wird keine großartigen Auswirkungen haben.
Das seh ich grundsätzlich nicht wirklich anders. Ich habe von Anfang an gesagt Raytracing-Performance muss zumindest halbwegs konkurrenzfähig sein und FSR4 muss passen, alles andere ist sekundär.
The_Invisible
2025-02-26, 12:00:05
Das seh ich grundsätzlich nicht wirklich anders. Ich habe von Anfang an gesagt Raytracing-Performance muss zumindest halbwegs konkurrenzfähig sein und FSR4 muss passen, alles andere ist sekundär.
Nur wenn der Preis entsprechend niedrig ist, bei 5070Ti - 50$ wird das eher nix
fondness
2025-02-26, 12:05:07
Nur wenn der Preis entsprechend niedrig ist, bei 5070Ti - 50$ wird das eher nix
AMD kommt aktuell von 10% Marktanteil. Da wären auch schon 20% Marktanteil eine Verdoppelung. Man muss ja nicht immer gleich den Nvidia-Killer erwarten.
dargo
2025-02-26, 12:09:32
Dir ist schon klar dass die XT auf dem Papier 34% mehr Rechenleistung hat?
(4096*2970*2*2 vs 3584*2520*2*2) FP32 Tflops.
Auf dem Papier juckt mich seit RDNA3 und Ampere irgendwelche Fantasie Rechenleistung nicht mehr die Bohne bei Quervergleichen von Architekturen. Und du willst mir was von Erwachsenen erzählen? :lol: Aber lass dich ruhig weiter von den (nackten) Zahlen blenden.
btw.
Vor nicht all zu langer Zeit hat sich Lederjäckchen auch neue Zahlenspielereien ausgedacht, afaik mit AIops. :ulol:
Achso! Während man also bei RDNA3 und RDNA4 die Speichersysteme und Bandbreitenskalierung nicht vergleichen sollte weil das keinen Aufschluss über Architekturverbesserungen und Bandbreiteneffizienz liefert ist der Quervergleich zu nvidia natürlich ausdrücklich nützlich!
Den Quervergleich hatte robbitop gezogen, nicht ich!
Edit:
Nur mal so als Denkanstoß... wenn Architektur A aus Gründen (eventueller Bandbreitenlimit außen vor) ihre TFLOPs vom Papier nicht auf die Straße bringen kann dann ist es völlig bescheuert mit Architektur B einen Vergleich mit eben diesen theoretischen TFLOPs anzustellen und irgendwas von diesen theoretischen Zahlen dann abzuleiten. Noch mehr Datenmüll kann man sich nach diesem Schema selbst nicht generieren. Innerhalb der gleichen Architektur zu vergleichen, was du hier in diesem Beispiel ja tust ist natürlich legitim. Aber dafür ist es mir noch zu früh. Darüber kann ich erst schwadronieren wenn ich den tatsächlichen Boosttakt der XT und non XT im Schnitt der Games sehe.
dildo4u
2025-02-26, 12:14:10
Nur wenn der Preis entsprechend niedrig ist, bei 5070Ti - 50$ wird das eher nix
Leute kaufen das 800€ Modell nicht wirklich die 4070 ist die best verkaufte Lovelace GPU über 500€.
Die 9700 wird deutlich interessanter vs 5070 da man keine Kompromisse beim Vram macht.
fizzo
2025-02-26, 12:22:23
Mich wundert, dass hier großteils, wenn es um den Preis/Erfolg geht, von der XT geredet wird. IMHO ist das Duell bzgl. Stückzahlen 9070/5070. Laut Steamstatistik wurde die 4070/S signifikant öfter verkauft als die TI/S Varianten.
Ich finde die 9070nonXT (perf/Watt) wesentlich sexyer. Bei einem Preis von 550-650€ je nach Ausführung/OC wäre das genau meine Kragenweite :)
Edit: dildo war schneller
The_Invisible
2025-02-26, 12:40:43
Die 9700 wird deutlich interessanter vs 5070 da man keine Kompromisse beim Vram macht.
Weiß ja net, da hätte die 7800xt vs 4070 auch einschlagen müssen.
Exxtreme
2025-02-26, 12:46:04
Weiß ja net, da hätte die 7800xt vs 4070 auch einschlagen müssen.
Die RX7800XT ging sehr sehr gut weg. Wahrscheinlich konzentriert sich AMD jetzt komplett auf diese Käuferschicht.
dildo4u
2025-02-26, 12:53:29
Jup sie hatte ihren Preis gehalten offensichtlich war AMD zufrieden im Gegensatz zu 7900XT.
fizzo
2025-02-26, 13:43:46
Final specifications of AMD Radeon RX 9070 XT and RX 9070 GPUs leaked ( https://videocardz.com/newz/final-specifications-of-amd-radeon-rx-9070-xt-and-rx-9070-gpus-leaked)
fondness
2025-02-26, 13:46:59
779 TOPS INT8, 1557 TOPS INT4 ist nicht ohne. Half-Precision auch mit doppelter Performance.
Aber im Grunde wie erwartet. Auch die "nur" 64MB Infinity Cache sind damit bestätigt.
basix
2025-02-26, 13:52:03
Also dedizierte Matrix Cores confirmed?
Edit:
Selbes Ratio FP32-Vector vs. Matrix-TFLOPS wie Ampere/Lovelace/Blackwell?
- 5080 = 56 TFLOPS FP32 Vector
- 5080 = 900 INT8 TOPS Matrix with Sparsity
fondness
2025-02-26, 13:53:07
Steht da nicht. Spielt aber auch in Wahrheit keine Rolle. Das Wort "dezidiert" wird zudem der Komplexität nicht annähernd gerecht.
dargo
2025-02-26, 13:54:44
Final specifications of AMD Radeon RX 9070 XT and RX 9070 GPUs leaked ( https://videocardz.com/newz/final-specifications-of-amd-radeon-rx-9070-xt-and-rx-9070-gpus-leaked)
Hehe... 357mm² also, da waren die spekulierten 350mm² verdammt nah dran.
btw.
Die 220W der non XT machen mich irgendwie an. :freak: Leider etwas weniger Bums dann vs. 6800XT. Aber meine Fresse... das Ding bekommt man sicherlich auf 180-190W gedrückt ohne Performance zu verlieren. :uhippie: Ich bin wieder ziemlich unentschlossen ob XT oder doch lieber non XT. X-D Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
basix
2025-02-26, 13:56:47
Steht da nicht. Spielt aber auch in Wahrheit keine Rolle. Das Wort "dezidiert" wird zudem der Komplexität nicht annähernd gerecht.
Ja, steht nicht dort. Aber es kann nicht der RDNA3 Ansatz sein. Es müssen zusätzliche Rechenwerke verbaut sein, sonst käme man nicht auf diesen Durchsatz.
Edit:
Vielleicht sind die <230mm2 Gerüchte von RDNA4 doch nicht falsch. Es würde relativ gut zu N44 passen,
Disco_STFU
2025-02-26, 14:01:07
Hehe... 357mm² also, da waren die spekulierten 350mm² verdammt nah dran.
btw.
Die 220W der non XT machen mich irgendwie an. :freak: Leider etwas weniger Bums dann vs. 6800XT. Aber meine Fresse... das Ding bekommt man sicherlich auf 180-190W gedrückt ohne Performance zu verlieren. :uhippie: Ich bin wieder ziemlich unentschlossen ob XT oder doch lieber non XT. X-D Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
Mit deinen UV Optimierungsskills bekommst du die 9070XT bei 5% Leistungsverlust auf 220 Watt! :biggrin:;D
dargo
2025-02-26, 14:01:28
Edit:
Vielleicht sind die <230mm2 Gerüchte von RDNA4 doch nicht falsch. Es würde relativ gut zu N44 passen,
Ist alles möglich, einfach zwei SKUs verwechselt. :D
Mit deinen UV Optimierungsskills bekommst du die 9070XT bei 5% Leistungsverlust auf 220 Watt! :biggrin:;D
Das schon, aber mein Ziel ist immer gleiche Performance wie Referenzvorgabe bei möglichst wenig Verbrauch. :) Ach... erstmal die Preisdifferenz bei den Straßenpreisen abwarten. :cool:
dargo
2025-02-26, 14:02:23
dp
fondness
2025-02-26, 14:07:43
;D
My one wish for RDNA4 launch is for FSR4 to be better than DLSS4.
Not because I actually care about upscalers, but just because I want to see NVIDIA users suddenly being against proprietary, vendor locked tech.
https://x.com/Kepler_L2/status/1894510305637515444
Hakim
2025-02-26, 14:09:45
Das es keine Referenz gibt auch bestätigt. Wie kann AMD sicher stellen das die Händler die ersten Wochen sich an die Preisvorgaben halten? Scheint ja bei NV nicht gut zu funktionieren.
basix
2025-02-26, 14:14:32
Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
Ich liebäugle auch mit der 9070 non-XT. Nicht weil ich es brauche, aber ich will was zum basteln und spielen :D
Vermutlich warte ich aber ein paar Wochen. Sollen sich zuerst die Leute mit Karten eindecken, welche eine neue Karte "brauchen". So viel Anstand darf sein ;)
StevenB
2025-02-26, 14:18:14
Bei mir steht es auch schon fest, außerdem möchte ich mal day one Käufer sein, 9070XT und am liebsten eine Hellhound. :D
The_Invisible
2025-02-26, 14:18:29
;D
https://x.com/Kepler_L2/status/1894510305637515444
Boah Kindergarten, aber <=RDNA3 User werden da sicher lachen
Hakim
2025-02-26, 14:20:10
Ich tendiere zu XT, die würde aber bei mir nicht bei 304W bleiben. Glaube würde versuchen mit 270W es auf Stock Niveau laufen zu lassen. Oder etwas mehr wenn es das mitmacht
why_me
2025-02-26, 14:24:25
Ich liebäugle auch mit der 9070 non-XT. Nicht weil ich es brauche, aber ich will was zum basteln und spielen :D
same here.
Wenn die 9070 XT wirklich weit unter 700$ UVP bleibt (was ich nicht glaube), dann könnte ich evtl. schwach werden.
prinz_valium_2
2025-02-26, 14:35:28
Hehe... 357mm² also, da waren die spekulierten 350mm² verdammt nah dran.
btw.
Die 220W der non XT machen mich irgendwie an. :freak: Leider etwas weniger Bums dann vs. 6800XT. Aber meine Fresse... das Ding bekommt man sicherlich auf 180-190W gedrückt ohne Performance zu verlieren. :uhippie: Ich bin wieder ziemlich unentschlossen ob XT oder doch lieber non XT. X-D Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
Mich interessier eher, ob die ordentlich übertaktet werden kann und das Power Target angehoben.
ashantus
2025-02-26, 14:42:02
Vermutlich warte ich aber ein paar Wochen. Sollen sich zuerst die Leute mit Karten eindecken, welche eine neue Karte "brauchen". So viel Anstand darf sein ;)
Die ersten zwei Wochen abwarten hat den Nachteil, dass der Markt leer sein könnte. Hat aber den Vorteil -was ich mache- dass man
A) auf das Feedback zu Spulenfiepen der verschiedenen Hersteller warten kann.
Spulenfiepen ist echt der Spielverderber geworden.
Diesbezüglich achte ich auf die Teardowns mit dem Platinenlayout, bspw. Techpowerup.
B) Auch der nvidia Launch zeigt, welche Probleme auftreten können. BSOD, vbios update, verschmorte Stecker. Apropos Stecker bevorzugt ihr dann 8 Pins oder ist es euch egal?
C) der Spielcode für Monster Hunter kommt vielleicht noch. Wären ja auch nochmal 50,- Bonus.
robbitop
2025-02-26, 14:43:06
Ich am liebsten die billigste und einen Fullcoverkühler montieren und ein Mod BIOS drauf für maximale Performance pro EUR.
RDNA4 klingt endlich wieder nach einer modernen uArch die eine großen Sprung macht. :)
Tigershark
2025-02-26, 14:47:00
Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
Ja...entweder XT oder non-XT, aber wenn es so kommt wie es aktuell aussieht, ist eine der 9070er gesetzt als ersatz für meine 6800 und nach den letzten Launch-Erfahrungen im PC-HW Bereich kann man am besten bei Release kaufen, weil es unmittelbar danach preislich erst mal nur nach oben geht.
Mein Problem ist nur - ich bin auf WaKü unterwegs und habe bislang noch keine einzige Ankündigung in der Richtung gesehen, auch nicht von Alphacool. Und Karte kaufen, aber dann noch paar Wochen liegen lassen müssen, bis der Block da ist, ist irgendwie auch meh...:freak:
Final specifications of AMD Radeon RX 9070 XT and RX 9070 GPUs leaked ( https://videocardz.com/newz/final-specifications-of-amd-radeon-rx-9070-xt-and-rx-9070-gpus-leaked)
Ein Fehler ist mit diesem Leak-Update schon mal raus. ;)
MfG
Raff
Disco_STFU
2025-02-26, 15:00:22
Ein Fehler ist mit diesem Leak-Update schon mal raus. ;)
MfG
Raff
https://media1.tenor.com/m/LKKoYjYirrEAAAAC/where-where-at.gif
ashantus
2025-02-26, 15:06:54
Fehler bei Pixelfüllrate? Die Angabe machr nämlich keinen Sinn.
Hakim
2025-02-26, 15:14:06
Wie soll er darauf antworten? Wartet einfach die paar Tage noch ab.
Der_Korken
2025-02-26, 15:16:47
Final specifications of AMD Radeon RX 9070 XT and RX 9070 GPUs leaked ( https://videocardz.com/newz/final-specifications-of-amd-radeon-rx-9070-xt-and-rx-9070-gpus-leaked)
DP 2.1 UHBR13.5 :(
Hatte gehofft meinen Monitor damit nativ ansteuern zu können, wenn man sich schon eine nagelneue GPU kauft.
Ansonsten interessant: Komplett gleiche Speicherbestückung zwischen XT und Vanilla? Nichtmal 18Gbps für letztere als Abgrenzung? Das fände ich dann doch überraschend. Wenn das Teil eh an der Bandbreite hängt, macht das die kleine Karte direkt mal interessanter.
Linmoum
2025-02-26, 15:18:45
Nur DP2.1a und UHBR 13.5 wollte ich auch grade schreiben. Es sei denn, das ist der Fehler. :D
davidzo
2025-02-26, 15:24:17
Ja, steht nicht dort. Aber es kann nicht der RDNA3 Ansatz sein. Es müssen zusätzliche Rechenwerke verbaut sein, sonst käme man nicht auf diesen Durchsatz.
Jo, 4x mehr als man bei den 4096 Dual Rate FP32 Alus erwarten würde. Wenn die Alus Quadruple-rate Int8 unterstützen würden, dann wären es nur 195 TOPs bzw. 390 int4. Irgendwas ist da im Busch und das erklärt auch wieso FSR4 RDNA4 only ist und vermutlich auch bleibt.
Ob man nun gleichzeitig die FP32 Alus auch noch nutzen kann, also die wirklich dediziert sind oder nicht ist gar nicht so relevant, denn bei AI workloads spielen die 50Tflops extra keine große Rolle neben 1557 int4. Von nvidia wissen wir außerdem dass diese Theoriewerte noch dazu mit sparsity selten erreicht werden, da meist viel früher schon die Bandbreite limitiert. Insofern wäre es sogar positiv wenn die Einheiten nicht dediziert sind sondern integriert mit den FP32 Alus, weil sie dann auch vom schnellen L0, großen Registern L1 der Shader-Alus profitieren.
Hakim
2025-02-26, 15:26:58
Eigentlich hat ja ashantus Recht. Paar Wochen warten wäre ratsam. Ich habe nur das Gefühl dass es dann mit dem Preis hochgehen könnte, bevor es sich wieder erst nach einer Zeit wo der Markt gesättigt ist wieder runter geht.
mczak
2025-02-26, 15:41:20
Nur DP2.1a und UHBR 13.5 wollte ich auch grade schreiben. Es sei denn, das ist der Fehler. :D
Wäre schon etwas enttäuschend - zumal schon Navi 31 ja offenbar zumindest teilweise UHBR 20 beherrscht hat (die Pro W7800/W7900 unterstützten UHBR20 auf dem mini-dp Port und UHBR13.5 auf den 3 DP Ports).
Wobei die allermeisten Käufer dafür keinen Bedarf haben, und es auch denkbar ist dass die Karten das weglassen obwohl der Chip es kann weil es das PCB komplizierter machen würde (UHBR10 bei der RX 7600 war auch optional und die meisten Karten konnten es nicht).
dargo
2025-02-26, 15:46:52
;D
https://x.com/Kepler_L2/status/1894510305637515444
;D :up:
Vermutlich warte ich aber ein paar Wochen. Sollen sich zuerst die Leute mit Karten eindecken, welche eine neue Karte "brauchen". So viel Anstand darf sein ;)
Och... ich warte natürlich auch noch etwas. Erstens möchte ich nicht unbedingt den sogenannten "Deppenaufschlag" der gierigen Händler finanzieren. Und zweitens brauche ich Tests der Kühllösungen. Die Kühlung ist mir da wichtiger als die tatsächliche Performance der SKU.
Bei mir steht es auch schon fest, außerdem möchte ich mal day one Käufer sein, 9070XT und am liebsten eine Hellhound. :D
Ich tendiere zu XT, die würde aber bei mir nicht bei 304W bleiben. Glaube würde versuchen mit 270W es auf Stock Niveau laufen zu lassen. Oder etwas mehr wenn es das mitmacht
same here.
Wenn die 9070 XT wirklich weit unter 700$ UVP bleibt (was ich nicht glaube), dann könnte ich evtl. schwach werden.
Bereitet bitte schon mal CapFrameX vor. :upara: Und Feedback zur Hellhound ist herzlich willkommen. ;)
basix
2025-02-26, 16:10:57
Jo, 4x mehr als man bei den 4096 Dual Rate FP32 Alus erwarten würde. Wenn die Alus Quadruple-rate Int8 unterstützen würden, dann wären es nur 195 TOPs bzw. 390 int4. Irgendwas ist da im Busch und das erklärt auch wieso FSR4 RDNA4 only ist und vermutlich auch bleibt.
Ob man nun gleichzeitig die FP32 Alus auch noch nutzen kann, also die wirklich dediziert sind oder nicht ist gar nicht so relevant, denn bei AI workloads spielen die 50Tflops extra keine große Rolle neben 1557 int4. Von nvidia wissen wir außerdem dass diese Theoriewerte noch dazu mit sparsity selten erreicht werden, da meist viel früher schon die Bandbreite limitiert. Insofern wäre es sogar positiv wenn die Einheiten nicht dediziert sind sondern integriert mit den FP32 Alus, weil sie dann auch vom schnellen L0, großen Registern L1 der Shader-Alus profitieren.
Concurrent Execution von Matrix & Vektor geht noch über das hinaus, ja ;)
Für Neural Shading / Cooperative Vectors dürfte gleichzeitige Ausführung schon interessant sein. Aber vielleicht reicht es, wenn nur 50% der TOPS separat gerechnet werden können und der Rest irgendwie über die Vector-ALUs geht. Ist für mich nicht so wichtig, solange die Performance stimmt. Mit dedizierten Einheiten (siehe CDNA) hätte man aber schon einige Vorteile bei IP-Wiederverwertung als auch besserer IP-Kapselung. Die Vektor Einheiten mit allen ML-Instruktionen zu erweitern ist nicht einfach mal schnell, schnell gemacht.
Aber wieso sollten die nicht auch an L0 usw. angebunden sein? Bei Nvidia können die Tensor-Cores ja auch auf den L1 zugreifen und vermutlich auch die Vektor-Register. Ich gehe davon aus, dass die Matrix-Units zwar "dediziert" als Rechenwerke / ALUs sind, sind aber gleichzeitig direkt in die CU / ins WGP integriert. Wie die Tensor Cores bei Nvidias SMs.
mczak
2025-02-26, 16:34:50
Ja, steht nicht dort. Aber es kann nicht der RDNA3 Ansatz sein. Es müssen zusätzliche Rechenwerke verbaut sein, sonst käme man nicht auf diesen Durchsatz.
Das muss nicht zwingend so sein, da nur der Sparsity-Durchsatz angegeben ist. Soviel ich weiss gibt es dafür keine allgemeingültige Definition wie "Sparse" genau die Matrix denn da sein muss - nvidia erreicht einen Faktor 2 von Sparse gegenüber nicht Sparse, aber es ist theoretisch auch möglich einen Faktor 4 zu erreichen (es ist nur etwas Logik nötig um die Nullen zu erkennen und die verbleibenden Multiplikationen/Additionen entsprechend auf die vorhandenen Recheneinheiten zu verteilen). Manche würden das wohl als "Luftpumpen-TOPS" bezeichnen :biggrin:. Wenn das also bei Navi 4x bei Sparse gegenüber nicht Sparse ein Faktor 4 ist würde das passen auch ohne zusätzliche Recheneinheiten.
(Ist aber reine Spekulation, keine Ahnung ob eine Implementation die derart stark auf Sparse-Matrizen optimiert ist überhaupt Sinn ergibt.)
Lurtz
2025-02-26, 16:47:12
;D
https://x.com/Kepler_L2/status/1894510305637515444
Sehr geistreicher Kommentar.
nVidia-User sind für proprietäre Technologie? Das wäre mir neu. Ändert nur leider nichts an den Realitäten am Markt. Die AMD aber auch mit zu verantworten hat, nachdem man erst 2025 das erste Mal Recheinheiten verbaut, die schnell genug für solche Workloads sind.
Am meisten werden sicher die RDNA3-User lachen, die FSR4 auf ihrer gerade noch aktuellen Karte nicht mal werden nutzen können.
davidzo
2025-02-26, 16:55:04
Aber wieso sollten die nicht auch an L0 usw. angebunden sein? Bei Nvidia können die Tensor-Cores ja auch auf den L1 zugreifen und vermutlich auch die Vektor-Register. Ich gehe davon aus, dass die Matrix-Units zwar "dediziert" als Rechenwerke / ALUs sind, sind aber gleichzeitig direkt in die CU / ins WGP integriert. Wie die Tensor Cores bei Nvidias SMs.
Es kostet sicher Latenz und die Cacheverwaltung wird komplexer. Zudem würde bei concurrent Tensor Cores dann der bandbreitenlimitierte FP32 sinken wenn die Cachelevel mit Int8/Int4 gefüllt werden. Wahrscheinlich würde man den den Cache im mixed mode irgendwie partitionieren. Die FP32 IPC sinkt also so oder so, daher könnte man auch auf concurrency scheißen und das über async compute reinschieben.
Zumindest wenn man eh Cache-, Register- und Bandbreitenlimitiert ist macht es vermutlich keinen Unterschied ob echte Concurrency vorhanden ist oder einfach ein paar der Alus gerade im Int4 Mode laufen und der Rest der eben weiterhin mit FP32.
Wenn das also bei Navi 4x bei Sparse gegenüber nicht Sparse ein Faktor 4 ist würde das passen auch ohne zusätzliche Recheneinheiten.
(Ist aber reine Spekulation, keine Ahnung ob eine Implementation die derart stark auf Sparse-Matrizen optimiert ist überhaupt Sinn ergibt.)
Ein interessanter Erklärungsansatz. Bisher verwendet AMD aber nur 2x Sparsity.
Langlay
2025-02-26, 17:02:33
Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? Ich brauche ein paar Daten. Der User sollte aber mit CapFrameX umgehen können. :)
Ich hoffe auf ne Nitro+ oder Reddevil 9070XT, allerdings interressieren mich die MSRP-Karten nicht besonders. Und wäre nice wenn sie den 12VHPWR hat.
Und die 7900XT Nitro+ die ich ne Weile hier hatte, war an sich schon ganz nice vom Kühler her.
stinki
2025-02-26, 17:16:43
Ein Fehler ist mit diesem Leak-Update schon mal raus. ;)
MfG
Raff
Ich tippe auf die "Up to 2540 MHz", das sollte wohl "Up to 2520 MHz" heißen, dann kommen die anderen Zahlen auch hin ...
dargo
2025-02-26, 17:21:06
Ein Fehler ist mit diesem Leak-Update schon mal raus. ;)
Die non XT hat keine 20Gbps? Ich wüsste ehrlich gesagt nicht wofür da das SI gleich bleibt. Der würden auch locker 18Gbps reichen. Nur weiß ich natürlich nicht welche Konditionen AMD dafür zahlen muss. Wenn es nachher heißt 20Gbps ist günstiger weil wesentlich größere Menge und somit Mengenrabat X dann nimmt man natürlich nur 20Gbps. Alternativ halt 19,5Gbps wie schon bei der RX 7800XT. Alles abhängig von den Konditionen.
stinki
2025-02-26, 17:25:54
Die non XT hat keine 20Gbps? Ich wüsste ehrlich gesagt nicht wofür da das SI gleich bleibt. Der würden auch locker 18Gbps reichen. Nur weiß ich natürlich nicht welche Konditionen AMD dafür zahlen muss. Wenn es nachher heißt 20Gbps ist günstiger weil wesentlich größere Menge und somit Mengenrabat X dann nimmt man natürlich nur 20Gbps.
AMD hat einfach nur einen Haufen 20Gbps Chips eingekauft, vielleicht einfacher und billiger als zwei Speeds zu handlen.
Edit: Da war ich zu schnell oder du zu langsam ;-)
Abraxaς
2025-02-26, 17:46:35
Ich liebäugle auch mit der 9070 non-XT. Nicht weil ich es brauche, aber ich will was zum basteln und spielen :D
Vermutlich warte ich aber ein paar Wochen. Sollen sich zuerst die Leute mit Karten eindecken, welche eine neue Karte "brauchen". So viel Anstand darf sein ;)
So geht es mir auch. Meine RTX 3060 TI leistet mir zwar auch nach 4,5 Jahre gute Dienste, aber so langsam dürstet es mich nach neuer Hardware.
stinki
2025-02-26, 17:49:07
Fehler bei Pixelfüllrate? Die Angabe machr nämlich keinen Sinn.
Die Werte würden nur 64 ROPs bedeuten. Das müsste auch falsch sein...
Hakim
2025-02-26, 18:01:33
https://videocardz.com/newz/microcenter-lists-radeon-rx-9070-series-rx-9070-xt-starting-at-699-rx-9070-at-649
Wie immer, solange AMD noch nichts gesagt hat von Platzhalter ausgehen.
basix
2025-02-26, 18:07:29
So geht es mir auch. Meine RTX 3060 TI leistet mir zwar auch nach 4,5 Jahre gute Dienste, aber so langsam dürstet es mich nach neuer Hardware.
Gut, mit der 3060 Ti gibt das ein richtig schönes Upgrade ;)
Bei mir ist das schon leicht anders, nämlich reiner Basteldrang (ausgehend 4090 wirklich nicht nötig :D). Aber ich würde die Karte vermutlich auch nicht behalten, sondern nur austesten. Raff darf das sogar beruflich machen.... :)
dargo
2025-02-26, 18:07:47
Auch die Pulse ist mir da zu hoch "gelistet". Die Pulse orientiert sich eher an der UVP. Wahrscheinlich immer noch Platzhalter.
Edit:
Lol... Reaper für 1.100$. Ja ne ist klar. :ulol:
mboeller
2025-02-26, 18:11:26
Also dedizierte Matrix Cores confirmed?
warum?
48,7FLops x9 (wie PS5 Pro) = 438,3 TOPS (8bit) x 2 (Sparsity) = 876,6 TOPS (8bit)
... passt also fast. Bei einem Faktor von 1,8 für Sparsity kommt man "exakt" hin
basix
2025-02-26, 18:12:22
Laut Sony ist das aber PS5 Pro Custom HW. Unwahrscheinlich, dass das bei den dGPUs drauf ist. Sparsity und Int4 gibt es bei der PS5 Pro soweit ich weiss auch nicht.
Die PS5 Pro HW ist ausserdem auf einen relativ schmalen Anwendungsbereich ausgelegt (3x3 Convolutions für CNN). Ich denke, AMD will das bei dGPUs nicht so eingeschränkt haben.
ashantus
2025-02-26, 18:16:21
Die Werte würden nur 64 ROPs bedeuten. Das müsste auch falsch sein...
Pixelfüllrate mit 2970 MHz bei 128 ROP = 380
2970 MHz bei 64 ROP = 190
Also entweder Du hast Recht und es sind nur 64 ROP, oder die Füllrate ist doppelt so hoch.
The_Invisible
2025-02-26, 18:20:37
https://videocardz.com/newz/microcenter-lists-radeon-rx-9070-series-rx-9070-xt-starting-at-699-rx-9070-at-649
Wie immer, solange AMD noch nichts gesagt hat von Platzhalter ausgehen.
Die Kommentare sind ja lustig unterm Artikel, es werden selbst 700$ viel zu hoch gesehen. Marketshare will man daduch nicht gewinnen, ka was AMD überhaupt will...
fizzo
2025-02-26, 18:30:27
Glaubt wer ernsthaft die 9070 würde 100$ mehr als die 5070 kosten?
DrFreaK666
2025-02-26, 18:52:33
Die Kommentare sind ja lustig unterm Artikel, es werden selbst 700$ viel zu hoch gesehen. Marketshare will man daduch nicht gewinnen, ka was AMD überhaupt will...
Keine Ahnung was du hier mit der immer gleichen Message willst.
robbitop
2025-02-26, 19:04:36
Sehr geistreicher Kommentar.
nVidia-User sind für proprietäre Technologie? Das wäre mir neu. Ändert nur leider nichts an den Realitäten am Markt. Die AMD aber auch mit zu verantworten hat, nachdem man erst 2025 das erste Mal Recheinheiten verbaut, die schnell genug für solche Workloads sind.
Am meisten werden sicher die RDNA3-User lachen, die FSR4 auf ihrer gerade noch aktuellen Karte nicht mal werden nutzen können.
Geforce Pascal User kennen das ja auch schon seit einigen Jahren. Aber andererseits erscheint es so dass man alte Zöpfe abschneiden muss manchmal um richtig Fortschritt zu bekommen. HW für hohen Matrixmultiply Durchsatz scheint das hier eben zu sein. :)
GerryB
2025-02-26, 19:05:39
Bei 304W Karten lande ich mit +15% Power-Tune Zugabe bei ca. 350W,
das müsste mit zwei (2) PCIe Steckern ja noch gerade so gehen.
Bei 330W Karten komme ich mit +15% PT dann auf ca. 380W. Dafür bräuchte ich doch eigentlich
drei (3) PCIe Stecker, oder? Wenn es denn bei +15% PT bleibt.
Was sein kann, das man nicht mehr soviel Watt über den PCiE-Slot nimmt wie bei RDNA3,
sondern >95% über die Stecker, wie auch die neuen NV´s.
Dadurch braucht man dann evtl. eher die 3x 8pin.(nach NORM)
(evtl. macht so eine Verteilung das PCB-Design einfacher, als möglichen Vorteil)
Igor wirds schon nachmessen, wieviel über die Stecker geht und den PCiE-Slot.
Dann hat man die Erklärung.
Ich find 3x 8pin ungünstig, weil viele User derzeit 2x 8pin nutzen und ohne Umstände
ersetzen wollen. Damit verschreckt man 0815-Käufer.
Abraxaς
2025-02-26, 19:14:52
Gut, mit der 3060 Ti gibt das ein richtig schönes Upgrade ;)
Bei mir ist das schon leicht anders, nämlich reiner Basteldrang (ausgehend 4090 wirklich nicht nötig :D). Aber ich würde die Karte vermutlich auch nicht behalten, sondern nur austesten. Raff darf das sogar beruflich machen.... :)
Mit 'ner 4090 im Rechner ist es bei dir wirklich der reine Basteldrang. Vielleicht nehme ich dir ja die Radeon nach dem Testen ab. ;-) Aber Verfügbarkeit sollte durch den Aufschub des Launch ja etwas besser sein als bei NVIDIA.
Hakim
2025-02-26, 19:18:42
die Empfehlen 750W für die XT, selbst mein 600W Netzteil hat 4x 8Pin, denke mal ein 750W Netzteil sollte 3x 8Pin haben. Bei mir ist es nur Blöd das je 2x 8Pin an einem Strang sind, ich muss erst mal schauen ob ich das Karton finde für den anderen Strang zum anschließen, wo 1x 8Pin lose hängen wird leider.
why_me
2025-02-26, 19:35:01
Die Empfehlung berücksichtigt immer billige Chinaböller an Netzteilen und ist daher extra hoch gewählt, damit es auch garantiert läuft. Gute Netzteile können auch weniger Leistung haben um zu funktionieren.
Savay
2025-02-26, 19:38:53
(...) Aber andererseits erscheint es so dass man alte Zöpfe abschneiden muss manchmal um richtig Fortschritt zu bekommen. HW für hohen Matrixmultiply Durchsatz scheint das hier eben zu sein. :)
Nicht das ich im ersten Schritt damit rechne aber mal einfach so ins Blaue gedacht:
Theoretisch könnte AMD sogar größere Modelle für FSR4 nutzen.. :uponder:
Baseline wird ja die Leistung einer RX 9060 / N44 Salvage sein.
Bei nV schleppen sie im Moment als Anforderung ja noch den TU106 mit.
Außer es gibt da irgendwann nen Cut / 2 Klassengesellschaft. :wink:
Oder ist das Transformer Modell jetzt schon limitiert auf welchen Karten das noch nutzbar ist?
Tesseract
2025-02-26, 19:47:58
Oder ist das Transformer Modell jetzt schon limitiert auf welchen Karten das noch nutzbar ist?
je komplexer das modell umso langsamer ist es halt, siehe hardware unboxed video. DLSS4 ist etwa einen halben mode langsamer als DLSS3. wenn RDNA4 ein ähnlichers verhältnis von genereller performance zuz TOPs hat und das modell ähnlich komplex wie DLSS4 ist wird es auch etwa eine halbe stufe gegenüber FSR3.1 kosten.
Savay
2025-02-26, 19:53:30
Meine Frage war eher ob es dafür schon eine Whitelist für die GPUs gibt...
AMD kann hier zumindest theoretisch beim Einstieg erstmal mehr Basis FLOPs in der installierten Basis annehmen für FSR4. ;)
Auch in Richtung "alte Zöpfe abschneiden" gedacht...
Die Modelle müssen ja im moment auch auf der langsamsten kompatiblen Karte noch irgendwie sinnvoll laufen.
Irgendwann wird nV daher dann auch bei DLSS wieder "rumschnippeln" wollen/müssen.
Deswegen find ich die Diskussion, dass es so schlimm ist, dass FSR4 nicht abwärtskompatibel sein könnte eher etwas seltsam.
Jetzt macht evtl. AMD nen cut...in 1 oder 2 Gens dann nV...
davidzo
2025-02-26, 19:56:00
je komplexer das modell umso langsamer ist es halt, siehe hardware unboxed video. DLSS4 ist etwa einen halben mode langsamer als DLSS3. wenn RDNA4 ein ähnlichers verhältnis von genereller performance zuz TOPs hat und das modell ähnlich komplex wie DLSS4 ist wird es auch etwa eine halbe stufe gegenüber FSR3.1 kosten.
Wobei wir nicht wissen wie FSR3.1 auf RDNA4 performt.
Ergebnisse auf RDNA3 sind halt nicht übertragbar weil Quadrate int4 fehlt bzw. keine Tensorcores vorhanden sind. Und obwohl AMD nun scheinbar sehr ähnliche TOPs pro SM liefert wie Lovelace und Blackwell, sagt uns das noch nichts darüber wie diese Rechenleistung in der Praxis skaliert.
FSR4 auf einer neuen Architektur mit low precision Hardware muss also nicht langsamer sein als FSR3.1 auf RDNA3 ohne extra low precision hardware, sondern könnte auch schneller sein.
Tesseract
2025-02-26, 20:00:14
Meine Frage war eher ob es dafür schon eine Whitelist für die GPUs gibt...
warum sollten sie das tun? solange das verhältnis generelle performance zu TOPs gleich bleibt sollte auch der impact gleich sein. das NN rechnet auf kleineren chips dann zwar länger, das reguläre rendering aber auch. so eine "baseline" müsste eine komplette architektur blacklisten, z.B. komplett turing, nicht nur TU106.
FSR4 auf einer neuen Architektur mit low precision Hardware muss also nicht langsamer sein als FSR3.1 auf RDNA3 ohne extra low precision hardware, sondern könnte auch schneller sein.
ich habe explizit gesagt mit komplxität vergleichbar zu DLSS4. natürlich kann es auch gleich schell oder schneller sein bei entsprechendem modell. das wird man dann alles sehen.
Savay
2025-02-26, 20:06:50
Wenn der Anteil des DNN immer teurer wird, sinkt der Nettogewinn durch das Upscaling...es wird halt immer ineffizienter bis es irgendwann eher ein Nullsummenspiel wird.
Dann kannst du nur darauf hoffen, dass du mit einem höhere Upscaling Faktor davon kommst und das größere DNN das irgendwie kompensiert, aber den kann man ja auch nicht beliebig erhöhen bzw. die Inputauflösung beliebig senken.
Das ist doch genau die Diskussiongrundlage warum FSR4 evtl. nicht abwärtskompatibel sein wird...und wenn dann vielleicht nur auf den größeren RDNA3 Chips wie den 7900ern.
Tesseract
2025-02-26, 20:11:18
Wenn der Anteil des DNN immer teurer wird, sinkt der Nettogewinn durch das Upscaling...es wird halt immer ineffizienter bis es irgendwann eher ein Nullsummenspiel wird.
wie gesagt: das trifft auf TU102 genau so zu wie TU106.
und mit vollem FSR4 für RDNA3/2 rechne ich sowieso nicht. die bekommen garantiert entweder einen XeSS ähnlichen gurkenmodus oder einen FSR3 fallback.
kleeBa
2025-02-26, 20:16:10
Deswegen find ich die Diskussion, dass es so schlimm ist, dass FSR4 nicht abwärtskompatibel sein könnte eher etwas seltsam.
Also Besitzer der direkten Vorgängergeneration fühlt man sich halt etwas im Regen stehen gelassen, selbst mit dem Wissen das es nicht anders geht weil schlichtweg die verbaute HW fehlt.
crux2005
2025-02-26, 20:27:01
https://videocardz.com/newz/microcenter-lists-radeon-rx-9070-series-rx-9070-xt-starting-at-699-rx-9070-at-649
Wie immer, solange AMD noch nichts gesagt hat von Platzhalter ausgehen.
Hoffen wir alle das es so ist. Wäre ein unschönes erwachen falls nicht.
Nakai
2025-02-26, 20:33:07
699 und 649? Das ist viel zu nah beieinander. Das passt nicht.
The_Invisible
2025-02-26, 20:37:03
Nicht das ich im ersten Schritt damit rechne aber mal einfach so ins Blaue gedacht:
Theoretisch könnte AMD sogar größere Modelle für FSR4 nutzen.. :uponder:
Baseline wird ja die Leistung einer RX 9060 / N44 Salvage sein.
Bei nV schleppen sie im Moment als Anforderung ja noch den TU106 mit.
Außer es gibt da irgendwann nen Cut / 2 Klassengesellschaft. :wink:
Oder ist das Transformer Modell jetzt schon limitiert auf welchen Karten das noch nutzbar ist?
Bei NV gibts eh noch CNN. Macht aber trotzdem fast keinen Sinn weil Transformer-P quasi immer besser aussieht als CNN-Q. Außerdem haben kleinere Karten auch kleinere Auflösungen als Ziel, erledigt sich also selber. Es gibt da auch einen Performance Chart in der DLSS-Doc.
dargo
2025-02-26, 20:37:22
Hoffen wir alle das es so ist. Wäre ein unschönes erwachen falls nicht.
Da brauchst du nicht mit deiner Schwarzmalerei anfangen. Die Powercolor Reaper ist die preiswerteste Serie von Powercolor und die XT liegt dort bei 1.100$. :lol: Die Reaper non XT bei sagenhaften 1.099,99$. Das verdienst schon zwei von denen da :lol: :lol:
dildo4u
2025-02-26, 20:37:45
Das war das selbe mit der 5070TI alle Modelle wurden ab 900$ gelistet und Nvidia musste eingreifen.
AMD hat noch Zeit bis zur Release.
The_Invisible
2025-02-26, 20:38:48
699 und 649? Das ist viel zu nah beieinander. Das passt nicht.
Wieso, schon 7900xt vs 7900xtx launch preise vergessen? Und dort war der Hardware-Unterschied noch viel größer. AMD macht halt AMD Sachen...
dargo
2025-02-26, 20:40:55
Wieso, schon 7900xt vs 7900xtx launch preise vergessen?
Schon N21 Launchpreise vergessen? :rolleyes: Oder passt es nicht in dein Narrativ gerade?
The_Invisible
2025-02-26, 20:46:12
Schon N21 Launchpreise vergessen? :rolleyes: Oder passt es nicht in dein Narrativ gerade?
Völlig egal, es ging nur darum ob AMD schon mal solche Upselling Preise gemacht hat
DrFreaK666
2025-02-26, 20:47:24
Die Preise sind weiterhin nicht gesichert
TheGood
2025-02-26, 20:50:47
Also Besitzer der direkten Vorgängergeneration fühlt man sich halt etwas im Regen stehen gelassen, selbst mit dem Wissen das es nicht anders geht weil schlichtweg die verbaute HW fehlt.
Die Realität ist manchmal hart, aber als Nvidia käufer kennt man ja das problem und da störts auch niemanden ;)
Irgendwann muss AMD ja einen Schritt nach vorne gehen. GGf. haben sie ja auch am FSR 3 nochmals gebastelt. ABer ob da noch viel ging steht auf einem anderen Blatt.
fizzo
2025-02-26, 20:52:35
Glaubt wer ernsthaft die 9070 würde 100$ mehr als die 5070 kosten?
Keiner?
Prinzenrolle
2025-02-26, 20:52:42
Der Hypetrain entgleist wieder auf den letzten Metern.
The_Invisible
2025-02-26, 21:01:07
Die Realität ist manchmal hart, aber als Nvidia käufer kennt man ja das problem und da störts auch niemanden ;)
Irgendwann muss AMD ja einen Schritt nach vorne gehen. GGf. haben sie ja auch am FSR 3 nochmals gebastelt. ABer ob da noch viel ging steht auf einem anderen Blatt.
Meinst die RTX 2000 User die sich an DLSS4 erfreuen :freak:
Aber gut, alte Zöpfe müssen mal ab, hat mich bei RTX5000 eh überrascht das man da so handzahm war
horn 12
2025-02-26, 21:03:14
Rendering Bild oder doch AMD Referenz Karten ?
https://www.amd.com/en.html
Spring
2025-02-26, 21:06:14
Den Nv Boys ist wohl langweilig. Aber hier ist ja auch angenehm, nicht so ne Kraterlandschaft wie die RTX 5xxx Threads, aus Gründen.
Eine 9070XT von XFX wird es wohl werden. Aber auch nicht zu jedem Preis.
Hängt ja eigentlich nur an der Verfügbarkeit und da sollte AMD zumindest bei diesem Launch besser aufgestellt sein. Den Herstellergreed natürlich obendrauf.
Eine Woche noch ;)
Rendering Bild oder doch AMD Referenz Karten ?
https://www.amd.com/en.html
Gibt keine Referenz. Weißt du doch
Lurtz
2025-02-26, 21:22:34
Geforce Pascal User kennen das ja auch schon seit einigen Jahren. Aber andererseits erscheint es so dass man alte Zöpfe abschneiden muss manchmal um richtig Fortschritt zu bekommen. HW für hohen Matrixmultiply Durchsatz scheint das hier eben zu sein. :)
Der Bruch war bei Geforces halt gradueller. DLSS1 hat noch niemand ernsthaft vermisst und DLSS2 war zwar deutlich vielversprechender, benötigte aber auch eine Weile um sich durchzusetzen und zu verbreiten.
AMD dagegen läuft jetzt etablierten und verbreiteten Lösungen hinterher.
mczak
2025-02-26, 21:45:13
Schon N21 Launchpreise vergessen?
Naja also bei Navi 21 gab es ja zuerst 3 Karten, die 6800 und 6800 XT lagen beim UVP auch nur 70$ auseinander. Die wenig später vorgestellte 6900 XT hatte dann massiven Flaggschiff-Aufschlag (350$). Davon zu kaufen gab es eh nichts.
Bei Navi 3x war dann aber schon alles ziemlich nahe beieinander, noch krasser als bei N31 ja bei N32 wo die 7800XT bloss 50$ mehr kostete als die 7700XT, und die hatte ja auch noch 16 statt 12 GB Speicher. Da wäre es schon denkbar dass die 9070XT auch bloss 50$ mehr kostet als die 9070, wenn denn AMD wirklich keine 9070 verkaufen will... Ich würde aber auch eher von 100$ Unterschied ausgehen.
fizzo
2025-02-26, 21:52:29
First gaming PCs with Radeon RX 9070 XT listed on Newegg, price starts at $1,799 ( https://videocardz.com/newz/first-gaming-pcs-with-radeon-rx-9070-xt-listed-on-newegg-price-starts-at-1799)
Edit:
Naja also bei Navi 21 gab es ja zuerst 3 Karten, die 6800 und 6800 XT lagen beim UVP auch nur 70$ auseinander. Die wenig später vorgestellte 6900 XT hatte dann massiven Flaggschiff-Aufschlag (350$). Davon zu kaufen gab es eh nichts.
Bei Navi 3x war dann aber schon alles ziemlich nahe beieinander, noch krasser als bei N31 ja bei N32 wo die 7800XT bloss 50$ mehr kostete als die 7700XT, und die hatte ja auch noch 16 statt 12 GB Speicher. Da wäre es schon denkbar dass die 9070XT auch bloss 50$ mehr kostet als die 9070, wenn denn AMD wirklich keine 9070 verkaufen will... Ich würde aber auch eher von 100$ Unterschied ausgehen.
Es werden 699 bzw. 549$. Die non XT hat eine 5070 sicher im Griff und die XT kommt auf Ti-Niveau raus. Eigentlich kann man sich die Tests beinahe sparen :wink:
DrFreaK666
2025-02-26, 23:03:27
... AMD dagegen läuft jetzt etablierten und verbreiteten Lösungen hinterher.
Wie oft will man das eigentlich noch wiederholen?
Wäre es dann besser, wenn AMD gar nichts machen würde, oder wie? :ugly:
crux2005
2025-02-27, 00:25:15
HWU hat sogar eine Umfrage wie viel die 9070 XT kosten sollte bei einer Leistung zwischen 7900XT und XTX:
https://www.youtube.com/channel/UCI8iQa1hv7oV_Z8D35vVuSg/community?lb=Ugkxkk46rlmF8P4g_W7Cw0EmWC9dqweR3GL9
Aktuell gewinnt mit 32% - $500, knapp gefolgt von 30% - $600
reaperrr
2025-02-27, 01:02:33
HWU hat sogar eine Umfrage wie viel die 9070 XT kosten sollte bei einer Leistung zwischen 7900XT und XTX:
https://www.youtube.com/channel/UCI8iQa1hv7oV_Z8D35vVuSg/community?lb=Ugkxkk46rlmF8P4g_W7Cw0EmWC9dqweR3GL9
Aktuell gewinnt mit 32% - $500, knapp gefolgt von 30% - $600
Naja, eine solche Umfrage wird immer das Wunschdenken der Leute widerspiegeln, egal wie der Markt gerade aussieht.
500$ würde auch dann gut abschneiden, wenn die 5070Ti 2000$ und die 5070 1500$ kosten würde und RDNA3 sowie Ada bereits vollständig vom Markt verschwunden wären.
DrFreaK666
2025-02-27, 02:29:19
Angebliche Benchmark-Werte
| GPU | Cyberpunk 2077 (4K, kein RT) | Alan Wake 2 (4K, kein RT) | Cyberpunk 2077 (RT Ultra, 4K) | Cyberpunk 2077 (Path Tracing, 4K) |
|
| 9070XT | 63 FPS | 59 FPS | 28 FPS | 10 FPS |
| 9070 | 52 FPS | 48 FPS | 21 FPS | 8 FPS |
| 5070Ti | 60 FPS | 55 FPS | 29 FPS | 12 FPS |
| 5080 | 69 FPS | 63 FPS | 33 FPS | 15 FPS |
https://www.reddit.com/r/radeon/comments/1iyj709/some_benchmark_numbers_for_you_9070_both_xt_and/?rdt=43163
Langlay
2025-02-27, 02:52:15
Angebliche Benchmark-Werte
| GPU | Cyberpunk 2077 (4K, kein RT) | Alan Wake 2 (4K, kein RT) | Cyberpunk 2077 (RT Ultra, 4K) | Cyberpunk 2077 (Path Tracing, 4K) |
|
| 9070XT | 63 FPS | 59 FPS | 28 FPS | 10 FPS |
| 9070 | 52 FPS | 48 FPS | 21 FPS | 8 FPS |
| 5070Ti | 60 FPS | 55 FPS | 29 FPS | 12 FPS |
| 5080 | 69 FPS | 63 FPS | 33 FPS | 15 FPS |
https://www.reddit.com/r/radeon/comments/1iyj709/some_benchmark_numbers_for_you_9070_both_xt_and/?rdt=43163
Wenn das so kommt ist das Teil eingesackt *g
crux2005
2025-02-27, 02:54:02
Könnte stimmen oder eine fundierte Annahme sein (fake).
Wenn das so kommt ist das Teil eingesackt *g
Wieso? Als 4090 Besitzer. :freak:
horn 12
2025-02-27, 02:58:05
Da wäre AMD beim Paradespiel von NV zwischen 5070 TI und 5080
Dies für einen MSRP Preis zu 749 Euro ein Selbstläufer, aber warum versemmelt es AMD diesesmal erneut mit Keinen Eigenen Referenz Karten.
Da sehen wir die Besseren/ Guten Customs bei weit über 900 Euro, Wetten!
Hakim
2025-02-27, 04:02:04
Wenn die Werte stimmen sollten sieht es schon Ordentlich aus im Vergleich zu 5070Ti, wenn der Abstand zu nonXT wirklich nur um die 100€ ist, lohnt der Aufpreis für die XT mMn schon. Aber erst mal schauen wie die Preisvorgabe wird und wie die Händlerpreise werden.
GerryB
2025-02-27, 06:57:58
Die non XT hat eine 5070 sicher im Griff
220W vs 250W
???
aber warum versemmelt es AMD diesesmal erneut mit Keinen Eigenen Referenz Karten.
Warum soll AMD viel Geld in so einen Marketing-Quark stecken?
die Reaper hat ein Referenz-PCB und damit basta
(wünschenswert wäre allenfalls das Honeywell-Pad, auch in solchen Modellen)
btw.
der MESA 25.0-Treiber scheint schon ordentlich zulaufen:
https://www.igorslab.de/radeon-rx-9070-xt-im-furmark-stresstest-kuehler-als-erwartet-aber-was-steckt-dahinter/
horn 12
2025-02-27, 07:03:10
Sieht wirklicg gut aus
Komplett Systeme bei Newegg
und wenn sich die AMD Boardpartner nicht ne goldenen Nase verdienen wollen,
schafft AMD wirklich Marktanteile zu generieren!
https://videocardz.com/newz/first-gaming-pcs-with-radeon-rx-9070-xt-listed-on-newegg-price-starts-at-1799
GerryB
2025-02-27, 07:13:13
50$ weniger beim nonXT-Sys klingt nicht sinnvoll, upselling?
Hinzu kämen noch Steuern, ... wäre mir zu teuer.
1799+ca. 14% =2050€ für einen Midrange-PC mit R7 9700+9070xt mit nur 1TB-NVMe
mal z.Vgl.
7600x3d+7900xtx+2TB selbst zusammenbauen (siehe Anhang=1700€)
MSABK
2025-02-27, 07:15:41
Wenn die Ergebnisse stimmen dann ist das mega. Dann noch bissi OC.
crux2005
2025-02-27, 07:21:30
ekKQyrgkd3c
Einfach herrlich. :biggrin:
M4xw0lf
2025-02-27, 07:47:09
Angebliche Benchmark-Werte
| GPU | Cyberpunk 2077 (4K, kein RT) | Alan Wake 2 (4K, kein RT) | Cyberpunk 2077 (RT Ultra, 4K) | Cyberpunk 2077 (Path Tracing, 4K) |
|
| 9070XT | 63 FPS | 59 FPS | 28 FPS | 10 FPS |
| 9070 | 52 FPS | 48 FPS | 21 FPS | 8 FPS |
| 5070Ti | 60 FPS | 55 FPS | 29 FPS | 12 FPS |
| 5080 | 69 FPS | 63 FPS | 33 FPS | 15 FPS |
https://www.reddit.com/r/radeon/comments/1iyj709/some_benchmark_numbers_for_you_9070_both_xt_and/?rdt=43163
Das wäre ein gewaltiger Schritt Richtung Parität zu nv bei Raster und RT-Performance innerhalb einer Leistungsklasse. Hilft natürlich dass Blackmeh ziemlich auf der Stelle tritt.
Zossel
2025-02-27, 07:55:46
Das wäre ein gewaltiger Schritt Richtung Parität zu nv bei Raster und RT-Performance innerhalb einer Leistungsklasse. Hilft natürlich dass Blackmeh ziemlich auf der Stelle tritt.
Wer interessiert sich eigentlich für die Zahlen die eine Diashow beschreiben.
Das (RT) nutzt doch bei den FPS kein Schwein, so ist das lediglich eine Techdemo.
fizzo
2025-02-27, 08:04:38
Die Indizien verdichten sich….schaut wirklich gut aus. Letzte Preise aus der Gerüchteküche: 549/649$.
GerryB
2025-02-27, 08:12:40
Wer interessiert sich eigentlich für die Zahlen die eine Diashow beschreiben.
Das (RT) nutzt doch bei den FPS kein Schwein, so ist das lediglich eine Techdemo.
eigentlich wäre es soooo einfach, wenn man FSR3.1(FSR4)-Quality hätte
und FG
Aber, das werden wir wohl nichtmehr erleben, das NV-Techdemos sowas können(dürfen).
k.A., ob NV denkt, das man bezgl. Performance dann soviel schlechter skaliert (?)
und AMD besser dastehen würde
Prinzenrolle
2025-02-27, 08:35:52
https://youtu.be/ekKQyrgkd3c
Einfach herrlich. :biggrin:
Haha, den Marketingblödsinn entlarvt.;D
AMD gibt den Leuten das Gefühl die Preise selbst bestimmen zu können, da das Mantra "günstige Preise" überall verbreitet wird und AMD das nicht einfangen kann.
M4xw0lf
2025-02-27, 08:37:02
Wer interessiert sich eigentlich für die Zahlen die eine Diashow beschreiben.
Das (RT) nutzt doch bei den FPS kein Schwein, so ist das lediglich eine Techdemo.
Dat sind ja Zahlen in 4k. In 1440p siehts dann schon anders aus.
Tigershark
2025-02-27, 08:40:25
https://youtu.be/ekKQyrgkd3c
Einfach herrlich. :biggrin:
Das Video ist echt gut und trifft es mMn ziemlich exakt. Falls stimmt, was er anfangs sagt (dass die Presse nach der Meinung zum Pricing gefragt wird), lässt das allerdings imho nichts Gutes erahnen :eek:...vll. sollten die GPU Jungs sich da wirklich mal mit den CPU Jungs im gleichen Haus unterhalten, bevor sie auf den Markt kommen...
Sidenote: lange Referenz auf dem 3DCenter-Marketshare Pic... Yay, wir sind im Fernsehn!! :freak:
The_Invisible
2025-02-27, 08:41:33
Angebliche Benchmark-Werte
| GPU | Cyberpunk 2077 (4K, kein RT) | Alan Wake 2 (4K, kein RT) | Cyberpunk 2077 (RT Ultra, 4K) | Cyberpunk 2077 (Path Tracing, 4K) |
|
| 9070XT | 63 FPS | 59 FPS | 28 FPS | 10 FPS |
| 9070 | 52 FPS | 48 FPS | 21 FPS | 8 FPS |
| 5070Ti | 60 FPS | 55 FPS | 29 FPS | 12 FPS |
| 5080 | 69 FPS | 63 FPS | 33 FPS | 15 FPS |
https://www.reddit.com/r/radeon/comments/1iyj709/some_benchmark_numbers_for_you_9070_both_xt_and/?rdt=43163
Wär ja voll geil wenn das stimmt.
Jetzt noch FSR4 in gut und eine DLSS-RR Alternative und das kann echt was werden.
dargo
2025-02-27, 09:35:02
Hey... ich sehe da +20% für die 5070TI in CP77 mit PT. Also ist N48 schon mal Fail. ;)
Die haben ja auch ne unterschiedliche TDP, bitte ich zu bedenken.
Zudem ist CP77 eine alte RT-Implementierung, mal sehen, wie das bei neueren performt.
dargo
2025-02-27, 09:47:48
Die haben ja auch ne unterschiedliche TDP, bitte ich zu bedenken.
Stimmt... ganze 4Watt Unterschied. X-D
Ist natürlich nur Sarkasmus von mir. ;) Beide Spiele sind Showcases von Lederjäckchen mit RT/PT, nicht überbewerten. ;)
Beide Spiele sind Showcases von Lederjäckchen mit RT/PT, nicht überbewerten. ;)
Beide Spiele sind Showcases, was man mit starken Rechenwerken auf den Schirm kriegt. Mein Standardtext seit vielen Jahren: Liefert AMD auch endlich starke RT-Einheiten, werden sie dort brillieren. Passiert anscheinend endlich. :wink: Intel zeigte schon zuvor, dass das zutrifft.
MfG
Raff
Schnitzl
2025-02-27, 09:56:28
https://youtu.be/ekKQyrgkd3c
Einfach herrlich. :biggrin:
einfach genial wie er den Unterschied von Intel und nVidia "herausarbeitet" ;D
Wär ja voll geil wenn das stimmt.
Jetzt noch FSR4 in gut und eine DLSS-RR Alternative und das kann echt was werden.
Wer bist du und was hast du mit Invinsible gemacht??? :tongue:
dargo
2025-02-27, 10:00:50
Beide Spiele sind Showcases, was man mit starken Rechenwerken auf den Schirm kriegt. Mein Standardtext seit vielen Jahren: Liefert AMD auch endlich starke RT-Einheiten, werden sie dort brillieren. Passiert anscheinend endlich. :wink:
Man könnte auch den Spieß umdrehen und sagen... 2018 war viel zu früh für einigermaßen brauchbare RT Ausflüge. ;)
https://youtu.be/ekKQyrgkd3c
Einfach herrlich. :biggrin:
Krass gutes Video. Es wird Zeit, dass Lisa endlich das Ruder in die Hand nimmt bei ATI. nVidia ist verwundbar, aber man muss es halt wollen. Selbst wenn es bei ihnen läuft, sind sie auf ne gewisse Marge angewiesen, siehe share Preis.
AdvancedMoneyDestroyer weniger problematisch hier :biggrin: - Die Aktie ist generell unterbewertet für ein Unternehmen mit dem AI Potential. Aber hier liegt auch der Hund begraben: Ich schätze, 99% der Aufmerksamkeit ist in diesem Bereich, man will nicht den Hype verpennen, und möglichst viel von diesem Kuchen abbekommen. Denn der Hype wird nicht ewig so weitergehen.
Man könnte auch den Spieß umdrehen und sagen... 2018 war viel zu früh für einigermaßen brauchbare RT Ausflüge. ;)
Einer musste den Anfang machen. :) Und die RTX 2080 Ti ist mittlerweile die wohl am besten gealterte Grafikkarte ever (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/) (wenn man von der Titan RTX absieht).
MfG
Raff
madzapp
2025-02-27, 10:32:56
Einer musste den Anfang machen. :) Und die RTX 2080 Ti ist mittlerweile die wohl am besten gealterte Grafikkarte ever (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/) (wenn man von der Titan RTX absieht).
MfG
Raff
Für die meisten ist die 1080TI die GOAT. Liegt mMn. an den 11GB. Wird aber immer verdrängt und bei AMD wird der, meist, höhere VRAM nicht gewürdigt.
GP102 ist toll, hat aber in den letzten Jahren massiv Federn gelassen. DLSS und RT-Kerne sind nicht bloß Einstiegs-Tickets, sondern echte "Enabler".
MfG
Raff
Palpatin
2025-02-27, 10:58:41
Einer musste den Anfang machen. :) Und die RTX 2080 Ti ist mittlerweile die wohl am besten gealterte Grafikkarte ever (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/) (wenn man von der Titan RTX absieht).
MfG
Raff
Den Titel wird sie aber vermutlich bald an die 3090 und die 6900xt abgeben müssen, da ihr langsam der Speicher ausgeht und die 3090 als auch die 6900xt vermutlich diesbezüglich auch in 2-3 Jahren noch gut aufgestellt sind.
Grundsätzlich ist das natürlich den immer langsamer werdenden Performance/Watt und Performance/Dollar Zuwächsen geschuldet.
robbitop
2025-02-27, 11:33:10
https://youtu.be/ekKQyrgkd3c
Einfach herrlich. :biggrin:
Sehr geiles Video IMO. Und das meiste davon habe ich auch schon seit Wochen hier gesagt - scheine also nicht allzu daneben zu liegen. Leider viel zu lang - das schaut sich wahrscheinlich kein AMD Executive an. :)
fizzo
2025-02-27, 11:42:26
https://www.chiphell.com/forum.php?mod=viewthread&tid=2675497&extra=page%3D2&mobile=no
Der Reviewer von Chiphell hat einen Teaser zum kommenden Test gezeigt
Asus TUF 9070, 45°C bei 1100rpm, Hotspot 76°C
Klingt doch sehr gut für 150 MTr/mm2
prinz_valium_2
2025-02-27, 11:44:58
$599 für die 7090XT wäre halt so ein Preis
$699 nicht
Die teuren Modelle können ja trotzdem bei bis zu $750 Straßenpreis liegen
Vllt. haben wir Glück und es gibt $629, wenn $599 nicht machbar ist. In Euro dann 699€
Das ist immer noch deutlich besser als 800€
dildo4u
2025-02-27, 11:45:12
Die Karten sind alle überbaut für den TDP der 9700 ich habe keine mit zwei Lüfter gesehen.
Man konnte z.b immer 4070S in der Bauform kaufen.
AtTheDriveIn
2025-02-27, 11:45:52
Tech Gandalf hat natürlich recht. Ich hab leider ein ungutes Gefühl das die BWLer bei AMD Radeon es versauen. Nach der unter 700$ Slide rechne ich mit 699$ für die XT. 599$ wäre das disruptive das AMD benötigt für marketshare. NVIDIA könnte bei der Supply Situation nicht mit Preisreduzierung antworten. Morgen wissen wir mehr.
fizzo
2025-02-27, 11:58:09
Die Karten sind alle überbaut für den TDP der 9700 ich habe keine mit zwei Lüfter gesehen.
Man konnte z.b immer 4070S in der Bauform kaufen.
Gesehen ja, leider ist das Referenzdesign aber nicht erhältlich. Sei’s drum bessere Kühlung ist immer gut, wenn der Preis stimmt.
Tech Gandalf hat natürlich recht. Ich hab leider ein ungutes Gefühl das die BWLer bei AMD Radeon es versauen. Nach der unter 700$ Slide rechne ich mit 699$ für die XT. 599$ wäre das disruptive das AMD benötigt für marketshare. NVIDIA könnte bei der Supply Situation nicht mit Preisreduzierung antworten. Morgen wissen wir mehr.
Mittlerweile rechne ich mit 549/649$ UVP für die Standardmodelle. Es muss ja noch ein wenig Luft nach oben bleiben um Flaggschiffe eventuell unter den kolportierten 700$ zu halten.
madzapp
2025-02-27, 11:59:19
Tech Gandalf hat natürlich recht. Ich hab leider ein ungutes Gefühl das die BWLer bei AMD Radeon es versauen. Nach der unter 700$ Slide rechne ich mit 699$ für die XT. 599$ wäre das disruptive das AMD benötigt für marketshare. NVIDIA könnte bei der Supply Situation nicht mit Preisreduzierung antworten. Morgen wissen wir mehr.
679€. :freak: Macht es aber auch nicht fett.
Palpatin
2025-02-27, 12:01:30
Ich denke die BWLer werden sich beim Preis in erster Linie an den produzieren Stückzahlen orientieren. AMD ist vermutlich auch etwas kalt von der miesen Blackwell Performance und Verfügbarkeit erwischt worden, so daß sie nicht von Heute auf Morgen Millionen Karten aus dem Ärmel schütteln können. Der verschobene Launch deutet das ja schon an.
Beim RDNA2 start war wegen der Miner die Verfügbarkeit von NV ähnlich schlecht und AMD war Instant sold Out..., das sollte sich hier nicht wiederholen, lieber die Preise erstmal etwas höher und mit Verfügbarkeit, Leistung und Perfwatt(nonXT) glänzen.
699 ist streng genommen nicht "<700", insofern bin ich im Team 649/549 USD. Alles andere ist Optimismus. Und Optimismus ist Mangel an Information. :ugly:
MfG
Raff
Dino-Fossil
2025-02-27, 12:03:42
Tech Gandalf hat natürlich recht. Ich hab leider ein ungutes Gefühl das die BWLer bei AMD Radeon es versauen. Nach der unter 700$ Slide rechne ich mit 699$ für die XT. 599$ wäre das disruptive das AMD benötigt für marketshare. NVIDIA könnte bei der Supply Situation nicht mit Preisreduzierung antworten. Morgen wissen wir mehr.
Um mich zu wiederholen: die sollten sich am MRSP/UVP der 7800XT und 7900 GRE orientieren, und zwar mit der 9070 XT. Die non-XT sollte entsprechend nochmal niedriger liegen. Das würde wenigstens mal wieder einen ordentlichen Generationengewinn geben bei P/L, auch wenn das Preisniveau nach wie vor relativ hoch wäre, historisch betrachtet. Aber wenigstens wäre es mal ein Statement ggü. nVidia.
Aber vermutlich sehen die BWLer inzwischen nur noch $$$ wenn sie die aktuellen Straßenpreise bei nVidia betrachten und wir bekommen eben doch 649-699$.
Und ja, mir ist klar, dass ein Unternehmen Geld verdienen möchte. Aber man muss auch langfristig denken und Marktanteile im Blick behalten. Ich wage mal zu behaupten, die machen auch mit max 600$ MRSP für die XT noch ordentlich Gewinn an der Karte.
E39Driver
2025-02-27, 12:07:19
Gibt es hier schon paar Kandidaten die direkt am 6 März bei der XT zuschlagen werden? :)
Ich schiele auf die Spahire Nitro+ als XT. Aber erst irgendwann im März, erstmal den Release und erste Tests abwarten.
AMD GUP Releases sind so etwas wie das Werder Bremen der IT-Welt. Man erwartet zum Saisonstart nicht und hofft, sie steigen nicht ab. Dann spielen sie eine überraschend gute Hinrunde und die Fans träumen schon von Europa. Nur um es anschließend in der Rückrunde grandios zu vermasseln...
fizzo
2025-02-27, 12:12:20
Ich denke die BWLer werden sich beim Preis in erster Linie an den produzieren Stückzahlen orientieren. AMD ist vermutlich auch etwas kalt von der miesen Blackwell Performance und Verfügbarkeit erwischt worden, so daß sie nicht von Heute auf Morgen Millionen Karten aus dem Ärmel schütteln können. Der verschobene Launch deutet das ja schon an.
Guter Punkt. Wird eine Gradwanderung. UVP gut und Recht, viel wichtiger ist jedoch was der Händler in Endeffekt für eine lagernde Karte abruft.
Der_Korken
2025-02-27, 12:12:57
699 ist streng genommen nicht "<700"
Mathematik sagt nein :D
Eigentlich ist die "<700$"-Aussage doch prädestiniert dafür, dass es 699$ werden. Ich persönlich hätte nach Nvidias Paperlaunch ja sogar mit 749$ gerechnet.
prinz_valium_2
2025-02-27, 12:18:45
699 ist streng genommen nicht "<700", insofern bin ich im Team 649/549 USD. Alles andere ist Optimismus. Und Optimismus ist Mangel an Information. :ugly:
MfG
Raff
Das ist ein guter Punkt. $699 ist 700, was nur nicht so aussehen darf.
Dann bleibt noch $599(aka 600) bis $679
Und eigentlich wissen wir alle, dass die Preise sich nur in dem Bereich bewegen können. Für die Wahrnehmung der Konsument machen diese 80 aber sehr viel aus, auch wenn es nur 12% sind
madzapp
2025-02-27, 12:19:52
Hätten sie einen schönen "keine 900€, keine 800€....sondern für nur..." Countdown machen können, wie im Verkaufs-TV. Nur über Wochen veteilt.
Matrix316
2025-02-27, 12:51:05
Vielleicht wird ja die 9070XT eine Option für meine 7900XTX - wenn der Stromverbrauch deutlich niedriger wäre... also von der Performance brauch ich aktuell (dank 1440p) Monitor eigentlich gar nicht so viel mehr. :uponder:
Der_Korken
2025-02-27, 12:55:22
Vielleicht wird ja die 9070XT eine Option für meine 7900XTX - wenn der Stromverbrauch deutlich niedriger wäre... also von der Performance brauch ich aktuell (dank 1440p) Monitor eigentlich gar nicht so viel mehr. :uponder:
Die 9070XT wird voraussichtlich aber nicht schneller, sondern etwas langsamer als die 7900XTX werden. Der Verbrauch ist mit 304 vs 355W auch nicht so viel niedriger, auch wenn ich bei der 9070XT deutlich mehr UV- bzw. Stromsparpotenzial sehe als bei der 7900XTX.
Matrix316
2025-02-27, 13:22:49
Die 9070XT wird voraussichtlich aber nicht schneller, sondern etwas langsamer als die 7900XTX werden. Der Verbrauch ist mit 304 vs 355W auch nicht so viel niedriger, auch wenn ich bei der 9070XT deutlich mehr UV- bzw. Stromsparpotenzial sehe als bei der 7900XTX.
Die XFX die ich hab ist eher bei 400+ Watt. Wie sieht es denn da im Idle aus? Weiß man da schon was?
Der_Korken
2025-02-27, 13:36:32
Die XFX die ich hab ist eher bei 400+ Watt. Wie sieht es denn da im Idle aus? Weiß man da schon was?
Ja gut, mit 400W bekommt die 7900XTX auch mehr Bumms. N31 skaliert da aufgrund seines Durstes relativ gut. Bei der 9070XT würde ich deutlich weniger OC-Potenzial erwarten, da der kleinere Chip schon @stock deutlich näher an der Grenze ist.
Idle-Verbrauch würde mich auch interessieren, aber dafür werden wir wohl bis nächsten Donnerstag warten müssen. Ich hoffe das wird getestet ...
Hakim
2025-02-27, 13:47:22
Die Namen bei XFX, Quicksilver White Magnetic Air, :)
Angeblich sollen die Takte auch ordentlich hoch gehen mit mehr W. Da war ja von fast 3,3GHz bei >330W die Rede. Wenn das hinkommt skaliert der Chip noch ein bisschen weiter. Sweetspot wird natürlich die 9070 sein, dürfte ähnlich wie eine 6800 sein, absolutes Vernunftprodukt.
Hakim
2025-02-27, 13:56:46
Also wenn der Preis Unterschied wirklich so um die 100€ sind, kann man schon überlegen die auszugeben bei erwarten 20-30% (je nachdem, bei Raster wohl über 20%, bei RT ~30%) Mehrleistung.
G3cko
2025-02-27, 14:05:11
Einer musste den Anfang machen. :) Und die RTX 2080 Ti ist mittlerweile die wohl am besten gealterte Grafikkarte ever (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/) (wenn man von der Titan RTX absieht).
MfG
Raff
7970: Hold my beer!
https://www.pcgameshardware.de/Far-Cry-5-Spiel-60934/Videos/Performance-Test-1253198/
Und den Preispunkt berücksichtigen!
Der_Korken
2025-02-27, 14:30:08
Angeblich sollen die Takte auch ordentlich hoch gehen mit mehr W. Da war ja von fast 3,3GHz bei >330W die Rede. Wenn das hinkommt skaliert der Chip noch ein bisschen weiter. Sweetspot wird natürlich die 9070 sein, dürfte ähnlich wie eine 6800 sein, absolutes Vernunftprodukt.
Ich glaube wie gesagt nicht, dass nach oben hin noch so viel mehr Takt kommt, denn sonst würde AMD die 9070 mit nur 220W deutlich unter Wert verkaufen bei dem dadurch zwangsläufig abgesackten Takt.
fizzo
2025-02-27, 14:46:20
Radeon RX 9070 XT im FurMark-Stresstest: Kühler als erwartet, aber was steckt wirklich dahinter? ( https://www.igorslab.de/radeon-rx-9070-xt-im-furmark-stresstest-kuehler-als-erwartet-aber-was-steckt-dahinter/)
Also an der Kotzgrenze ist eine 9070XT@3GHz wohl nicht bei diesen Temperaturen. Auch mehren sich die Meldungen das sich die XT gut übertakten lässt und hierbei der 5080 nahe kommt.(reddit)
madzapp
2025-02-27, 15:04:23
Noch 23h bis zur Vorstellung, oder?
Hakim
2025-02-27, 15:09:18
Noch 23h bis zur Vorstellung, oder?
https://www.youtube.com/live/GZfFPI8LJrc?si=h9B2AWfgSV1SJl_D
w0mbat
2025-02-27, 15:09:51
699 ist streng genommen nicht "<700", insofern bin ich im Team 649/549 USD. Alles andere ist Optimismus. Und Optimismus ist Mangel an Information. :ugly:
MfG
Raff
$649 MSRP für die XT wären hier wohl 769-799€ UVP, was bedeutet, dass die guten Modelle deutlich >800€ liegen, wahrscheinlich sogar um die 900€. Das ist zu viel. Ich will eine Nitro+ für max. 750€ um doch keine 50er zu kaufen.
madzapp
2025-02-27, 15:14:24
https://www.youtube.com/live/GZfFPI8LJrc?si=h9B2AWfgSV1SJl_D
Danke.
Werde aber erst kurz vorher aufspringen. :wink:
Der_Korken
2025-02-27, 15:22:18
Radeon RX 9070 XT im FurMark-Stresstest: Kühler als erwartet, aber was steckt wirklich dahinter? ( https://www.igorslab.de/radeon-rx-9070-xt-im-furmark-stresstest-kuehler-als-erwartet-aber-was-steckt-dahinter/)
Also an der Kotzgrenze ist eine 9070XT@3GHz wohl nicht bei diesen Temperaturen. Auch mehren sich die Meldungen das sich die XT gut übertakten lässt und hierbei der 5080 nahe kommt.(reddit)
In Furmark oder in Games? In Furmark geht der GPU-Takt immer in den Keller, ähnlich wie in Prime95 bei CPUs. Da glaube ich gern, dass der Takt auch oberhalb von 300W noch gut skaliert, aber das hat mit Games nichts mehr zu tun. Die 55°C sehen für mich auch seltsam aus. Entweder falsch ausgelesen oder die Temp wird anders berechnet als früher? Hotspot-Temp ware imho interessanter.
$649 MSRP für die XT wären hier wohl 769-799€ UVP, was bedeutet, dass die guten Modelle deutlich >800€ liegen, wahrscheinlich sogar um die 900€. Das ist zu viel. Ich will eine Nitro+ für max. 750€ um doch keine 50er zu kaufen.
Und wenn die Nitro 800€ kostet, nimmst du lieber ne 5070Ti, wo du für ne ähnlich gute Custom über 1000 zahlst? :freak:
Langlay
2025-02-27, 16:44:37
Wieso? Als 4090 Besitzer. :freak:
Basteltrieb und ggf. mach ich mir einen dedizierten LAN-Rechner fertig und da spielen wir eh meist älteres Zeug da reicht auch ne 9070XT dicke.
dildo4u
2025-02-27, 17:06:44
30+ FSR4 Games zum Launch
https://videocardz.com/newz/amd-fsr-4-coming-to-30-games-at-launch-heres-the-list
DrFreaK666
2025-02-27, 17:10:33
Kein Spiel dabei, das ich hab.
Vielleicht probiere ich mal TLoU aus
dargo
2025-02-27, 17:22:47
https://www.chiphell.com/forum.php?mod=viewthread&tid=2675497&extra=page%3D2&mobile=no
Klingt doch sehr gut für 150 MTr/mm2
Ein Delta von 31°C ist sogar richtig schlecht. Da scheint mit dem Kontakt vom Kühler zur GPU was nicht zu stimmen. Nur mal so als Vergleich... meine RX 6800XT hat bei vergleichbarem Powerbudget der 9070 non XT ein Delta von 10°C. Klar... N21 ist einiges größer, aber da würde ich max. 15°C Delta @220W bei N48 erwarten.
aufkrawall
2025-02-27, 17:26:47
Rächt sich jetzt, dass man die Update-Fähigkeit erst mit 3.1 gebracht hatte. War von Anfang an klar, dass das Fehlen davon komplett dumm war.
dargo
2025-02-27, 17:31:25
Kein Spiel dabei, das ich hab.
Vielleicht probiere ich mal TLoU aus
Ich sehe da genau 4 Spiele die ich angefangen habe und die sich dann anbieten würden mit FSR4 weiter zu spielen. Sind noch mehr Spiele aufgelistet die ich habe, aber die sind durchgespielt. Ergo egal ob da jetzt FSR4 für kommt oder nicht. Die fange ich doch nicht wegen FSR4 nochmal an. Eventuell kurz antesten und abhacken. Next new Games please. :cool: TLOU 2 ist aber im Anmarsch. :up:
Wiseman
2025-02-27, 17:32:19
Die XFX die ich hab ist eher bei 400+ Watt. Wie sieht es denn da im Idle aus? Weiß man da schon was?
Deine XFX verbraucht aber viel Watt. Meine Hellhound 7900XTX liegt eher bei 300W, auf keinen Fall mehr als 312W. Aktuelles Beispiel dazu: Gothic 1 Remake Demo.
raffa
2025-02-27, 17:35:47
Ja, könnten schon mehr sein.
Aber die Liste ist sicher nicht komplett und wird bestimmt schnell länger. Vorallem wenn die Karten und FSR 4 gut sind.
MSFS2024 fehlt zb, das hat FSR3.1, wenns auch immer noch als FSR 2 benannt ist.
Gerade der Flusi könnte sehr von FSR4 profitieren.
Zudem kann man mit sich mit Optiscaler XESS/DLSS zu FSR3.1 machen
Wiseman
2025-02-27, 17:36:15
Ich sehe da genau 4 Spiele die ich angefangen habe und die sich dann anbieten würden mit FSR4 weiter zu spielen. Sind noch mehr Spiele aufgelistet die ich habe, aber die sind durchgespielt. Ergo egal ob da jetzt FSR4 für kommt oder nicht. Die fange ich doch nicht wegen FSR4 nochmal an. Eventuell kurz antesten und abhacken. Next new Games please. :cool:
Bis zum Jahresende werden bereits mehr als 75 FSR4-Games angekündigt. Da ist garantiert eins für dich dabei.
dargo
2025-02-27, 17:36:53
Ja, könnten schon mehr sein.
Aber die Liste ist sicher nicht komplett und wird bestimmt schnell länger. Vorallem wenn die Karten und FSR 4 gut sind.
Steht doch da, einfach den letzten Absatz lesen. ;)
Bis zum Jahresende werden bereits mehr als 75 FSR4-Games angekündigt. Da ist garantiert eins für dich dabei.
Ja logisch. Was ich damit sagen wollte... alte Spiele die ich schon durchgespielt habe sind nicht so interessant @FSR4 wie neue Spiele die erst kommen. :)
Wiseman
2025-02-27, 17:46:07
Ja logisch. Was ich damit sagen wollte... alte Spiele die ich schon durchgespielt habe sind nicht so interessant @FSR4 wie neue Spiele die erst kommen. :)
Seh ich doch genauso. Und da du eh nicht bei den Käufern dabei sein wirst, die bereitwillig den von dir zitierten "Deppenaufschlag" bezahlen werden, kannst du in aller Ruhe abwarten, bis ein neues FSR4-Game rauskommt.
Schnitzl
2025-02-27, 17:56:56
Guter Punkt. Wird eine Gradwanderung. UVP gut und Recht, viel wichtiger ist jedoch was der Händler in Endeffekt für eine lagernde Karte abruft.
nicht nur das.
Es muss auch abgeschätzt werden, wie viele sich letztlich überhaupt ne AMD Grafikkarte kaufen (wollen)
Das ist für mich noch ein größeres Mysterium als der Preis ;)
Bringt ja nichts wenn AMD in Massen produziert und danach liegen die Karten rum und verstauben...
fizzo
2025-02-27, 18:09:36
Die Hersteller scheinen jedenfalls überzeugt zu sein, dass es genügend Käufer gibt. Alleine XFX ist mit 9 Modellen ( https://videocardz.com/newz/xfx-preparing-9-models-of-radeon-rx-9070-xt-graphics-cards)am Start. Morgen werden wohl alle den Vorhang lüften.
dargo
2025-02-27, 18:15:52
Die Hersteller scheinen jedenfalls überzeugt zu sein, dass es genügend Käufer gibt. Alleine XFX ist mit 9 Modellen ( https://videocardz.com/newz/xfx-preparing-9-models-of-radeon-rx-9070-xt-graphics-cards)am Start. Morgen werden wohl alle den Vorhang lüften.
Ach du Schreck, das gabs glaube ich noch nie. :D
Wiseman
2025-02-27, 18:23:54
nicht nur das.
Es muss auch abgeschätzt werden, wie viele sich letztlich überhaupt ne AMD Grafikkarte kaufen (wollen)
Das ist für mich noch ein größeres Mysterium als der Preis ;)
Bringt ja nichts wenn AMD in Massen produziert und danach liegen die Karten rum und verstauben...
Im Ernst, ich gehe davon aus, die werden ihnen aus den Händen gerissen. Bei diesen Preisen deutlich unter der 1000€-Schmerzgrenze (*) und bei diesen zu erwartenden Leistungen im Bereich einer 7900XTX (mal knapp drunter in Raster, mal deutlich drüber in Raytracing).
(*) Natürlich werden einige Händler im März für die 9070XT um die 1000€ verlangen, aber das war doch immer so. Muss man halt ein bisschen warten und dann kriegt man eine "vernünftige" 9070XT (z. B. das 2x8Pin Modell) für 800€.
Für ne Nitro würde ich auch 900€ ausgeben wollen. Von einer 4090 mit deutlich mehr VRAM kommend, irgendwo Nonsens, aber zum Einen der Basteldrang und zum Zweiten die Treiber!
TheGood
2025-02-27, 18:34:11
hoffen wir dass die anzeichen am ende sich so bewahrheiten, aber das problem wird auch hier die lieferbarkeit sein.
Wenn sie peformt wird sie egal was sie kostet ausvkerauft sein. Ich denke man kann sich da jetzt schon drauf einstellen. Am Releasetag wird man kaufen müssen um eine zu erhalten. Wo sollen die Mengen auch herkommen.
dargo
2025-02-27, 18:38:59
Wo sollen die Mengen auch herkommen.
Aus den Fertigungsstraßen der AIBs? :uconf2:
Das Ding wurde um ~6 Wochen verschoben. Da war genug Zeit auch für Schiffscontainer.
Wiseman
2025-02-27, 18:47:19
Für ne Nitro würde ich auch 900€ ausgeben wollen. Von einer 4090 mit deutlich mehr VRAM kommend, irgendwo Nonsens, aber zum Einen der Basteldrang und zum Zweiten die Treiber!
Und ich würde für eine 2x8Pin Hellhound 9070XT, wenn sie auch so flüsterleise wie meine Hellhound 7900XTX sein sollte, 800€ ausgeben. Von einer 7900XTX mit 24GB VRAM kommend würde ich sogar 8GB VRAM weniger verkraften , weil ich inzwischen der Meinung bin, dass man in 4k auch mit 16GB VRAM gut auskommt (Firlefanz wie PT & Co kommt für mich sowieso nicht in Frage) und weil ich stattdessen FSR4 Sofort genießen könnte und weil ich so wie du auch die mich seit Jahren nie enttäuschenden AMD-Treiber samt genialem AFMF2 nicht vermissen möchte.
Schnitzl
2025-02-27, 18:49:08
Aus den Fertigungsstraßen der AIBs? :uconf2:
Das Ding wurde um ~6 Wochen verschoben. Da war genug Zeit auch für Schiffscontainer.
auch da würde ich mich nicht so sehr in Sicherheit wiegen...
Manager machen da oft Manager Sachen... "ach ist ja noch Zeit, macht lieber Datacenter Chips; unsere Gamerkarten kauft eh keiner"
Und ich würde für eine 2x8Pin Hellhound 9070XT, wenn sie auch so flüsterleise wie meine Hellhound 7900XTX sein sollte, 800€ ausgeben. Von einer 7900XTX mit 24GB VRAM kommend würde ich sogar 8GB VRAM weniger verkraften , weil ich inzwischen der Meinung bin, dass man in 4k auch mit 16GB VRAM gut auskommt (Firlefanz wie PT & Co kommt für mich sowieso nicht in Frage) und weil ich stattdessen FSR4 Sofort genießen könnte und weil ich so wie du auch die mich seit Jahren nie enttäuschenden AMD-Treiber samt genialem AFMF2 nicht vermissen möchte.
Japp, exakt!
Nakai
2025-02-27, 19:21:42
Ahja, es scheint, dass manche Verbesserungen von RDNA3.5 nicht drin sind.
Die Texturfillrate müsste etwa doppelt so hoch sein, was nicht der Fall ist.
War aber irgendwie klar.
OgrEGT
2025-02-27, 19:29:29
30+ FSR4 Games zum Launch
https://videocardz.com/newz/amd-fsr-4-coming-to-30-games-at-launch-heres-the-list
Oh ja FSR4 für TLOU Part II Remastered (Apr 5) :love4:
Und Ratchet & Clank: Rift Apart ist auch cool, das hab ich noch nicht gespielt...
Wiseman
2025-02-27, 19:31:57
Also ich bleibe bei meiner Einschätzung:
1. Es wird kein Paperlaunch werden.
AMD war in der Lage, bereits Ende Dezember Karten an Händler zu liefern und gab sich dann Anfang Januar mit der offiziellen Launch-Ankündigung für März 2025 nochmals 8 Wochen Extra-Zeit, um Karten in ausreichender Menge für den Launch zu produzieren.
2. Die 9070-er Karten werden weggehen wie die warmen Semmeln.
Ich wiederhole mich: Kann gar nicht anders sein bei diesen vernünftigen Preisen für Karten, die von der Leistung her eher high-end als mid-range sind.
crux2005
2025-02-27, 19:38:17
Krass gutes Video. Es wird Zeit, dass Lisa endlich das Ruder in die Hand nimmt bei ATI. nVidia ist verwundbar, aber man muss es halt wollen. Selbst wenn es bei ihnen läuft, sind sie auf ne gewisse Marge angewiesen, siehe share Preis.
Ja, das Missmanagement in der Grafiksdivision geht eindeutig auf die Kappe von der CEO. Keine Ahnung wieso Su das so lange tolleriert (hat). Aber das vollen die Fanboys sicher nicht hören. ;)
horn 12
2025-02-27, 19:40:08
@Wiseman
Hast ja auch KEINE Garantie mehr drauf, so wie meine 7900XTX MBA ist im Dezember ausgelaufen
und würde jene für 720 Euro loswerden können
und dann für 780 eine Powercolor Hellhound mit 2x 8 pin
oder die Gigabyte mit 3x 8 Pin
Neuer Computer 9800X3X hat NT eben dann 3x 8 Pin Eingänge
OgrEGT
2025-02-27, 19:41:28
Wenn ich wirklich mir ne 9070XT zulegen würde, dann am liebsten wieder ne Nitro... Da ist noch nicht klar ob sie den 12VHPWR oder 3x8PIN Stecker hat...
AtTheDriveIn
2025-02-27, 19:50:40
Microcenter hat(te) die XT für 699$ gelistet, laut LTT?
Wiseman
2025-02-27, 19:59:53
@Wiseman
Hast ja auch KEINE Garantie mehr drauf, so wie meine 7900XTX MBA ist im Dezember ausgelaufen
und würde jene für 720 Euro loswerden können
und dann für 780 eine Powercolor Hellhound mit 2x 8 pin
oder die Gigabyte mit 3x 8 Pin
Neuer Computer 9800X3X hat NT eben dann 3x 8 Pin Eingänge
Ja, Garantie wär futsch. Meine Hellhound ist ja auch eine Dezember 2022 Karte. Ich wär mir auch nicht sicher, ob ich sie verkaufen würde. Ist mir ans Herz gewachsen. Ist die beste Grafikkarte, die ich jemals hatte.
Betreffs 3x8Pin, es kann sogar sein, dass mein 1000W Netzteil von Be Quiet auch schon 3x8Pin kann, denn das habe ich erst Ende 2024 gekauft. Aber trotzdem, 2x8Pin wär mir lieber. Reicht locker aus wie meine 2x8Pin Hellhound 7900XTX zeigte.
dargo
2025-02-27, 20:00:44
Microcenter hat(te) die XT für 699$ gelistet, laut LTT?
Alte Kamelle.
AtTheDriveIn
2025-02-27, 20:01:56
Alte Kamelle.
Ah ok, verdammter Job. ;)
dargo
2025-02-27, 20:06:17
Es war übrigens Asrock, aber viele Preisangaben ergaben beim Microcenter noch überhaupt keinen Sinn.
crux2005
2025-02-27, 21:02:15
30+ FSR4 Games zum Launch
https://videocardz.com/newz/amd-fsr-4-coming-to-30-games-at-launch-heres-the-list
Nur 30? Und ältere Spiele fehlen komplett wie z.B. RDR2 oder Cyberpunk2077. Das ist doch Mist. :frown:
DeadMeat
2025-02-27, 21:10:49
Nur 30? Und ältere Spiele fehlen komplett wie z.B. RDR2 oder Cyberpunk2077. Das ist doch Mist. :frown:
cdred war doch schon immer sehr sehr langsam (und schlecht) beim FSR, kommt sicher irgendwann.
crux2005
2025-02-27, 21:12:41
cdred war doch schon immer sehr sehr langsam (und schlecht) beim FSR, kommt sicher irgendwann.
Klar, CDPR ist grünes Lager, aber trotzdem. Ältere Spiele fehlen komplett. Control würde ich gerne mit vollem RT durchspielen.
Oder wo ist AC Shadows? Das soll doch FSR3 haben. Die Liste stimmt mich nicht positiv.
raffa
2025-02-27, 21:25:08
Alles mit FSR3.1.x sollte funktionieren.
AMD braucht einfach mehr Marktanteile, bei 30% traut sich kaum keiner, ein Spiel mit DLSS aber ohne FSR zu bringen.
edit: Ich wiederhole mich: Eigentlich braucht es einen vendor agnostischen Upsampling Standard.
crux2005
2025-02-27, 21:30:38
AMD braucht einfach mehr Marktanteile, bei 30% traut sich kaum keiner, ein Spiel mit DLSS aber ohne FSR zu bringen.
edit: Ich wiederhole mich: Eigentlich braucht es einen vendor agnostischen Upsampling Standard.
Bald werden wir erfahren ob die AMD Graphics Division mehr Anteile überhaupt will oder es ihr passt im Schatten von Nvidia zu sein.
Hakim
2025-02-27, 21:35:44
Am besten wäre ein Standard was alle einhalten müssen, da hätten wir solche Probleme nicht, wäre auch weniger Arbeit für alle. Jetzt wo beide dedizierte Hardware Einheiten für haben sollte es ja gehen, halt ein Standard dafür und eines für ältere GPUs die es nicht können.
raffa
2025-02-27, 21:42:09
Jo, so isses. Wenn DirectSR(oder ein fiktives vk_khr_taau) benutzt würde, und die Hersteller das auf ihren GPUs dann eben bestmöglich implementieren, wäre viel gewonnen (für alle, ausser NV)
Den Dau interessieren DLSS, oder FSR nicht. Und mit Begriffen wie "Qualität und Leistung" kann jeder etwas anfangen.
Den Dau interessieren DLSS, oder FSR nicht. Und mit Begriffen wie "Qualität und Leistung" kann jeder etwas anfangen.
"Der DAU" wird aber von "den Experten" beraten. Und wenn da ständig etwas von DLSS und Geforce voll geil gebrabbelt wird, wollen die eine Nvidia. Egal, ob die das Zeug brauchen, Unterschiede sehen etc.
MfG
Raff
TheGood
2025-02-27, 21:44:30
Also ich bleibe bei meiner Einschätzung:
1. Es wird kein Paperlaunch werden.
AMD war in der Lage, bereits Ende Dezember Karten an Händler zu liefern und gab sich dann Anfang Januar mit der offiziellen Launch-Ankündigung für März 2025 nochmals 8 Wochen Extra-Zeit, um Karten in ausreichender Menge für den Launch zu produzieren.
2. Die 9070-er Karten werden weggehen wie die warmen Semmeln.
Ich wiederhole mich: Kann gar nicht anders sein bei diesen vernünftigen Preisen für Karten, die von der Leistung her eher high-end als mid-range sind.
Selbst das kann nicht reichen. ABer sie haben es wenigstens versucht, zumindest können sie es sagen :) Wieviel wahrheit dahintersteckt wissen wir nicht....
"Der DAU" wird aber von "den Experten" beraten. Und wenn da ständig etwas von DLSS und Geforce voll geil gebrabbelt wird, wollen die eine Nvidia. Egal, ob die das Zeug brauchen, Unterschiede sehen etc.
MfG
Raff
Auch wieder richtig. Hier kommt es dann insbesondere auf Objektivität der Berichterstattung an.
Der_Korken
2025-02-27, 22:21:30
Mir fällt gerade auf, was für eine krass verschwendete Gelegenheit es war, die Karten "9070" zu nennen. Nicht nur, dass man mit "RX 9800" und "RX9700" im Fahrwasser von 9700X und 9800X3D hätte schwimmen können. Nein, man hätte als Namensvetter der sehr erfolgreichen Radeon 9000er Serie auftreten können. Die damals auch gegen eine Gen angetreten ist, wo Nvidia reingeschissen hat. Und das zufälligerweise auch mit einem 5000er Namen ;D. Alter, wäre das geil gewesen.
Ex3cut3r
2025-02-27, 22:26:45
Eine 9800XT hatte damals aber die Performance Krone, die heutige 9070XT wird aber keine 5090 überholen. Sondern sich irgendwo zwischen einer 2 Jahre alten 4070 Ti und einer 5070 (Ti) rumschlagen dürfen je nach Spiel. Und ob FSR 4.0 auf Transformer DLSS Niveau ist, wurde ich stand jetzt mal stark bezweifeln. Vlt. kommen Sie auf DLSS "3" bzw. Preset E ran. Das dürfte wohl das höchste der Gefühle sein.
reaperrr
2025-02-27, 23:30:10
Den Dau interessieren DLSS, oder FSR nicht. Und mit Begriffen wie "Qualität und Leistung" kann jeder etwas anfangen.
Der DAU glaubt Nvidia grundsätzlich erstmal alles, bis populäre von diesen DAUs frequentierte Tech-Seiten und/oder Tech-Youtuber so ehrlich sind es auch zu sagen, wenn's nur Marketing-BS war.
irgendwo zwischen einer 2 Jahre alten 4070 Ti und einer 5070
Die 5070 ohne Ti wird im Schnitt eher langsamer als die 4070Ti rauskommen.
Nicht vergessen, die 5070 hat satte 31,5% weniger SM als die 5070 Ti und 20% weniger als die 4070Ti.
Die wird wohl nur durch Takt und hohes PT in Richtung ~4070S (Raster) / Ti (RT/PT) geprügelt.
Und gegenüber der 5070 hat AMD neben besserer Rasterleistung auch noch mehr VRAM.
FRS4 Qualität muss man abwarten, aber ob Mainstream-Kunden so tief in die Preset-Materie einsteigen darf bezweifelt werden, solange FSR4 klar besser als 3(.1) aussieht und nicht zu weit von NV weg ist, werden die Leute auch wieder stärker auf herkömmliches P/L, Perf/W usw. achten.
RDNA3 hatte zu viele zu heftige Schwächen. RDNA4 scheint den technischen Rückstand überall so deutlich zu verkürzen, dass kein Bereich mehr ein absolutes KO-Kriterium darstellt, solange der Preis passt.
Der_Korken
2025-02-28, 00:09:40
Eine 9800XT hatte damals aber die Performance Krone, die heutige 9070XT wird aber keine 5090 überholen.
Das ist klar. Damals war es ATI, die mit dem 256bit SI neue Wege gegangen sind und das technisch machbare ausgereizt haben. Gegen einen GB202, der bereits am Limit der maximal belichtbaren Diefläche arbeitet, wäre das nur mit einem absurd teuren Multichip-Design möglich. Dennoch hat RDNA4 abseits der Leistungskrone viel Comeback-Potenzial aus einer katastrophalen Marktposition heraus (<10%) - so wie damals ATI der Noname-Hersteller war.
bbott
2025-02-28, 00:29:15
Der UVP ist doch egal, solange NV nicht liefern kann werden die Händler, Hersteller oder AMD zulangen... und wenn es bei AMD landet ist mehr Geld für F&E da. Also lieber bei AMD als bei den anderen.
DrFreaK666
2025-02-28, 01:33:19
... so wie damals ATI der Noname-Hersteller war.
Wo war ATI damals noname? ATI wurde 1985 gegründet und NV 1993.
1993 war also Nvidia der noname
reaperrr
2025-02-28, 02:32:43
Wo war ATI damals noname? ATI wurde 1985 gegründet und NV 1993.
1993 war also Nvidia der noname
Nvidia war spätestens ab Geforce 2 bei der Markenpopularität klar vorn, Riva TNT(2) war vorher auch schon populärer als die ATi-Karten.
Geforce 3 und 4 waren auch klar erfolgreicher und populärer als die ATi-Karten, bis quasi aus dem Nichts die 9700 Pro kam und die FX 5800 Ultra dann zu recht als hitzköpfiger Fön verschrien war.
Aber schon damals war's in der Wahrnehmung bei den Mainstream-Kunden für ATi so ein bisschen wie Don Quixote gegen die Windmühlen, sie mussten immer alles besser machen, damit mal knapp ~40-45% der Leute zähneknirschend vorübergehend zu ATI gegriffen haben, die dann mit Freude und Erleichterung schnell wieder zu NV zurückkehrten sobald Geforce auch nur technologisch gleichauf, geschweige denn wieder etwas vorn waren.
So ist es im Grunde geblieben, bis Ex-ATi unter AMD ab ~2011 mehrere Jahre kaum noch R&D-Budget hatte, durch die lange GCN-Stagnation den Anschluss verloren hat und nur über billige Preise (und Verzicht auf Gewinne) halbwegs Marktanteile halten konnte.
Bei RDNA2 vs. Ampere waren meiner Meinung nach aber weniger die MSRPs noch die Karten an sich das Problem, sondern dass AMD bis weit in 2023 hinein in 7nm extrem Wafer-Kapazitäts-limitiert war, und Zen2/3 (v.a. für Server und APUs) sowie Konsolen-SoCs klaren Vorrang hatten, während NV genau in den Mining- und Scalper-Boom hinein Samsungs 8LPP quasi für sich allein hatte und zudem wegen mäßiger Yields nur für funktionierende Chips zahlen musste, weshalb sie
- die 3080 auf GA102 statt GA103 basieren konnten; GA103 hätte nur 3840 ALUs im Vollausbau gehabt und gegen die 6800XT verloren
- mit zig weiteren GA102-Modellen um sich schmeißen konnten, weil sie die Chips relativ betrachtet spottbillig bekommen haben
- generell, anders als AMD, den Markt mit GPUs fluten konnten, weshalb dann später so viele neue und gebrauchte Amperes auf dem Markt waren, dass die 6x00er von AMD dann auch kaum noch jemand brauchte/wollte, als AMD die endlich in größeren Stückzahlen produzieren konnte.
Taigatrommel
2025-02-28, 02:42:14
30+ FSR4 Games zum Launch
https://videocardz.com/newz/amd-fsr-4-coming-to-30-games-at-launch-heres-the-list
Die Liste ist ja eher ernüchternd. War nicht erst die Rede davon, dass alle FSR 3 Titel automatisch FSR 4 unterstützen würden? Avatar, Cyberpunk und mal als doch sehr aktuelle Beispiele Indiana Jones oder Lost Records vermisse ich auf der Liste.
crux2005
2025-02-28, 03:01:09
Die Liste ist ja eher ernüchternd. War nicht erst die Rede davon, dass alle FSR 3 Titel automatisch FSR 4 unterstützen würden? Avatar, Cyberpunk und mal als doch sehr aktuelle Beispiele Indiana Jones oder Lost Records vermisse ich auf der Liste.
Ja, war es. Jetzt auf einmal "muss es schon" 3.1 sein.
reaperrr
2025-02-28, 03:02:19
Die Liste ist ja eher ernüchternd. War nicht erst die Rede davon, dass alle FSR 3 Titel automatisch FSR 4 unterstützen würden? Avatar, Cyberpunk und mal als doch sehr aktuelle Beispiele Indiana Jones oder Lost Records vermisse ich auf der Liste.
Alle FSR 3.1 Titel.
Entwickler müssten ihre FSR3.0-Implementierungen also zumindest erstmal auf 3.1 upgraden, gänzlich ohne Tätigwerden der Entwickler geht es in dem Fall also nicht.
Werden sicher einige noch machen, aber generell fassen Entwickler/Publisher fertige Spiele ungern nochmal an, weil man dann Entwicklungszeit in ein Spiel steckt, welches sich durch ein solches Update nicht nennenswert (oder gar nicht) besser verkauft.
Ja, war es. Jetzt auf einmal "muss es schon" 3.1 sein.
Quelle?
Dass es überhaupt geht, habe ich bisher immer nur im Zusammenhang mit 3.1 gelesen.
Und dafür, dass es vor nem Jahr überhaupt erst 12 FSR3-Titel gab, sind 30+ zum Launch für FSR4 OK.
Man muss hier eher von Glück sagen, dass FSR4 nicht komplett eigenständig implementiert werden muss.
DrFreaK666
2025-02-28, 03:03:54
... langer Text...
Keine Ahnung was der lange Text mit der Behauptung ATI sei damals noname gewesen zu tun hat
Die Liste ist ja eher ernüchternd. War nicht erst die Rede davon, dass alle FSR 3 Titel automatisch FSR 4 unterstützen würden? Avatar, Cyberpunk und mal als doch sehr aktuelle Beispiele Indiana Jones oder Lost Records vermisse ich auf der Liste.
Nein. Es war von 3.1 die Rede
reaperrr
2025-02-28, 03:32:22
Keine Ahnung was der lange Text mit der Behauptung ATI sei damals noname gewesen zu tun hat
Definitiv mehr als die Gründungsdaten der beiden Firmen. :rolleyes:
Aber ich fass für dich zusammen: Bis R300 kam, war ATi auch damals schon auf dem besten Weg, mangels Popularität langsam in der Versenkung zu verschwinden.
"Noname" mag übertrieben sein, aber damals war's auch nicht mehr ganz so weit von der Realität entfernt, bis R300 sie in der Hinsicht gerettet hat.
crux2005
2025-02-28, 03:45:31
AMD RDNA4 officially presented in China: Radeon RX 9070 XT priced at 4999 RMB (~$599), RX 9070 at 4499 RMB (~$549)
https://videocardz.com/newz/amd-rdna4-officially-presented-in-china-radeon-rx-9070-xt-priced-at-4999-rmb-599-rx-9070-at-4499-rmb-549
Damit wäre endlich die Katze aus dem Sack. Wieso man aber so was ~12 Std. vor der offiziellen weltweiten Vorstellung macht ist mir schleierhaft. :confused:
$600 für die 9070 XT wäre gut aber $550 für die 9070 IMHO zu viel.
Quelle?
https://www.techpowerup.com/331678/fsr-4-support-arriving-day-one-for-all-current-fsr-3-1-game-titles-according-to-leak
OK, mein Fehler. Schon im Januar wurde 3.1 genannt. Hatte ich falsch in Erinnerung. Oder irgendwo anders wurde nur "FSR3" genannt. Kann ich jetzt auf die schnelle nicht finden. Ist ja schon eine Weile her.
Taigatrommel
2025-02-28, 05:03:09
Nein. Es war von 3.1 die Rede
Ich habe es ebenfalls verwechselt, auch ich hatte im Kopf, dass FSR 3 als Grundlage ausreichend wäre.
Dennoch müssten z.B. Indiana Jones und Avatar: Frontiers of Pandora auf der Liste sein, denn beide Titel haben FSR 3.1 per Patch bekommen.
Hakim
2025-02-28, 05:26:19
50$ Unterschied... ernsthaft? Ich rede mir ja schon die huni Preisdifferenz schön, bei 50 Unterschied muss man nicht zweimal überlegen was man holen sollte. Dennoch mal die offizielle Vorstellung hier abwarten
robbitop
2025-02-28, 05:40:32
Mit Optiscaler wird dann sobald die dlls raus sind jedes Spiel was DLSS 2+ oder FSR2+ oder XeSS kann auch FSR4 nutzen können. Da braucht man als nicht-DAU auf kein Studio zu warten und zu hoffen. :)
dildo4u
2025-02-28, 06:06:37
50$ Unterschied... ernsthaft? Ich rede mir ja schon die huni Preisdifferenz schön, bei 50 Unterschied muss man nicht zweimal überlegen was man holen sollte. Dennoch mal die offizielle Vorstellung hier abwarten
Normales Upselling AMD hat das selbe mit der 7700XT gemacht und diesmal bekommt man 16GB.
GerryB
2025-02-28, 07:17:48
Dennoch müssten z.B. Indiana Jones und Avatar: Frontiers of Pandora auf der Liste sein, denn beide Titel haben FSR 3.1 per Patch bekommen.
sollte egal sein, ... wenn FSR3.1 drin ist, kann FSR4 per Treiber forciert werden
aber generell fassen Entwickler/Publisher fertige Spiele ungern nochmal an, weil ...
generell= ?!, ... außer bei Gamemurks, der wird in 99% der Fälle reingepatched.
Seriöse Reviewer sollten bei jedem betroffenem Game darauf hinweisen, das "komischerweise" nicht alle Tools aktualisiert werden.
Was war das für ein Shitstorm bei Starfield, und jetzt ?
Jeder, der was auf sich hält sollte die FG-Tools von Intel+NV+AMD drinhaben, ... man will ja schließlich Wettbewerb up to date.
Software-Monopole sind mindestens genauso schädlich wie Hardware-Monopole.
fizzo
2025-02-28, 07:47:45
50$ Unterschied... ernsthaft? Ich rede mir ja schon die huni Preisdifferenz schön, bei 50 Unterschied muss man nicht zweimal überlegen was man holen sollte. Dennoch mal die offizielle Vorstellung hier abwarten
War auch mein erster Gedanke. 599$ für die XT wären definitiv ein nobrainer :up:
dargo
2025-02-28, 08:11:40
Eine 9800XT hatte damals aber die Performance Krone, die heutige 9070XT wird aber keine 5090 überholen. Sondern sich irgendwo zwischen einer 2 Jahre alten 4070 Ti und einer 5070 (Ti) rumschlagen dürfen je nach Spiel. Und ob FSR 4.0 auf Transformer DLSS Niveau ist, wurde ich stand jetzt mal stark bezweifeln.
Transformer ist aber langsamer vs. CNN, erst recht mit Ada. Je älter die Geforce Generation umso langsamer ist Transformer.
AMD RDNA4 officially presented in China: Radeon RX 9070 XT priced at 4999 RMB (~$599), RX 9070 at 4499 RMB (~$549)
https://videocardz.com/newz/amd-rdna4-officially-presented-in-china-radeon-rx-9070-xt-priced-at-4999-rmb-599-rx-9070-at-4499-rmb-549
Damit wäre endlich die Katze aus dem Sack. Wieso man aber so was ~12 Std. vor der offiziellen weltweiten Vorstellung macht ist mir schleierhaft. :confused:
$600 für die 9070 XT wäre gut aber $550 für die 9070 IMHO zu viel.
Riecht stark nach Upselling zur XT. Aber immerhin sind es keine übertriebenen Kosten bei der XT mit 599$ UVP. (y) Auf der anderen Seite möchte sich AMD eventuell auch die Preise von N44 nicht kaputt machen. Womöglich wird N44 XT bei 349-399$ liegen.
dildo4u
2025-02-28, 08:16:20
Laut dem verliert 5090 mher Performance als 4090.
Logischerweise wurde die Technik auf Lovelace entwickelt.
rlePeTM-tv0
Linmoum
2025-02-28, 08:18:55
Transformer ist aber langsamer vs. CNN, erst recht mit Ada. Je älter die Geforce Generation umso langsamer ist Transformer.Der Umstand ist relativ irrelevant, weil Transformer im P-Mode schon besser aussieht als CNN im Q-Mode. Das ist ja der Witz an der Sache.
dargo
2025-02-28, 08:20:58
Laut dem verliert 5090 mher Performance als 4090.
Logischerweise wurde die Technik auf Lovelace entwickelt.
https://youtu.be/rlePeTM-tv0
Das sollte aber nicht der Fall sein, Treiber Fuckup? Egal, ist in diesem Thread fehl am Platz.
Der Umstand ist relativ irrelevant, weil Transformer im P-Mode schon besser aussieht als CNN im Q-Mode. Das ist ja der Witz an der Sache.
Das ist keine objektive Betrachtung der Tatsachen. Auch Transformer hat noch einige sichtbare Probleme mit Performance Upscaling.
Mit Optiscaler wird dann sobald die dlls raus sind jedes Spiel was DLSS 2+ oder FSR2+ oder XeSS kann auch FSR4 nutzen können. Da braucht man als nicht-DAU auf kein Studio zu warten und zu hoffen. :)
Einfach installieren und das wars oder was muss man da alles beachten und wie sieht es mit der Qualität aus? Also DLSS auf nvidia und DLSS auf AMD, gleiche Qualität oder gibts dann mehr Artefakte oder sonst was?
Wenn die 9070 XT wirklich ab 600 Dollar *1,19 = ca. 714 € rauskommt, könnte ich wieder zu den "roten" wechseln.^^
E39Driver
2025-02-28, 08:28:57
599$ UVP für die XT wäre sehr sehr gut, sofern diese wirklich auf Augenhöhe zur 5070TI raus kommt.
Der geringe Preisabstand zur Non-XT spricht auf dafür, dass diese zum einen die 5070 schlagen wird und zum anderen die Quote an schlechten Chips gering ist. Da beide Karten mit 16-GB raus kommen und das selbe Interface haben, wird in den Produktionskosten auch kein wirklicher Unterschied vorliegen. Da macht es Sinn die stärkere XT direkt als besseres Angebot zu platzieren.
mboeller
2025-02-28, 08:29:30
Wenn die 9070 XT wirklich ab 600 Dollar *1,19 = ca. 714 € rauskommt, könnte ich wieder zu den "roten" wechseln.^^
laut Bing sind 4999 RMB gerade 660,- Euro. Die haben in China anscheinend einen Mehrwertsteuersatz von 13%, laut google. Mit 19% wären das dann 695,- Euro.
Relex
2025-02-28, 08:32:26
Das sollte aber nicht der Fall sein, Treiber Fuckup? Egal, ist in diesem Thread fehl am Platz.
Warum versteht hier immer niemand, wie Frametimekosten funktionieren??
Die 5090 arbeitet in dem Test mit deutlich mehr FPS. Wenn der Algorithmus höhere Frametime Kosten hat, wirkt sich das bei hohen FPS prozentual stärker auf die Performance aus, als bei den niedrigeren FPS auf der 4090.
Falls AMD für FSR4 ein höheres Frametime Budget einräumt, wird das dort genauso relevant sein.
dargo
2025-02-28, 08:33:56
Warum versteht hier immer niemand, wie Frametimekosten funktionieren??
Die 5090 arbeitet in dem Test mit deutlich mehr FPS. Wenn der Algorithmus höhere Frametime Kosten hat, wirkt sich das bei hohen FPS prozentual stärker auf die Performance aus, als bei den niedrigeren FPS auf der 4090.
Warum fragst du mich das und nicht dildo? ;)
Lurtz
2025-02-28, 08:50:57
Warum versteht hier immer niemand, wie Frametimekosten funktionieren??
Die 5090 arbeitet in dem Test mit deutlich mehr FPS. Wenn der Algorithmus höhere Frametime Kosten hat, wirkt sich das bei hohen FPS prozentual stärker auf die Performance aus, als bei den niedrigeren FPS auf der 4090.
Falls AMD für FSR4 ein höheres Frametime Budget einräumt, wird das dort genauso relevant sein.
Danke. Dildos Ableitungen sind immer abenteuerlich :(
woodsdog
2025-02-28, 08:54:11
Transformer ist aber langsamer vs. CNN, erst recht mit Ada. Je älter die Geforce Generation umso langsamer ist Transformer.
Na, lassen wir mal wieder absichtlich Informationen weg damit überhaupt ein pseudo-argument draus wird?
Transformer sieht erheblich besser aus auf der selben Qualitäts-Stufe weshalb man für eine Vergleichbare Qualität auf dem Bildschirm praktisch immer auf Transformer-Balanced und oft sogar auf Transformer-Performance runter schalten kann. Und dann ists spürbar schneller als DLSS 3 und erst recht besser als Flimmer-FSR... AUCH auf Ada... Darüber hinaus reden wir über EINSTELLIGE Prozent-werte... Aber an einer Fakten-basierten Diskussion bist du ja eh nicht interessiert
https://i.postimg.cc/KcqKNhQv/Screenshot-2025-02-28-085016.png
Relex
2025-02-28, 08:59:38
Warum fragst du mich das und nicht dildo? ;)
Weil du sagtest, das sollte so nicht sein.
Bei dildo wars eher ne Feststellung, die ja in dem Fall nicht falsch ist, sondern das wiedergibt, was im Video gesagt wurde.
Ich finde aber es ist wichtig zu verstehen, warum das passiert. Und das erklärt sich eben von selbst, wenn man versteht, dass eine erhöhung der Frametime Kosten sich bei hohen FPS stärker auswirkt.
Bei FSR4 wirds in dem Sinne interessant, weil es viele mögliche Szenarien gibt.
FSR4 könnte schneller, gleich schnell oder langsamer als FSR3 sein.
Da AMD das erste mal auf ML umstellt und dafür auch die Hardware ändert ist das natürlich kaum vorhersehbar.
Trotzdem würde sich auch hier ein schneller oder langsamerer Algo bei hohen FPS prozentual am deutlichsten auswirken.
fizzo
2025-02-28, 09:04:43
PowerColor launches Radeon RX 9070 (XT) Red Devil, Hellhound and Reaper series (https://videocardz.com/press-release/powercolor-launches-radeon-rx-9070-xt-red-devil-hellhound-and-reaper-series)
PowerColor geht auch in die Vollen. Eine Hellhound steht ganz weit oben auf meinem Wunschzettel.
laut Bing sind 4999 RMB gerade 660,- Euro. Die haben in China anscheinend einen Mehrwertsteuersatz von 13%, laut google. Mit 19% wären das dann 695,- Euro.
Die 5070TI ist in China 26% höher bepreist und kostet bei uns 884€. Also sollten 699€ für die 9070XT stehen.
dildo4u
2025-02-28, 09:08:23
Danke. Dildos Ableitungen sind immer abenteuerlich :(
Es ging mir um die Aussage Lovelace saugt mit dem Transformer Modell ich bin mir ziemlich sicher das Blackwell nicht besser performt wenn beide vergleichbare Rechenleistung haben.
Wäre cool wenn es Tests geben würde ob z.b die 5070 TI weniger verliert als 4080 etc.
[MK2]Mythos
2025-02-28, 09:12:00
Hier geht es um rdna4 und nicht um nvidia oder dlss!
mironicus
2025-02-28, 09:14:02
Kann AMD die RX 9070 nicht auch in Laptops verbauen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.