Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
dargo
2025-02-17, 17:40:53
Und der compute Anteil von FSR (vs nur dessen Input resolution natürlich auch.
Völlig irrelevant, bis Quality Preset ist die Last immer geringer trotz Upscaling Overhead. Sieht jeder Mensch am etwas höheren Takt der GPU und/oder weniger Verbrauch.
Ex3cut3r
2025-02-17, 17:46:56
Gerade die gute Fps-Skalierung mit FSR+FG macht für mich AMD interessant.
Seit MFG (50er Gen) ist das komplett unerheblich. Schließlich kann die 50er Gen jetzt 4x FG erzeugen.
GerryB
2025-02-17, 17:48:27
Wenn man in einen Framelimiter läuft bringt auch höhere Frequenz nichts. Allgemein sollte mehr Frequenz nichts an Mehrleistung wenn die GPU nicht ausgelastet wird. ...
Irrtum,
es gibt Games die nicht alle FP32 auslasten.(x)
Da kann ne zusätzliche FP16-Last fast kostenlos draufgepackt werden.
(x) vor Allem wenn mit Upscaler die eff. Resi kleiner ist
z.Bsp. in MHW taktet meine GPU trotz CPU-Limit gut hoch, ... ohne die 203Wtgp zu brauchen
dargo
2025-02-17, 17:48:43
Seit MFG (50er Gen) ist das komplett unerheblich. Schließlich kann die 50er Gen jetzt 4x FG erzeugen.
Blödsinn, aber was will man schon von jemanden erwarten der MFG nicht verstanden hat. Wie ich schon wo anders gesagt habe... 2x FG lässt sich gerade mal sinnvoll (brauchbare Latenzen) mit einem 240Hz Screen ausfahren. MFG ist da Nische von der Nische. Schon wieder amüsant von einem Grünen zu lesen wie wichtig MFG ist und dann nutzt der User einen 144Hz Screen. :crazy:
Ex3cut3r
2025-02-17, 17:57:47
Blödsinn, aber was will man schon von jemanden erwarten der MFG nicht verstanden hat. Wie ich schon wo anders gesagt habe... 2x FG lässt sich gerade mal sinnvoll (brauchbare Latenzen) mit einem 240Hz Screen ausfahren. MFG ist da Nische von der Nische. Schon wieder amüsant von einem Grünen zu lesen wie wichtig MFG ist und dann nutzt der User einen 144Hz Screen. :crazy:
So ein Blödsinn. Bei 4x FG und 60 FPS nativ hast du so ca. 270 FPS mit einer 5090.
Was spielt es für eine Rolle? Man kann sich auch einen 4K mit 240HZ OLED hinstellen. Dann macht 4x FG absolut Sinn, gurkt nicht jeder mit einem 1440p Briefmarken Monitor rum. Wurde mir immer deswegen eine GeForce holen. Dazu DLSS Upsampling einfach klasse.
robbitop
2025-02-17, 18:00:40
Völlig irrelevant, bis Quality Preset ist die Last immer geringer trotz Upscaling Overhead. Sieht jeder Mensch am etwas höheren Takt der GPU und/oder weniger Verbrauch.
Ich habe logischerweise nicht gemeint dass FSRQ mehr Last hat als native.
robbitop
2025-02-17, 18:03:26
Blödsinn, aber was will man schon von jemanden erwarten der MFG nicht verstanden hat. Wie ich schon wo anders gesagt habe... 2x FG lässt sich gerade mal sinnvoll (brauchbare Latenzen) mit einem 240Hz Screen ausfahren. MFG ist da Nische von der Nische. Schon wieder amüsant von einem Grünen zu lesen wie wichtig MFG ist und dann nutzt der User einen 144Hz Screen. :crazy:
Also ich finde FSR3.1 FG (also 2x) schon sinnvoll bei 144 Hz. Allerdings nur wenn man damit dann von grob 80-90 fps fast ins VSync Limit rennt. Also das nutzbare Band ist schmal und grenzwertig - ein 165Hz oder besser wäre noch besser aber zB gerade bei MW5 Clans ist es wirklich deutlich netter zu spielen und flüssiger als ohne. Nutze den Optiscaler Mod um FG zu injecten die FSR3.1 FG nutzt.
robbitop
2025-02-17, 18:06:28
So ein Blödsinn. Bei 4x FG und 60 FPS nativ hast du so ca. 270 FPS mit einer 5090.
Was spielt es für eine Rolle? Man kann sich auch einen 4K mit 240HZ OLED hinstellen. Dann macht 4x FG absolut Sinn, gurkt nicht jeder mit einem 1440p Briefmarken Monitor rum. Wurde mir immer deswegen eine GeForce holen. Dazu DLSS Upsampling einfach klasse.
FG und insbesondere MFG skaliert nicht linear. Also um 240 fps zu erreichen braucht es weit mehr als 60 input fps. Wahrscheinlich eher 80 oder so.
Aber je mehr input fps desto besser für Latenz und Artefakte. 240 Hz OLED wäre Faktor 3 aber schon gut nutzbar IMO.
dargo
2025-02-17, 18:07:54
So ein Blödsinn. Bei 4x FG und 60 FPS nativ hast du so ca. 270 FPS mit einer 5090.
Junge... geh bitte woanders trollen. Die Latenzen bei 60fps mit 4x FG sind der letzte Dreck. Schon 2x FG bei 60 Base Frames bedeuten in einem AW2 fast 58ms Latenz. Wenn das dein Anspruch am PC ist dann gute Nacht. X-D
https://www.youtube.com/watch?v=B_fGlVqKs1k&t=1112s
Also ich finde FSR3.1 FG (also 2x) schon sinnvoll bei 144 Hz. Allerdings nur wenn man damit dann von grob 80-90 fps fast ins VSync Limit rennt.
Dann hast du eine sehr seltsame Latenzwahrnehmung an deiner Maus. Denn die Latenz mit 144fps ist deutlich höher als bei Base 80-90fps.
Also das nutzbare Band ist schmal und grenzwertig - ein 165Hz oder besser wäre noch besser aber zB gerade bei MW5 Clans ist es wirklich deutlich netter zu spielen und flüssiger als ohne.
Selbst 165Hz sehe ich als zu wenig für 2x FG an. Das absolute Minimum sind für mich 180Hz. Die 240Hz hatte ich nur als Beispiel wegen den 4k OLEDs erwähnt weil das der nächste logische Schritt beim Monitor hier wäre.
robbitop
2025-02-17, 18:16:09
Dann hast du eine sehr seltsame Latenzwahrnehmung an deiner Maus. Denn die Latenz mit 144fps ist deutlich höher als bei Base 80-90fps.
Mech Warrior 5 ist kein sehr schnelles Spiel und Reflex bringt auch einiges (hast du mal getestet das in AL2 umleiten zu lassen? das sollte einiges bringen- das geht mit dem dlss to fsr mod iirc). Mit den 144 generierten Frames ist es dann tatsächlich schnell genug von der Latenz dass ich nichts merke. Unter 130 wird es für mich in dem Spiel dann auch deutlich merkbar.
Für mich muss die Latenz nicht niedriger als ohne FG sein sondern nur unter dem Schwellwert dass ich es nicht merke. In bei den 80-90 fps vs den 144 generierten ist das jeweils der Fall so dass nur die Flüssigkeit und Bewegtschärfe für mich limitiert hat die mit FG besser wurde.
The_Invisible
2025-02-17, 18:47:25
240hz mit 4xfg ist schon sehr nice, außer die paar wirklichen Shooter und esports Titel. Aber gut mit wem diskutiert man hier...
GerryB
2025-02-17, 18:56:32
Aber gut mit wem diskutiert man hier...
Gute Frage!
Also hier ist ein Midrange-Thread, wo die Leute maximal 749€ für ne 7090xt bezahlen wollen.(13%<Ti)
Was kostet ein 240Hz-4k-OLED ?
(ist nach m.E. nicht diese Klientel)
ergo
kann man sich das ganze MFG-Geschwafel der grünen Fanboys hier sparen
dargo
2025-02-17, 18:59:32
240hz mit 4xfg ist schon sehr nice, außer die paar wirklichen Shooter und esports Titel. Aber gut mit wem diskutiert man hier...
Dann geh bitte einfach in einen Geforce-Thread über MFG schwadronieren, dort werden dir das sicherlich paar Lemminge abnehmen. Die gleiche Nummer wurde schon damals mit 2x FG von den grünen Lemmingen abgezogen, jetzt der gleiche Mist mit MFG wo sich die Latenz sogar je Stufe weiter verschlechtert.
Langlay
2025-02-17, 19:08:32
Dann geh bitte einfach in einen Geforce-Thread über MFG schwadronieren, dort werden dir das sicherlich paar Lemminge abnehmen.
Und wann gehst du mit guten Beispiel vorran und hältst dich aus den grünen Threads raus?
Savay
2025-02-17, 19:15:06
Also was eine derartige MFG Diskussion hier im RDNA4 Thread verloren hat wüsste ich auch mal gerne. Oder gibt's diesbezüglich was neues zu FSR4?! ;)
dargo
2025-02-17, 19:15:56
Dann würde mir die Unterhaltung fehlen. :ulol: Momentan liefert NV einfach zu viel Angriffsfläche. :D
fizzo
2025-02-17, 19:17:11
Hm, ich hab den Oled ( https://www.dell.com/de-de/shop/alienware-27-360-hz-qd-oled-gamingmonitor-aw2725df/apd/210-blhh/monitore-und-monitorzubeh%C3%B6r) und an der 9070(XT) interessiert. Bin ich hier falsch?
GerryB
2025-02-17, 19:22:49
Hm, ich hab den Oled ( https://www.dell.com/de-de/shop/alienware-27-360-hz-qd-oled-gamingmonitor-aw2725df/apd/210-blhh/monitore-und-monitorzubeh%C3%B6r) und an der 9070(XT) interessiert. Bin ich hier falsch?
Ob man zw. 180fps und 360fps nen Unterschied sieht ?
k.A. obs e-Sportler gibt, die das können
muss man schauen, obs in den typischen e-sport Games was bringt mit FG+AL2 zu spielen(x)
(ob AMD spassenshalber nen 3x-FG -Mode bringt, who knows, ... wäre dann 130...120/360fps)
(x) könnte dann ne 9070nonXT oder gar ne 9060xt für WQHD reichen
fizzo
2025-02-17, 19:42:54
Ob man zw. 180fps und 360fps nen Unterschied sieht ?
k.A. obs e-Sportler gibt, die das können
muss man schauen, obs in den typischen e-sport Games was bringt mit FG+AL2 zu spielen(x)
(ob AMD spassenshalber nen 3x-FG -Mode bringt, who knows, ... wäre dann 130...120/360fps)
(x) könnte dann ne 9070nonXT oder gar ne 9060xt für WQHD reichen
Ich habe den Monitor primär wengen der Farbdarstellung sowie HDR gekauft. Die 360Hz waren und sind für mich nachrangig. Ob ich diese jemals nutzen werde? E-Sport ist für mich jedenfalls kein Thema. Von der 6700XT kommend wäre schon die 9070 ein sigifikantes Upgrade. So 600-700€ bin ich dafür auch bereit auf den Tisch zu legen.
Lurtz
2025-02-17, 19:48:20
Dann würde mir die Unterhaltung fehlen. :ulol: Momentan liefert NV einfach zu viel Angriffsfläche. :D
Betrifft nur den Blackwell-Launch. Was die alten Karten bzw. die Software-Komponente angeht hat nVidia so viel geilen Scheiß geliefert, dass der Blackwell-Launch bestehenden Kunden erstmal relativ egal sein kann, und den AMD und Intel wahrscheinlich frühestens mit der nächsten Generation erreichen werden, wenn überhaupt.
Kann man sich natürlich drüber lustig machen und dann wieder wundern wieso nVidia 80-90% Marktanteil hat.
Und ob AMD den Elfmeter ohne Torwart verwandelt ist auch noch nicht sicher. Wäre nicht der erste Launch wo man den Mund vollgenommen hat und dann nicht liefern kann.
robbitop
2025-02-17, 20:00:25
Ob man zw. 180fps und 360fps nen Unterschied sieht ?
k.A. obs e-Sportler gibt, die das können
muss man schauen, obs in den typischen e-sport Games was bringt mit FG+AL2 zu spielen(x)
(ob AMD spassenshalber nen 3x-FG -Mode bringt, who knows, ... wäre dann 130...120/360fps)
(x) könnte dann ne 9070nonXT oder gar ne 9060xt für WQHD reichen
Nicht nur esport profitiert. Die Bewegtschärfe steigt einfach. Bewege mal die Kamera und verfolge mit den Augen zB eine Textur. Selbst bei 144 Hz schmiert es dann. Der Punkt wo es gar nicht mehr schmiert ist laut blurbusters 1000 Hz. Aber der Weg dorthin wird wahrscheinlich von der Wahrnehmung ein asymptotischer sein. Aber 240-360 Hz sollte man da noch gut wahrnehmen können an Bewegetschärfensteigerung (aber nur wenn man - dank FG zB - auch die fps dafür hat).
Ex3cut3r
2025-02-17, 20:00:52
Junge... geh bitte woanders trollen. Die Latenzen bei 60fps mit 4x FG sind der letzte Dreck. Schon 2x FG bei 60 Base Frames bedeuten in einem AW2 fast 58ms Latenz. Wenn das dein Anspruch am PC ist
Nö. Mit Reflex ON sinds irgendwo bei ca. 50 ms.
KA, was dein Problem ist, gibt mehrere Spiele die selbst mit 75 FPS + noch 60-70 ms Latenz haben. UE5 Spiele z.B.
robbitop
2025-02-17, 20:03:43
Reflex/AL2 machen schon echt einen ziemlichen Unterschied ja
Oranje7
2025-02-17, 20:06:52
Und ob AMD den Elfmeter ohne Torwart verwandelt ist auch noch nicht sicher. Wäre nicht der erste Launch wo man den Mund vollgenommen hat und dann nicht liefern kann.
Da wären ja immernoch Latte und Pfosten... Das sind schon Hindernisse.
Aber da sie mit RDNA3 schon reingeschissen haben könnte es diesmal ein Treffer werden
dargo
2025-02-17, 20:25:45
Kann man sich natürlich drüber lustig machen und dann wieder wundern wieso nVidia 80-90% Marktanteil hat.
Bei dem IQ der TikTok-Generation wundert mich gar nichts mehr. Man muss sich nur anschauen welche "Zombies" weltweit so rumlaufen und was politisch global aktuell los ist.
Nö. Mit Reflex ON sinds irgendwo bei ca. 50 ms.
Und das soll gut sein? Bist du schon zum Konsolenspieler mutiert?
crux2005
2025-02-17, 20:54:34
Nö... bei 699$ UVP wird es langfristig 700-750€ Straßenpreis heißen.
Nur wenn AMD heimlich die Preise senkt ohne die MSRP ofiziell anzupassen. Deswegen war z.B. auch die 7900 XT so billig zu kaufen obwohl die MSRP deutlich höher war.
Cringe :<
Die Radeon Sparte spielt den Clown. Absichtlich auf X und oft unabsichtlich bei den Produkten und Launches.
Das ist sicher ein Image das AMD haben will. /s.
TheGood
2025-02-17, 23:21:27
Als onetime Joke wäre das auch mein Geschmack, aber als "Wir sind AMD, haben 10% Marktanteil und haben Angst vor dem HighEnd" ist es imho nicht unbedingt funny, nun den Twitter Troll zu machen. Aber Geschmäcker sind natürlich unterschiedlich, klar.
Natürlich wissen die Leute was im Hardware Game abgeht, dafür kriegen sie doch Kohle. Stand das zur Debatte? :D
https://s20.directupload.net/images/250217/mdurskoz.png
Edit: Aber fairerweise, besser so ein Marketing als gar keins. Also raus damit mit der Aufmerksamkeit!
Die Gaming Welt blickt auf AMD und die Erwartungen sind auch durch solche Stunts nicht kleiner geworden.
Sorry das ist einfach nur genial :D
G3cko
2025-02-18, 00:05:56
Nicht nur esport profitiert. Die Bewegtschärfe steigt einfach. Bewege mal die Kamera und verfolge mit den Augen zB eine Textur. Selbst bei 144 Hz schmiert es dann. Der Punkt wo es gar nicht mehr schmiert ist laut blurbusters 1000 Hz. Aber der Weg dorthin wird wahrscheinlich von der Wahrnehmung ein asymptotischer sein. Aber 240-360 Hz sollte man da noch gut wahrnehmen können an Bewegetschärfensteigerung (aber nur wenn man - dank FG zB - auch die fps dafür hat).
Hz alleine sind vollkommen überbewertet. Viel wichtiger ist ein schnelle Display-Technologie (CRT, Plasma, OLED) Das einzige was bei TFT oder OLED signifikant die Schlieren reduziert ist BFI. Nur damit bekommt man einen CRT Effekt. Plasma und CRT haben BFI praktisch von Haus aus technologiebedingt. Das hat etwas mit der Wahrnehmung des Auges zu tun.
robbitop
2025-02-18, 06:15:29
Hz alleine sind vollkommen überbewertet. Viel wichtiger ist ein schnelle Display-Technologie (CRT, Plasma, OLED) Das einzige was bei TFT oder OLED signifikant die Schlieren reduziert ist BFI. Nur damit bekommt man einen CRT Effekt. Plasma und CRT haben BFI praktisch von Haus aus technologiebedingt. Das hat etwas mit der Wahrnehmung des Auges zu tun.
Solange die Schaltzeit für alle Farbwechsel kleiner als die angepeilte Refreshrate ist, bringt eine Erhöhung der refreshrate und der fps eine Erhöhung der Bewegtschärfe und zwar sichtbar. Ja BFI tut das auch. Aber leider kostet BFI Helligkeit was gerade bei OLEDs ein knappes Gut ist und LCD ist IMO bähbäh.
Weiterhin geht BFI nicht (oder nicht besonders gut) mit VRR - außer mit gsync Pulsar. Und das gibts nur für LCDs - bähbäh.
Also ist die zur Zeit beste Option IMO OLED hoher Refreshrate und Framegeneration für viel fps. Ein 240-360 Hz OLED ist schon auch sehr bewegtscharf.
GerryB
2025-02-18, 06:51:10
Viele werden noch nen 120Hz-OLED-TV als Moni nutzen.
Damit sind 60/120fps ein reales Ziel, was man mit den kleinen 9070xt anpeilen sollte.
ein 240Hz-Moni würde selbstständig die 120fps einfach per LFC verdoppelt darstellen
Für den 360Hz-WQHD-Moni müsste LFC auch so funzen, = 180fps verdoppeln, oder
= 120fps verdreifacht darstellen.(ohne Ghosting)
AtTheDriveIn
2025-02-18, 07:17:44
Wenn die jetzt geleakten Preise stimmen, die doch stärker bei 5070(TI) sind als vermutet, dann hat AMD es leider wieder versaut. Gleiche Situation wie bei 7900 vs 4080/4070 wird Ihnen nicht helfen.
Hoffnung stirbt zuletzt.
GerryB
2025-02-18, 07:36:21
Quatsch, Da ist nix stärker an der Ti dran!
die geleakten XFX-USA-Preise waren nur Platzhalter
Wenn man so will, und das Ti-Leak im 3dMark berücksichtigt, vs. 9070xt@4070TiS-Niveau,
dann dürfte ne 9070xt höchstens 749€ kosten.
dildo4u
2025-02-18, 07:37:35
Abwarten vermutlich zahlst du 1k für 5070TI bei uns kommt noch Steuern drauf
LgAb5bmcTjk
GerryB
2025-02-18, 07:40:33
In Finnland sah´s doch gar net so schlecht aus.(für die Ti)
glaube 925€ bei 25,5% MWSt.
Zossel
2025-02-18, 07:44:16
Abwarten vermutlich zahlst du 1k für 5070TI bei uns kommt noch Steuern drauf
Ach, in den USA gibt es kein Equivalent zur Märchensteuer?
dildo4u
2025-02-18, 07:48:10
Doch aber die wird auf der Website nicht angezeigt da die vom Staat abhängt.
dargo
2025-02-18, 07:55:34
Nur wenn AMD heimlich die Preise senkt ohne die MSRP ofiziell anzupassen. Deswegen war z.B. auch die 7900 XT so billig zu kaufen obwohl die MSRP deutlich höher war.
Blödsinn... bei dem Beispiel lag die Karte unter der UVP in Dollar. Völlig anderes Thema von dem ich nicht sprach. :rolleyes: Eine 7900XTX hatte ich damals recht zügig nach Release für 999€ bekommen obwohl die UVP bei 999$ lag. Und es war sogar ein custom Modell, keine MBA.
Palpatin
2025-02-18, 08:53:14
Blödsinn... bei dem Beispiel lag die Karte unter der UVP in Dollar. Völlig anderes Thema von dem ich nicht sprach. :rolleyes: Eine 7900XTX hatte ich damals recht zügig nach Release für 999€ bekommen obwohl die UVP bei 999$ lag. Und es war sogar ein custom Modell, keine MBA.
AMD hatte in Europa eine deutlich zu hohe UVP von ich glaub 1150 für die 7900xtx verlangt und deshalb viel Kritik einstecken müssen. Die Karte gab es dann wie von dir geschrieben recht fix deutlich unter UVP. Das ist aber nicht die Norm wenn die Verkäufe passen, siehe 9800x3d.
GerryB
2025-02-18, 09:01:21
Gibts denn ne Norm?
Ich dachte, im Markt gibts immer ne freie Preisbildung.
UVP sind nur Marketing-Gags.
die meisten P/L-Übersichten werden ständig anhand Markt aktualisiert
robbitop
2025-02-18, 09:23:14
Abwarten vermutlich zahlst du 1k für 5070TI bei uns kommt noch Steuern drauf
https://youtu.be/LgAb5bmcTjk
Zuzutrauen wäre es. Alter Vatter 1000 EUR für eine Mittelklasse GPU (empfand ich ja schon so für die 4080 super, die ja bloß ein halber AD102 war -> also eine Art Geforce MX ^^ - die non super noch schlimmer mit 1200 EUR und jetzt wäre eine 70er SKU bei 1000 EUR X-D). Das war mal Titan Bereich. Und die Lemminge machen es alle mit. X-D
aufkrawall
2025-02-18, 09:35:45
Und wie viel hast du für das 10GB Altmetall bezahlt? Ob das schlauer war...
Pro-Tipp: Ist nie der Versachlichung dienlich, hier zig Nutzer als Lemminge zu bezeichnen.
robbitop
2025-02-18, 09:45:57
Und wie viel hast du für das 10GB Altmetall bezahlt? Ob das schlauer war...
Pro-Tipp: Ist nie der Versachlichung dienlich, hier zig Nutzer als Lemminge zu bezeichnen.
Ich habe 2022 gebraucht ~500 EUR für das 10 GB Altmetal aka RTX 3080 bezahlt. Das war völlig ok. Und davor 600 EUR neu für eine 1080ti in 2017. Das war alles noch halbwegs angemessen IMO. (zumal ich jeweils auch immer noch gute ca 200 EUR für die Gebrauchte bekommen hab). Zumal die 3080 Altmetall Karte relativ zur 90er auch noch Dampf hatte während die 80er Ada und Blackwell relativ zu deren 90er auch ziemlich blutleer sind. Und die 3080 macht sich immernoch erstaunlich gut hier dank Optiscaler mit Framegeneration und dem Transformer DLSS kann ich auch da eine Stufe runter gehen. Und den Texturslider bedienen kann ich auch so dass die 10 GB tatsächlich noch gut passen. Geht echt noch gut auf meinem 1440p144Hz Display. :up:
Ich habe niemanden explizit als Lemming bezeichnet. Sondern nur das Verhalten der Massen an Leuten die völlig überteuerte Dinge (aus P/L Sicht) kaufen egal was es kostet mit Lemmingen verglichen. ;) Und dazu stehe ich - ist halt meine Ansicht dazu.
Prinzenrolle
2025-02-18, 09:46:58
Sollte es angeblich nicht schon seit gestern Benchmarks geben?
Ich dachte jemand hätte die 9070 XT privat gekauft?
Dino-Fossil
2025-02-18, 10:01:27
Dürfte ohne Treiber schwer werden.
robbitop
2025-02-18, 10:18:17
Fondness hat schonmal einen geleakten Treiber verlinkt. Theoretisch kann jeder der eine 9070XT hat diese also benchmarken. Ansonsten unterstützt das aktuelle MESA in Linux wohl auch schon RDNA4 - aber unklar wie gut die Unterstützung schon ist.
dargo
2025-02-18, 10:58:53
AMD hatte in Europa eine deutlich zu hohe UVP von ich glaub 1150 für die 7900xtx verlangt und deshalb viel Kritik einstecken müssen. Die Karte gab es dann wie von dir geschrieben recht fix deutlich unter UVP. Das ist aber nicht die Norm wenn die Verkäufe passen, siehe 9800x3d.
Doch, es ist die Norm. Wie oft denn noch? Wenn genug Ware da ist entspricht der UVP in Dollar in der Regel immer ca. 1:1 in Euro bei AMD. Leichte Abweichungen gab es nur gelegentlich wenn der $ vs. € Kurs stark schwankte.
robbitop
2025-02-18, 11:00:15
Also 700 EUR auf der Straße wäre natürlich schon eine andere Nummer. ^^
Palpatin
2025-02-18, 11:19:16
Doch, es ist die Norm. Wie oft denn noch? Wenn genug Ware da ist entspricht der UVP in Dollar in der Regel immer ca. 1:1 in Euro bei AMD. Leichte Abweichungen gab es nur gelegentlich wenn der $ vs. € Kurs stark schwankte.
Nein das ist überholt, siehe z.B. 7800xt. Wenn sich die Dinger normal verkaufen, sprich kein Ladenhüter, aber auch nicht Instant alles vergriffen, werden wir UVP in Dollar + 5-10% sehen.
dargo
2025-02-18, 12:09:01
Nein das ist überholt, siehe z.B. 7800xt. Wenn sich die Dinger normal verkaufen, sprich kein Ladenhüter, aber auch nicht Instant alles vergriffen, werden wir UVP in Dollar + 5-10% sehen.
Keine Ahnung was dein Beispiel mit der RX 7800XT jetzt soll, der bestätigt mich doch nur. :freak: UVP = 499$, in DE schon sehr oft für 499€ und sogar drunter zu haben gewesen. Natürlich nicht direkt nach dem Release. Aber selbst kurz nach Release gab es vereinzelt Angebote für 525€.
The_Invisible
2025-02-18, 13:03:50
Natürlich nicht direkt nach dem Release. Aber selbst kurz nach Release gab es vereinzelt Angebote für 525€.
Aja aber bei NV ist das aber ganz böse. Echt ein Wahnsinn wie sich hier manche AMD schön reden... aber ja nicht den 9800x3d Launch nennen :freak:
robbitop
2025-02-18, 13:05:37
Ich denke man muss zwischen Radeon und Ryzen unterscheiden. Ist zwar beides AMD aber bei so einem großen Konzern sind zwei unterschiedlichen Divisionen oft sehr unterschiedlich geführt.
Auch sind 550 EUR für die mit Abstand schnellste Gaming CPU jetzt auch nicht besonders extrem wenn man sich anschaut, was es in der Kategorie schon in den letzten 10 Jahren an Preisen bei Intel gab. Aber ja er ist über UVP. Allerdings auch nur 30 EUR und nicht hunderte EUR wie bei den Geforce Karten.
VooDoo7mx
2025-02-18, 13:06:53
Wenn nVidia nicht liefern kann, kann AMD ie Chance nutzen und auch erst mal mehr verlangen.
- 5090 und 5080 und 5070Ti wohl auf Monate nicht ausreichend lieferbar.
- 4090, 4080S und 4080 nicht mehr lieferbar. Restbestände zu obszönen Preisen.
- 4070TI Super und 4070 noch gut lieferbvar, steigen jedoch aktuell wieder im Preis
Wenn die bisher bekannten Leistungsgerüchte stimmen, ist wohl die Performance auf Niveau der 5070Ti und RT Performance über der 7900XTX.
Da kann man auch einen selbstbewussten Preis verlangen.
AMD soll auch mal ein bisl Ca$h machen damit vielleicht auch bei der nächsten Gen wider nen richtig dicken Chip gibt, der nVidia hoffentlich das fürchten lehren wird.
dildo4u
2025-02-18, 13:10:54
Es gibt noch 4070TI S für 900€ in der EU ist nicht alles ausverkauft.
Wenn man keine High-End Modelle bekommt guckt man natürlich auf Preis-Leistung.
DrFreaK666
2025-02-18, 13:28:35
Könntet ihr wieder zurück zum Thema?
RDNA4
fizzo
2025-02-18, 13:42:36
Könntet ihr wieder zurück zum Thema?
RDNA4
Für mich ist bei der 9000er Serie ganz klar die 7900XT die Richtschnur. Preis/Leistung/Effizienz/Raytracing/FSR4 muss als Paket attraktiv werden. Sonst kann man um ~ 700€ gleich zu Letzterer greifen.
DrFreaK666
2025-02-18, 13:50:30
Jein. Man darf FSR4 und die wahrscheinlich bessere Performance mit RT nicht vergessen.
Ich hoffe AMD lässt sich diese Features nicht vergolden
edit: hätte deinen kompletten Post lesen sollen :ugly:
Disco_STFU
2025-02-18, 13:57:54
edit: hätte deinen kompletten Post lesen sollen :ugly:
Ist bei nem Einzeiler aber auch ne Herausforderung! :tongue:;D:freak:
Dural
2025-02-18, 14:47:38
Wie so wird immer mit den alten Grafikkarten verglichen?
Einer der eine 7900XT hat wird wohl kaum eine 9070XT kaufen. Die 7900XT wird ziemlich sicher EOL gehen, somit Neu auch bald nicht mehr Kaufbar sein.
Ein Vergleich zur 7900XT ist somit eigentlich völlig irrelevant, der Sinn von diesen Vergleichen erschliesst sich mir nicht.
robbitop
2025-02-18, 15:06:37
Weil Last Gen immer der Referenzpunkt für den Vergleich von Preis, Leistung und Features ist. Einfach weil es das ist, was man hätte vorher haben können. Und natürlich werden bei den meisten Tests auch andere Generationen und Produkte mitgetestet. Aber den Vergleich mit der 7900XT muss man sich gefallen lassen, weil die Leistung ungefähr auf der Höhe war wie die neue Gen und der Preis auch mitunter sehr attraktiv war.
fizzo
2025-02-18, 15:08:51
Ein Vergleich zur 7900XT ist somit eigentlich völlig irrelevant, der Sinn von diesen Vergleichen erschliesst sich mir nicht.
Was mich betrifft, so ist dieser Vergleich sehr wohl relevant. Am 6. März werde ich aufgrund der Faktenlage dann entscheiden, welche Grafikkarte meine 6700XT ersetzen wird.
DrFreaK666
2025-02-18, 15:59:16
Ich lass Preise 9070(XT) entscheiden, ob ich gleich anfangs meine 6700XT ersetze.
Auf RDNA3 steige ich sicherlich nicht mehr um
Brillus
2025-02-18, 17:03:35
Ach, in den USA gibt es kein Equivalent zur Märchensteuer?
Nicht in den Preisangaben. Die kommen an der Kasse drauf weil potentiel jede Stadt ihre eigen Sätze hat.
w0mbat
2025-02-18, 17:51:46
Ach, in den USA gibt es kein Equivalent zur Märchensteuer?
In der Tat gibt es einige Orte wo es keine MwSt gibt.
mczak
2025-02-18, 18:29:18
In der Tat gibt es einige Orte wo es keine MwSt gibt.
Genaugenommen gibt es nirgends MwSt (VAT) in den USA. Die meisten Staaten haben eine Sales Tax (zudem erheben oft Gemeinden auch noch eigene Sales Tax), aber Sales Tax != VAT. Den Unterschied erläutere ich jetzt aber nicht, etwas zu off-topic :tongue:
horn 12
2025-02-18, 18:49:29
Vorstellung: 28 Februar
----> Testberichte am 05 März
---------------> Verkaufsstart am 06 März
Hoffe AMD schickt alle Verfügbaren Karten welche noch gebaut wurden bis Ende Februar/ Anfang März per Luftfracht nach Europa!!
https://videocardz.com/newz/amd-radeon-rx-9070-reviews-coming-march-5-the-day-rtx-5070-launches
GerryB
2025-02-18, 20:19:16
per Luftballon
... bis in die Alpen
fondness
2025-02-18, 20:54:01
Ich denke man muss zwischen Radeon und Ryzen unterscheiden. Ist zwar beides AMD aber bei so einem großen Konzern sind zwei unterschiedlichen Divisionen oft sehr unterschiedlich geführt.
Auch sind 550 EUR für die mit Abstand schnellste Gaming CPU jetzt auch nicht besonders extrem wenn man sich anschaut, was es in der Kategorie schon in den letzten 10 Jahren an Preisen bei Intel gab. Aber ja er ist über UVP. Allerdings auch nur 30 EUR und nicht hunderte EUR wie bei den Geforce Karten.
Beim launch war der Euro noch wesentlich stärker vs dem Dollar. Der 9800X3D ist am UVP in Dollar.
The_Invisible
2025-02-18, 21:02:21
Ich denke man muss zwischen Radeon und Ryzen unterscheiden. Ist zwar beides AMD aber bei so einem großen Konzern sind zwei unterschiedlichen Divisionen oft sehr unterschiedlich geführt.
Auch sind 550 EUR für die mit Abstand schnellste Gaming CPU jetzt auch nicht besonders extrem wenn man sich anschaut, was es in der Kategorie schon in den letzten 10 Jahren an Preisen bei Intel gab. Aber ja er ist über UVP. Allerdings auch nur 30 EUR und nicht hunderte EUR wie bei den Geforce Karten.
Hä, den 9800x3d launch kannst nicht meinen, 30 EUR Aufpreis lol Der war bis Dez eher so bei 650 EUR bei Händlern, auch laut Geizhals, von Scalper nicht zu reden. Und fallst die Intel X-HEDTs meinst, die hatten schon lange 8 Kerne, den 5820k zb gabs aber schon für 400 herum. Aktuell für 8Kerne schon recht happig.
robbitop
2025-02-18, 21:24:55
Hä, den 9800x3d launch kannst nicht meinen, 30 EUR Aufpreis lol Der war bis Dez eher so bei 650 EUR bei Händlern, auch laut Geizhals, von Scalper nicht zu reden. Und fallst die Intel X-HEDTs meinst, die hatten schon lange 8 Kerne, den 5820k zb gabs aber schon für 400 herum. Aktuell für 8Kerne schon recht happig.
Ich hab nur nach aktuellen Preisen geschaut. Dass es kurzzeitig bei niedrigem Angebot auch scalping gibt ist klar. Aber es macht einen Unterschied ob ein Produkt absichtlich langfristig verknappt wird und msrp manipuliert wird oder ob es eine kleine Weile hoch geht weil Angebot nicht mit Nachfrage standhalten kann. Das hat beim 9800x3d wohl nicht ideal funktioniert und die Nachfrage war anscheinend so hoch wie noch nie bei AMD Top Dog CPUs.
Ging halt darum dass es mit der fake msrp Geschichte bei Geforce wohl nicht vergleichbar sein wird. Allerdings sollte man Nvidia auch ein paar Monate zugestehen um zu schauen ob es sich einpendelt oder ob es dabei bleibt.
fondness
2025-02-18, 21:30:23
Reviews am 5. März
https://videocardz.com/newz/amd-radeon-rx-9070-reviews-coming-march-5-the-day-rtx-5070-launches
Zur 9070xt gibt es bis dato keine verwertbaren Daten. Hat es dies in der Form schon mal gegeben? Ich meine die Performance betreffend... Kein Leak aus dem 3dk, ... Entweder das Ding ist echt der Bringer, oder kompletter Fail!
Κριός
2025-02-18, 22:23:24
Ist noch zu früh. Wenn die Karte wirklich taugt, dann wird AMD eine Woche vorher langsam die "Leaks" (Leute das ist alles Marketing) einbringen. FSR4 Videos, ausgewählte Benchmarks etc.
crux2005
2025-02-18, 22:36:53
MLID hat doch schon die Leistung "geleaked". Die 9070 XT sollte bei Raster grob 4080/S Leistung haben (also grob 5070 Ti). Bei RT wird die abfallen, dann grob 4070 Ti. Dazu eben die Frage wie viel besser FSR4 und FG geworden sind. IMHO alles über 750€ Endkundenpreis für 7090 XT ist DOA wie die 7900 XT.
basix
2025-02-18, 23:10:20
RT ist aber relativ breit gefächert. Von ein paar Schatten bis zu Full-PT in z.B. Wukong. Ist es 4070 Ti Performance bei letzterem wäre ich ziemlich zufrieden. Bei den non-PT Spielen dürfte man damit auf 4070 TiS oder gar etwas darüber landen. Das wäre stark.
crux2005
2025-02-18, 23:23:38
RT ist aber relativ breit gefächert. Von ein paar Schatten bis zu Full-PT in z.B. Wukong. Ist es 4070 Ti Performance bei letzterem wäre ich ziemlich zufrieden. Bei den non-PT Spielen dürfte man damit auf 4070 TiS oder gar etwas darüber landen. Das wäre stark.
Stimmt.
Wiseman
2025-02-19, 00:37:02
per Luftballon
... bis in die Alpen
:D
Du meinst, zu Horni bis nach Südtirol.
horn 12
2025-02-19, 00:40:30
Ja, exakt
Zudem sollten zumindest Heute nachmittags, zu den Benchmark Balken der 5070 TI
wohl Benchmarks der 9070 XT auftauchen um dessen Launch etwas zu stören!
Wiseman
2025-02-19, 00:44:25
Ja, exakt
Zudem sollten zumindest Heute nachmittags, zu den Benchmark Balken der 5070 TI
wohl Benchmarks der 9070 XT auftauchen um dessen Launch etwas zu stören!
Klingt aufregend. Woher hast du diese Info?
horn 12
2025-02-19, 01:02:55
Keine Info, rechne aber stark damit!
Wenige Häppchen um mich besser auszudrücken...
3D Benchmarks, aktuelle Spiele Benchmarks von 2 - 3 Games
nur um den Lauch zu stören!
Palpatin
2025-02-19, 01:21:08
RT ist aber relativ breit gefächert. Von ein paar Schatten bis zu Full-PT in z.B. Wukong. Ist es 4070 Ti Performance bei letzterem wäre ich ziemlich zufrieden. Bei den non-PT Spielen dürfte man damit auf 4070 TiS oder gar etwas darüber landen. Das wäre stark.
Rein von den Specs ist auch nicht klar ob die 5070ti vor der 4080 im RT landet oder eher knapp dahinter. Sprich ca. 15% vor der 4070ti super. Kommt die 9700xt and die 4070ti super ran oder knapp drüber wäre das schon gut. Landet man hingegen knapp hinter der 4070ti 12gb wäre das eher mau.
basix
2025-02-19, 01:33:15
Die 5070 Ti dürfte etwas langsamer als die 4080 sein.
Aber wie gesagt: RT ist so extrem breit und RDNA4 noch eine Wundertüte, was dort hinsichtlich Performance-Charakteristiken rauskommen wird. Das kann von 4070 bis 4080 Performance alles sein. Und das allenfalls je nach Spiel.
Ich hätte allerdings gesagt, dass 4070 Ti mit PT ganz ordentlich wäre, wenn man Raster auf 4080 Niveau landet. Das wären immerhin noch 80% von der "Grundperformance" bei PT. Eine 7900XTX ist da verglichen mit einer 4080 manchmal bei 20-40% unterwegs. Das würde nämlich auch bedeuten, dass man in den meisten Hybrid-RT Spielen ganz gut mit der 4080 mithalten sollte und typ. >=4070 TiS. So schlecht wäre das nicht ;)
GerryB
2025-02-19, 09:54:38
PT interessiert in dieser Gen in der Mittelklasse nicht
basix
2025-02-19, 10:26:02
Wenn ~4070 TiS / 5070 Ti / 4080 für dich Mittelklasse ist, OK. Für mich ist das Highend. Und kostet auch 750$+ bei Nvidia.
GerryB
2025-02-19, 10:33:50
Du bist im falschen Thread mit deinen grünen Bewerbchen für überteuerten Kram.
OT:
meine Fresse, der Kummerkastenthread bei CB ist inzwischen >4000 Posts
https://www.computerbase.de/news/grafikkarten/verfuegbarkeit-und-preise-geforce-rtx-5090-und-5080-ab-heute-im-handel-erhaeltlich.91203/#update-2025-02-18T11:16
btw.
ohne das ganze grüne Gesülze, wäre vermutlich der N4x-Thread hier auch nur halb so groß.
Könnt Ihr Euch nicht in Eurem Thread austoben?
basix
2025-02-19, 11:22:03
Du bist im falschen Thread mit deinen grünen Bewerbchen für überteuerten Kram.
Äh, die 9070 XT soll ja im Bereich der genannten Karten landen. Das hat nur als Referenz gedient. Und das ist performancetechnisch Highend. 600$ oder gar mehr und entsprechend 700+ Euro sind mMn auch nicht nur "Mittelklasse".
ohne das ganze grüne Gesülze, wäre vermutlich der N4x-Thread hier auch nur halb so groß.
Könnt Ihr Euch nicht in Eurem Thread austoben?
Hier geht es primär um RDNA4. Aber Nvidia ist der direkte Konkurrent. Wenn du nicht ertragen kannst, dass es das auch noch gibt und man sich in Gottes Namen halt doch auch mit Nvidias Angebot vergleichen muss um attraktiv zu sein (auch in RT), dann bist du nicht nur im falschen Thread sondern generell auf dem falschen Fuss unterwegs.
Dino-Fossil
2025-02-19, 11:30:59
Du bist im falschen Thread mit deinen grünen Bewerbchen für überteuerten Kram.
Naja, der rote Kram ist doch inzwischen auch nur noch geringfügig weniger überteuert.
robbitop
2025-02-19, 11:45:40
Wenn ~4070 TiS / 5070 Ti / 4080 für dich Mittelklasse ist, OK. Für mich ist das Highend. Und kostet auch 750$+ bei Nvidia.
Mittelklasse zum Highend Preis ^^
fondness
2025-02-19, 11:50:23
Wenn ~4070 TiS / 5070 Ti / 4080 für dich Mittelklasse ist, OK. Für mich ist das Highend. Und kostet auch 750$+ bei Nvidia.
Also wenn man rein nach der Leistungsaufnahme geht, und da war 250W bis 300W viele viele Jahre HighEnd bzw. das absolute Maximum, dann wäre das tatsächlich Highend bzw. Enthusiast. Mit der 4090 hat Nvidia halt die Büchse der Pandora geöffnet mit 450W und jetzt mit der 5090 mit 600W wird das ganze schön langsam absurd.
GerryB
2025-02-19, 11:57:02
Naja, der rote Kram ist doch inzwischen auch nur noch geringfügig weniger überteuert.
24GB-7900xtx@879€ vs 16GB-5070Ti@1200€
https://www.computerbase.de/news/grafikkarten/nvidia-rtx-5070-ti-preise-von-ueber-1-200-euro-bei-kaum-bestand-zu-erwarten.91463/
wow, das brennt ein Loch ins Portemanaie
Savay
2025-02-19, 12:19:24
Also wenn man rein nach der Leistungsaufnahme geht, und da war 250W bis 300W viele viele Jahre HighEnd bzw. das absolute Maximum, dann wäre das tatsächlich Highend bzw. Enthusiast.
Wenn man mal rein nach DIE Größe geht ist alles um bzw. oberhalb ~350mm² bis ~450mm² traditionell auch eher "HighEnd"... :wink:
davidzo
2025-02-19, 14:12:09
Afaik kommt die 5070ti doch mit 28Gbps GDDR7 and 256bit und 64MB L2 cache, oder?
AMD hat aber nur 20Gbps GDDR6 eingekauft und betreibt den mit 19,5Gbps
Mir fällt es schwer zu glauben dass AMD mit einem ca. gleichgroßen Chip Nvidias mithalten kann der über 40+% mehr Bandbreite verfügt und dessen Architektur bekanntermaßen der Industrie Benchmark an Flächeneffizienz ist.
Bisher braucht AMD bei gleicher Leistung immer etwas mehr Bandbreite. Auch beim infinitycache brauchen RDNA3 SKUs bisher immer etwas mehr Kapzität als Lovelace SKUs der gleichen Leistungsklasse und Blackwell ist da sicher kein Rückschritt. Auch hat der Infinitycache eine höhere Latenz, rein deshalb weil er als dritter Cache level angebunden ist und nicht als L2 wie bei nvidia.
Blackwell hat zwar eine ähnliche TSMC N5/ 4N Fertigung wie Lovelace, aber nochmal eine deutlich höhere PPA als Lovelace. Aus gleich vielen Transistoren holt man mehr raus, allerdings hatte man auch den im vergleich zu AMD älteren Prozess und eine geringere Density.
AMD war schon auf N4 und extrem density-optimiert. Große Prozessverbesserungen fallen also schonmal flach, Density geht eher zurück und PPA verbesserungen müssen an der Architektur liegen. Mir fällt es schwer zu glauben dass AMD mit einem Schlag nicht nur eine Architektur geschaffen hat die eine bessere PPA hat als Lovelace, sondern auch Blackwell bei der Bandbreiteneffizienz deutlich schlagen kann.
Möglicherweise erreicht AMD im Rasterizing und unter WQHD mit FSR/DLSS die Leistung einer 5070ti. Aber in 4K? Solange die 5070ti ihre Bandbreite nicht ausspielen kann ist man im Optimalfall gleich schnell. Aber in nativen 4K und dadrüber sehe ich das einfach nicht wie AMD mit dem erheblichen Bandbreitennachteil und nur 64CU eine gar bessere Leistung abliefern soll als GB103@70SM&@256bit+28Gbps wie das hier manche behaupten.
Ich denke wir können froh sein wenn die 5070 geschlagen wird, welche knapp über mehr Bandbreite verfügt als die 9070xt. Wenn die große SKU vielleicht auf halbem Weg zur 5070ti liegt wäre das ein sehr gutes Ergebnis während die kleine SKU dann vielleicht halbwegs gleichwertige Leistung zur 5070 abliefert aber mit dem Vorteil von 16GB VRAM statt 12gb.
dildo4u
2025-02-19, 14:16:42
Die 5070ti nutzt die Überlegenheit offensichtlich nicht aus Performance ist auf 4080 Level.
Die hat nur 716GB/sec.
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080.c3888
Der_Korken
2025-02-19, 14:37:40
Bandbreite haben und ausnutzen sind zwei verschiedene Dinge. Die Vega20 hatte damals leistungsnormiert doppelt so viel Bandbreite wie die 5700XT, obwohl man wohl kaum sagen würde, dass RDNA1 gegenüber GCN5 doppelt so effizient mit der Bandbreite umgegangen ist. Imho ist der GDDR7 von Blackwell zu schnell. Die 5080 kann sich kaum mal 10% von der 4080S absetzen trotz 40% mehr Bandbreite. Die 5070Ti hat jetzt 20% weniger Shader aber nur 7% weniger Bandbreite. Da ist das Verhältnis also noch extremer. Und die 4070TiS hat damals auch nur 10% auf die 4070Ti zugelegt bei 10% mehr Shader aber 33% mehr Bandbreite und Cache.
tl;dr: Nimm lieber die 4080(S) als Maßstab für Bandbreite pro Rechenleistung. Dann sieht es für die 9070XT auch wieder ganz OK aus, besonders wenn sie mehr als 64MB LLC haben sollte.
fondness
2025-02-19, 14:41:41
So ist es. Es ist auch ein Mythos zu glauben, dass AMD mehr Bandbreite benötigt wie Nvidia. Sie haben teilweise mehr Bandbreite verbaut wie NV in der Vergangenheit, jetzt ist es mal umgekehrt. Aber man sah schon damals an GPUs wie der 7900GRE oder jetzt zB Strix Halo, dass AMD auch mit sehr viel weniger Bandbreite zurecht kommt.
Man kanns auch so sehen: Wenn Strix Halo mit 40 CUs und inkl. 16 CPU-Kernen mit 256GB/s Bandbreite auskommt, dann wird eine 9070XT mit 64CUs auch mit 640GB/s und 64MB Cache locker auskommen.
dildo4u
2025-02-19, 14:46:31
Sie könnte einfach besser in 1440p performen das reicht wenn das Upsampling was Taugt.
Denke nicht das sie als 4k GPU vermarktet wird.
dargo
2025-02-19, 14:57:59
Äh, die 9070 XT soll ja im Bereich der genannten Karten landen. Das hat nur als Referenz gedient. Und das ist performancetechnisch Highend.
Sorry, aber das ist kompletter Unsinn. Ein N48 hatte nie den Anspruch Highend zu sein und ist es auch nicht. Highend gibt es bei RDNA4 überhaupt nicht. Keine Ahnung was daran jetzt neu für manche hier sein soll. Nur weil NV mit Blackwell gefailed ist ist ein N48 noch lange kein Highend! Was manche hier für Ansichten mittlerweile haben? Ca. 350mm² sind heute schon Highend. Lol...
PS: Highend fängt bei mir erst mit >500mm² an. N48 ist höchstens obere Performanceklasse, mehr nicht.
davidzo
2025-02-19, 15:19:04
Bandbreite haben und ausnutzen sind zwei verschiedene Dinge. Die Vega20 hatte damals leistungsnormiert doppelt so viel Bandbreite wie die 5700XT, obwohl man wohl kaum sagen würde, dass RDNA1 gegenüber GCN5 doppelt so effizient mit der Bandbreite umgegangen ist.
Guck nochmal genau hin. RDNA1 hat deutlich mehr Bandbreite im Verhältnis zu Rechenleistung als die direkten Polaris Vorgänger und Vega64. Insbesondere wenn man sich das Cache subsystem anguckt, was bei GCN ja kaum vorhanden war. Vega20 ist ein Profichip für die Mi50 und Mi60 und tanzt daher aus der Reihe. Rate mal was der Codename war? - Moonshot - Das ist eine reine Computekarte und bei 3D workloads hoffnungslos imbalanced.
- Vega20 vs RDNA1 ist echt das schlechteste Beispiel was du hättest wählen können.
So ist es. Es ist auch ein Mythos zu glauben, dass AMD mehr Bandbreite benötigt wie Nvidia. Sie haben teilweise mehr Bandbreite verbaut wie NV in der Vergangenheit, jetzt ist es mal umgekehrt.
Bisher hatte AMD aber auch mehr IFcache, jetzt ist da Gleichstand.
Es ist ja nicht nur mehr Bandbreite bei nvidia, sondern auch mehr CUs/SMs.
Und nach großem Mehrtakt sieht es auch nicht aus, die Partnerkarten der 5080 laufen auch mit 2,8Ghz (die FE nur mit 2670) und der gameclock der 9070xt soll 2400mhz sein mit 2,9Ghz boost.
Wo soll die Mehrleistung denn her kommen? Unwahrscheinlich dass AMD hier in kurzer Zeit einen heiligen Grahl gefunden hat.
Sie könnte einfach besser in 1440p performen das reicht wenn das Upsampling was Taugt.
Denke nicht das sie als 4k GPU vermarktet wird.
ROFL, seit über 10 Jahren ist die Performance-Klasse nur WQHD. Seit 10 jahren habe ich auch schon einen 4K Monitor stehen. Wer kauft denn heute noch WQHD wenn er ein neues System für mehrere tausend Euro baut? 4K Monitore gehen mittlerweile auch unter 200€ weg.
Gerade seit DLSS und FSR ist 4K eh schon mainstream.
dargo
2025-02-19, 15:20:57
Bisher hatte AMD aber auch mehr IFcache, jetzt ist da Gleichstand.
Es ist ja nicht nur mehr Bandbreite bei nvidia, sondern auch mehr CUs/SMs.
Gleichstand bei Größe bedeutet noch lange nicht gleich effizient.
Langlay
2025-02-19, 15:21:26
PS: Highend fängt bei mir erst mit >500mm² an.
Also gabs für dich bis jetzt nur 3 Highendchips von AMD. Fiji, Navi21 & Navi31.
Das ist schon sehr speziell imo.
dargo
2025-02-19, 15:22:47
Also gabs für dich bis jetzt nur 2 Highendchips von AMD, Fiji & Navi31.
Das ist schon ne sehr spezielle Ansicht.
Was ist denn daran jetzt speziell? :freak: Und warum erwähnst du keinen N21 dabei? Und ja... bei RDNA1 gab es keinen Highend Chip von AMD, wusste damals auch jeder. Gleiches passiert jetzt mit RDNA4.
davidzo
2025-02-19, 15:27:00
Gleichstand bei Größe bedeutet noch lange nicht gleich effizient.
Eben und in Bezug auf Effizienz hat eher nvidia vorgelegt. Der L2 Cache einer 4090 hat laut Chips and Cheese 107ns während der bei der 7900XTX auf 150ns kommt. Damit erklärt sich gut die durch die bank bessere Effizienz des nvidia Cachesystems.
dargo
2025-02-19, 15:29:50
Da wäre es sinnvoller 4080S vs. 7900XTX zu vergleichen, die 7900XTX ist kein direkter Gegner für eine 4090. Und Chiplets vs. monolithisch wird immer im Nachteil sein. Am besten bald N48 vs. GB203 diesbezüglich vergleichen.
Der_Korken
2025-02-19, 15:31:30
Guck nochmal genau hin. RDNA1 hat deutlich mehr Bandbreite im Verhältnis zu Rechenleistung als der direkte Polaris Vorgänger. Insbesondere wenn man sich das Cache subsystem anguckt, was bei GCN ja kaum vorhanden war. Vega20 ist ein Profichip für die Mi50 und Mi60 und tanzt daher aus der Reihe. Rate mal was der Codename war? - Moonshot
- Vega20 vs RDNA1 ist echt das schlechteste Beispiel was du hättest wählen können.
Das Extrembeispiel war bewusst gewählt, da ich auch die 5070Ti vs 9070XT bzw. 5070Ti vs 4080 für ein extremes Beispiel halte. Die Reviews sind ja jetzt draußen und es schaut für die 5070Ti nach einer Punktlandung auf die 4080 aus, trotz 33% mehr Bandbreite. Ist Ada deswegen 33% effizienter als Blackwell bei der Bandbreite? Natürlich nicht.
Außerdem war die 5700XT doppelt so schnell wie die RX580 bei "nur" 75% mehr Bandbreite.
robbitop
2025-02-19, 15:32:05
Afaik kommt die 5070ti doch mit 28Gbps GDDR7 and 256bit und 64MB L2 cache, oder?
AMD hat aber nur 20Gbps GDDR6 eingekauft und betreibt den mit 19,5Gbps
Mir fällt es schwer zu glauben dass AMD mit einem ca. gleichgroßen Chip Nvidias mithalten kann der über 40+% mehr Bandbreite verfügt und dessen Architektur bekanntermaßen der Industrie Benchmark an Flächeneffizienz ist.
Wir haben doch aber auch andere Referenzpunkte zB die 4070ti Super und die 4080 / Super. Letztere ist genauso schnell mit deutlich weniger Bandbreite. Die 4070ti Super hat nochmal weniger Bandbreite und Cache.
Die Leaks von N48 zeigten in Raster auch leicht unter 7900XTX Perfomance (die laut dem CB Test auf 5070ti Level liegt). Also kann N48 XT schon noch leicht unter der 5070 ti liegen.
davidzo
2025-02-19, 15:41:10
Außerdem war die 5700XT doppelt so schnell wie die RX580 bei "nur" 75% mehr Bandbreite.
Die war afaik aber nur nur 70-80% schneller. Techpowerup sagt auch 76%.
RX580: 6,1Tflops, 256bit GDDR5 @ 256gb/s
5700XT: 9,7Tflops, 256bit GDDR6 @ 448gb/s
60% mehr Rechenleistung, aber 75% mehr Bandbreite. Die 5700XT hat mehr Bandbreite pro Tflops. Man könnte also sagen dass GCN 4.0 weniger Bandbreite brauchte um seine Leistung zu entfalten als Navi. Dass Speicher-OC bei Polaris keinen wesentlichen Performanceboost brachte wissen wir ja aus den damaligen Tests zu Polaris. Fiji und Vega20 schwammen verhältnismäßig in Bandbreite, konnten sich trotzdem nicht signifikant von Polaris und Vega10 absetzen und zeigten sogar eine schlechte CU-Skalierung als Polaris.
Navi konnte seine Einheiten wesentlich besser auslasten und hat daher auch von der relativ größeren zur Verfügung stehenden Bandbreite profitieren.
Also kann N48 XT schon noch leicht unter der 5070 ti liegen.
Eben, was anderes sage ich ja auch nicht. Wenn alles glatt läuft für AMD liegt man direkt in der Mitte zwischen 5070ti und 5070. Bei Rasterizing und in niedrigen Auflösungen vielleicht leicht näher an der TI, bei RT und 4K leicht näher an der Vanilla 5070 solange deren VRAM nicht ausgeht.
robbitop
2025-02-19, 15:41:54
Sorry, aber das ist kompletter Unsinn. Ein N48 hatte nie den Anspruch Highend zu sein und ist es auch nicht. Highend gibt es bei RDNA4 überhaupt nicht. Keine Ahnung was daran jetzt neu für manche hier sein soll. Nur weil NV mit Blackwell gefailed ist ist ein N48 noch lange kein Highend! Was manche hier für Ansichten mittlerweile haben? Ca. 350mm² sind heute schon Highend. Lol...
PS: Highend fängt bei mir erst mit >500mm² an. N48 ist höchstens obere Performanceklasse, mehr nicht.
Ich denke das ist nur ein Definitionsproblem. Ihr meint das gleiche. Die 80er Serie von Nvidia ist ja in der mm2 Anzahl. Basix meint das ist high end und du meinst das ist performance. Potato, potatoe.
Über high end gibt es übrigens noch "enthusiast". :)
Von der Größe und der bisher geleakten Performance sieht es jedenfalls so aus als wäre N48 ein Gegner der 5070/70ti SKU. Egal als was man die bezeichnet. ^^
fondness
2025-02-19, 15:46:51
Die 5070 TI hat ja nicht nur deutlich mehr Bandbreite, sondern auch mehr SMs, 70 vs 64 bei der 9700XT, also sollte man auch davon ausgehen, dass sie schneller ist. Ansonsten müsste AMD schon irgendeinen Secret source da drinnen haben.
dargo
2025-02-19, 16:08:00
Über high end gibt es übrigens noch "enthusiast". :)
Sehe ich nicht so, auch wenn so manch ein IHV das so gerne hätte nur um völlig überzogene Preise rechtfertigen zu können.
Die 5070 TI hat ja nicht nur deutlich mehr Bandbreite, sondern auch mehr SMs, 70 vs 64 bei der 9700XT, also sollte man auch davon ausgehen, dass sie schneller ist. Ansonsten müsste AMD schon irgendeinen Secret source da drinnen haben.
Seit diesem bullshit @Fantasie TFLOPs ab RDNA3 und Ampere kannst du die Shadereinheiten nicht mal zwischen mehreren IHVs vergleichen.
fondness
2025-02-19, 16:13:04
Seit diesem bullshit @Fantasie TFLOPs ab RDNA3 und Ampere kannst du die Shadereinheiten nicht mal zwischen mehreren IHVs vergleichen.
Deshalb zähle ich auch nur die echten SMs und keine "Fantasie TFLOPs". :)
dargo
2025-02-19, 16:19:13
Das ist Jacke wie Hose. ;)
robbitop
2025-02-19, 16:23:10
Die 5070 TI hat ja nicht nur deutlich mehr Bandbreite, sondern auch mehr SMs, 70 vs 64 bei der 9700XT, also sollte man auch davon ausgehen, dass sie schneller ist. Ansonsten müsste AMD schon irgendeinen Secret source da drinnen haben.
Die 9070 xt taktet aber ggf etwas höher aber ja ich beziehe mich auf die Leaks der Rasterperformance wo man ~5-10% langsamer als eine 7900XTX war. Und damit kommt man nur relativ knapp unter der 5070ti raus. edit: Und die 5070ti hat nur 48 MiB L2 vs N48s 64 MiB.
Die Bandbreitenerhöhung war bei Blackwell ziemlich massiv brachte aber kaum was in Spielen bis auf wenige Ausreißer insofern würde ich das nicht all zu stark gewichten.
robbitop
2025-02-19, 16:28:38
Sehe ich nicht so, auch wenn so manch ein IHV das so gerne hätte nur um völlig überzogene Preise rechtfertigen zu können.
Das war schon immer so. Auch lange bevor es 1000 EUR GPUs gab. Ich hab schon zu meiner Zeit als Redakteur (und das war Mitte der 2000er) bei Nvidia oder ATI zu Besuch (zu Events, Launches oder Interviews) eine solche Segmentierung gesehen.
Aber am Ende ist es auch Banane - ihr meint das gleiche.
Deshalb zähle ich auch nur die echten SMs und keine "Fantasie TFLOPs". :)
Vergleichst du dann SM vs CU oder SM vs WGP?
fondness
2025-02-19, 16:42:46
Das erste mal wird auch FSR4 für den 28. Februar bestätigt:
https://x.com/AzorFrank/status/1892237344440218048
dargo
2025-02-19, 17:21:13
Das war schon immer so. Auch lange bevor es 1000 EUR GPUs gab. Ich hab schon zu meiner Zeit als Redakteur (und das war Mitte der 2000er) bei Nvidia oder ATI zu Besuch (zu Events, Launches oder Interviews) eine solche Segmentierung gesehen.
Aber am Ende ist es auch Banane - ihr meint das gleiche.
Richtig, reine Wortspielerei. Highend ist für mich das selbe wie Enthusiast. Da ist es mir völlig Banane ob die IHVs das anders sehen.
Savay
2025-02-19, 17:37:12
Richtig, reine Wortspielerei. Highend ist für mich das selbe wie Enthusiast. (..)
Ja, das ist wirklich Wortklauberei...zumal es dann ja erst 3 "HighEnd" Radeons gab... und von nV dagegen 11...und in der RTX20 Gen dann sogar 2 "HighEnd" Chips parallel. ;)
Also entweder ist seit knapp 10 Jahren das alles eine Kategorie nach oben verschoben oder es gibt über HighEnd mittlerweile wirklich ne neue Kategorie.
Da die Verbräuche und Chipgrößen in dem fraglichen Segement ziemlich explodieren spricht für mich eigentlich eher für letzteres...
robbitop
2025-02-19, 17:48:25
IMO ist der Schwellwert dafür arbiträr.
Aus meiner Sicht high end Radeons weil es zur gleichen Zeit keine Produkte in höheren Segmenten gab - auch beim Wettbewerber:
R100
R200
R300
R420
R520
R580
R600
dann erst wieder Hawaii (weil RV770 und RV870 nicht ganz high end waren und Tahitii auch nicht)
dann Fijii
und dann erst N21 (weil Vega zwar von den Specs her high end war aber nicht mit Nvidias high end mithalten konnte weder Vega 10 mit der 1080ti noch Vega 20 mit der 2080ti)
und zuletzt N31
Bei Vega könnte man ggf. wegen der Specs nochmal diskutieren.
Aber am Ende egal und null Relevanz für hier.
Savay
2025-02-19, 17:51:24
RV870
Cypress war aber immerhin ne ganze Weile der mit Abstand schnellste Chip auf dem Markt... :wink:
GerryB
2025-02-19, 17:51:28
Ansonsten müsste AMD schon irgendeinen Secret Souce da drinnen haben.
In der Praxis wäre man schon zufrieden, wenn RDNA4 genausogut mit FSR+FG skaliert wie RDNA3.
mag sein, das die 5070Ti etwas mehr Rohpower hat, aber wenn die Scaler bei der 9070xt gut funzen, dann reichts auch
für ne Menge Fps
dargo
2025-02-19, 17:54:15
Ja, das ist wirklich Wortklauberei...zumal es dann ja erst 3 "HighEnd" Radeons gab... und von nV dagegen 11...und in der RTX20 Gen dann sogar 2 "HighEnd" Chips parallel. ;)
Also entweder ist seit knapp 10 Jahren das alles eine Kategorie nach oben verschoben oder es gibt über HighEnd mittlerweile wirklich ne neue Kategorie.
Da die Verbräuche und Chipgrößen in dem fraglichen Segement ziemlich explodieren spricht für mich eigentlich eher für letzteres...
Die Verbräuche explodieren bei Blackwell aktuell in jedem Segment was eine völlig logische Konsequenz ist wenn der Topdog am "kochen" ist. Nur mal zur Erinnerung... eine RX 6600XT lag mit 237mm² bei 147W laut CB. Wo eine RTX 5070 mit ihren 263mm² landet wirst du selbst finden können. Auch ein eventueller Salvage von GB205 wird keine ~150W erreichen können.
GerryB
2025-02-19, 17:56:11
Verbrauch bei N48= ?!
kann genauso gut 330W sein >3,1GHz
und
GDDR6 braucht auch mehr als GDDR7
glaube daher nicht an die Effizienzkrone für N48/44
Savay
2025-02-19, 17:58:09
Die Verbräuche explodieren bei Blackwell aktuell in jedem Segment was eine völlig logische Konsequenz ist wenn der Topdog am "kochen" ist.
Ach dieser Trend fing doch schon viel früher an... ~2015 bis 2016.
Daher ist das aus meiner Sicht oft kein "HighEnd" im klassischen Sinne mehr.
GerryB
2025-02-19, 18:18:48
Hauptsache es gibt genügend Modelle mit 2x 8pin
horn 12
2025-02-19, 18:46:30
Exakt, aber denke kaum , ausser Referenz und Powercolor !
dargo
2025-02-19, 18:47:03
GDDR6 braucht auch mehr als GDDR7
Diese Märchen vom hohen Verbrauch beim Vram halten sich wohl ewig. :freak: Der Speichercontroller ist der der "Durst" hat, nicht der Speicher.
Exakt, aber denke kaum , ausser Referenz und Powercolor !
Dein Gedächtnis lässt zu wünschen übrig. Sapphire Pure vergessen. ;)
horn 12
2025-02-19, 19:00:12
Hast Recht, wirklich nur 2 8 Pin
Aber hoch die Karte und breit!
https://www.pcgameshardware.de/Radeon-RX-9070-XT-Grafikkarte-281023/News/Sapphire-Pure-Custom-Designs-1465669/galerie/3976003/?fullsize
GerryB
2025-02-19, 19:08:46
Diese Märchen vom hohen Verbrauch beim Vram halten sich wohl ewig. Der Speichercontroller ist der der "Durst" hat, nicht der Speicher.
Du wirst uns das sicher demnächst mit eigenen 9070xt-Messungen belegen, was Vram+SOC verbrauchen.
Ein Vgl.wert von ner 5070Ti wird sich sicherlich auch finden lassen.
dargo
2025-02-19, 19:09:43
Du wirst uns das sicher demnächst mit eigenen Messungen belegen, was Vram+SOC verbrauchen.
Schon längst gemacht, du liest einfach nur das falsche.
GerryB
2025-02-19, 19:11:17
Ich will nicht wissen, was bei Deiner ollen 6800xt los ist, sondern von der 9070xt.
Wiseman
2025-02-19, 19:11:56
Hauptsache es gibt genügend Modelle mit 2x 8pin
Da bin ich ganz deiner Meinung. Bereits bei der 7900XTX kam für mich nur ein Modell mit 2x8pin in Frage. Deshalb entschied ich mich u. a. für die Hellhound 7900XTX, weil sie 2x8pin hat. Falls ich downgraden (*) sollte, käme auch bei der 9070XT für mich nur ein Modell mit 2x8pin in Frage.
(*) Downgraden klingt ein bisschen despektierlich, bezieht sich aber nur auf 24GB --> 16GB. Leistungsmäßig erwarte ich in Rasterizing ein Patt und in Raytracing ein signifikantes Plus der 9070XT. Hinzu kommt FSR4 sofort und eine eventuell viel höhere Power-Limitierung in der Adrenalin Software, um den Wattverbrauch in 4k von momentan 312W bei meiner 7900XTX auf sagen wir mal 200W reduzieren zu können. Dann wäre eine Custom 9070XT für mich ein absoluter no-brainer.
dargo
2025-02-19, 19:13:05
Ich will nicht wissen, was bei Deiner ollen 6800xt los ist, sondern von der 9070xt.
Dann musst du dich in die Zukunft beamen lassen. Aber eventuell könntest du mir auch erklären warum sich der SoC und der Speicher von RDNA4 anders verhalten sollte als bei RDNA2.
GerryB
2025-02-19, 19:45:00
Was für Vram hast Du, ... dürfte bei weitem nicht so schnell sein/Volt brauchen.
und
Bei der 9070xt kann man nicht manuell die Volts für SOC+Vram senken.
mehr Vram-Takt und vor allem mehr IF-takt kosten mehr SOC-Volt
und ob zusätzlich der höhere Frontendtakt ne Rolle spielt, ... sicherlich
Oranje7
2025-02-19, 19:50:24
das ist doch aber aus der Glaskugel?
Weil es gibt offiziell noch keine 9070
GerryB
2025-02-19, 19:51:47
aber den hohen IF-Takt+Frontend kann man sich schon denken und den Vram auch
weil sonst die Bandbreite nicht reicht
dargo
2025-02-19, 20:01:55
Was für Vram hast Du, ... dürfte bei weitem nicht so schnell sein/Volt brauchen.
Wiegt sich wieder auf da der SoC vom N48 schneller takten wird. Und höhere Frequenz alleine wirkt sich völlig vernachlässigbar auf den Verbrauch aus. Das sind Basics die du eigentlich kennen solltest. Der GDDR6 von N21 braucht 1350mV. Auch ein GDDR6 der vom Hersteller viele Jahre später beschleunigt wurde lässt sich nicht selten noch optimieren. Sprich... der GDDR6 vom N48 muss nicht zwangsläufig mehr als 1350mV brauchen. Das sind aber Kenngrößen die noch herausgefunden werden müssen.
mehr Vram-Takt und vor allem mehr IF-takt kosten mehr SOC-Volt
Nicht wenn man die Fertigung optimiert. Ich wäre jedenfalls überrascht wenn AMD mehr als 1150mV auf den SoC loslässt. Aber ausschließen lässt sich das natürlich noch nicht.
GerryB
2025-02-19, 20:12:04
RDNA2 1150mV ist nicht der eff. Wert.
Wohl eher so ca. 1050...1075 bei der 6800xt. (bei Fclk1940)
edit: ne 6900@400Wtgp siehe Anhang2
(ohne UVen von SOC+Vram)
Könnte mir gut vorstellen, das schon die 6950 mehr eff. Volt beim SOC hat (Fclk>2000).
also evtl. eff. 1075...1100mV
Bei RDNA3, z.Bsp. bei ner GRE siehe Anhang
SOC <1V sieht human aus, dank 5nm
Vram Volt ähnlich RDNA2@stock, geht auch noch
(ist halt schon ne bessere Fertigungslinie)
trotzdem:
Eigentlich erschreckend, wie gering der verbleibende verfügbare Wattanteil für den GPU-Core
bei RDNA3 ist!
Beide Bsp. nicht auf die Goldwaage legen, weil Sup und TS total unterschiedlich sind.
Schnitzl
2025-02-19, 21:28:35
(*) Downgraden klingt ein bisschen despektierlich, bezieht sich aber nur auf 24GB --> 16GB. Leistungsmäßig erwarte ich in Rasterizing ein Patt und in Raytracing ein signifikantes Plus der 9070XT. Hinzu kommt FSR4 sofort und eine eventuell viel höhere Power-Limitierung in der Adrenalin Software, um den Wattverbrauch in 4k von momentan 312W bei meiner 7900XTX auf sagen wir mal 200W reduzieren zu können. Dann wäre eine Custom 9070XT für mich ein absoluter no-brainer.
+1
aber sowas von plus eins!
anddill
2025-02-19, 22:50:54
Um nochmal auf den Monster Hunter Benchmark zurückzukommen, der mit den 211 fps in 1080p und Intel Arrow Lake.
Ich bin auch davon ausgegangen daß der in der Auflösung CPU-limitiert ist. Aber Kontrolle ist besser als glauben. Also habe ich mal mit meiner RX 7900XTX und dem R7 7800X3D gegengecheckt.
In HD bin ich auf 204,24 fps gekommen, bei einer CPU-Last in der Spitze (Wenn die Reiter das Lager betreten) von 89%. Klingt tatsächlich ziemlich CPU-limitiert.
In 4k komme ich übrigens auf 136,39 fps bei max 82% CPU-Last.
Dann habe ich mir einen R7-9800X3D zugelegt und im selben System verbaut.
Jetzt komme ich in HD auf 205,05 fps bei max 80% CPU-Last. Also selbes Ergebnis, nur etwas niedrigere CPU-Auslastung. Übrigens während des gesamten Benchmark-Laufs, nicht nur an meinem "Messpunkt"
In 4K war das Ergebnis minimal niedriger mit 134,08, bei deutlich niedrigerer CPU-Last von 67%.
Alles in allem zwar nicht besonders wissenschaftlich, aber mMn. ist der Bench auch in HD nicht CPU-limitiert auf einer 7900XTX. Kann jetzt natürlich sein daß das Intel-System Vorteile bei Latenzen hat die mit ca 15 fps durchschlagen. Oder die RX9000 sind effizienter bei der Frame Generierung.
Also mMn. sieht das ganz gut aus für die RDNA4 GPUs.
crux2005
2025-02-19, 22:52:29
Alles in allem zwar nicht besonders wissenschaftlich, aber mMn. ist der Bench auch in HD nicht CPU-limitiert auf einer 7900XTX. Kann jetzt natürlich sein daß das Intel-System Vorteile bei Latenzen hat die mit ca 15 fps durchschlagen. Oder die RX9000 sind effizienter bei der Frame Generierung.
Also mMn. sieht das ganz gut aus für die RDNA4 GPUs.
Denke nicht das der 285K Vorteile bei der Latenz hat.
DrFreaK666
2025-02-19, 23:03:29
... und man sich in Gottes Namen halt doch auch mit Nvidias Angebot vergleichen muss um attraktiv zu sein (auch in RT)...
Und da kann man nicht warten bis es Benchmarks gibt, oder was?
Stattdessen werden aktuelle NV-Benchmarks genommen und mit RDNA4 verglichen, obwohl es überhaupt keine Infos gibt!
Und dann das immer wieder zurück kehrende MFG: Das hat hier nichts zu suchen.
Wegen dem grünen Lager, war der Thread hier schonmal zu.
Ist natürlich nicht so wichtig, wenn man ne grüne Karte hat
basix
2025-02-20, 07:07:39
Eigentlich wollte ich nicht auf diesen Kommentar antworten, aber:
Wir sind hier im Speku Thread. Hier wird existierende HW naturgemäss mit den prognostizierten / spekulierten Leistungswerten verglichen. Dito bei den Preisen, die kennen wir bei den neuen Karten auch nicht. Ob das AMD oder Nvidia Karten sind ist schnurzegal. Wenn man sich nicht auf releaste Karten beziehen kann, dann kann man den Thread generell zumachen (ist nämlich egal ob ich mich auf eine 4070 Ti oder 7900XT beziehe).
Und wenn ich irgendwo (mindestens passiv) aggressiven Unterton rauslese, ist das primär nutzloses Anti-Nvidia Bashing. Wegen mir wird der Thread hier sicher nicht geschlossen, ich poste neutrales Zeugs aber anscheinend werden dadurch zu viele Leute getriggert. Deswegen: Ich bin hier raus, ich kann meine Zeit besser nutzen als angeblafft zu werden.
Und falls jemand mir Nvidia Shill unterstellen will: Wenn ich von einer der drei grossen Firmen Fan bin, dann ist es definitiv AMD. Diskussionen können aber gerne alle drei umfassen und zwar quer im Mix ;)
GerryB
2025-02-20, 07:35:13
ist das primär nutzloses Anti-Nvidia Bashing
???
Deine Vgl. mit PT sind tatsächlich nutzlos für Midrange N48.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13709283&postcount=6831
Mich interessiert NV eigentlich überhaupt nicht, ... bei den Preisen.
Interessant ist primär der Vgl. RDNA4 vs RDNA3.
Da muss dann aber auch der Preis passen.(Marktpreise)
DrFreaK666
2025-02-20, 07:35:44
... Hier wird existierende HW naturgemäss mit den prognostizierten / spekulierten Leistungswerten verglichen...
Es kommt auf die Masse an.
Wenn hier seitenweise über Reflex, MFG und anderen NV-Techs geredet wird, dann ist das der falsche Thread.
Wenn die Forum-Software mir signalisiert, dass es im "AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)" Thread neue Posts gibt, dann will nicht seitenweise NV-Kram lesen.
Und dass wegen OT-Gelaber der Thread mal geschlossen war, fand ich nicht so geil.
Und anscheinend blieb es auch ohne nachhaltigen Effekt
raffa
2025-02-20, 09:39:05
Fondness hat schonmal einen geleakten Treiber verlinkt. Theoretisch kann jeder der eine 9070XT hat diese also benchmarken. Ansonsten unterstützt das aktuelle MESA in Linux wohl auch schon RDNA4 - aber unklar wie gut die Unterstützung schon ist.
https://www.phoronix.com/news/Mesa-25.0-Released
"Mesa 25.0 brings usable support for AMD Radeon RX 90x0 "RDNA4" graphics with the RadeonSI Gallium3D (OpenGL) and RADV (Vulkan) drivers. The RadeonSI support should be in great shape given it's worked on directly by AMD while the RADV RDNA4 support is tackled by Valve developers and the initial RDNA4 support is deemed good enough. "
robbitop
2025-02-20, 09:54:25
Tja schon merkwürdig, dass es doch so viel Hardware außerhalb AMDs Händen gibt (bei Händlern und ein paar sogar schon in Privathänden) und es werden keine Benchmarks geleakt obwohl mit etwas Recherche es durchaus möglich wäre die Karte zum Laufen zu bringen. Schade.
Es kommt auf die Masse an.
Wenn hier seitenweise über Reflex, MFG und anderen NV-Techs geredet wird, dann ist das der falsche Thread.
Hier ein IMHO:
Ich würde sagen, dass nicht du das entscheidest. Bewirb' dich gern als Mod wenn du moderieren willst (was du in letzter Zeit ja für dich entdeckt zu haben scheinst). Ansonsten lass es doch bitte sein. Das Maßregeln von anderen ist nicht die Rolle von Usern im Forum. Hier kann jeder im Rahmen der Regeln (und diese werden von Mods durchgesetzt und nicht von usern) posten was er will und basix liefert IMO durchaus sinnvolle Inhalte und Referenzpunkte. Und nicht jede Zeile muss immer perfekt zum Thema passen wenn es Referenzpunkte gibt und es erweitert IMO.
GerryB
2025-02-20, 09:57:06
KCD2 wäre doch ideal@Linux
Könnte man da auch ASync irgendwie nutzen?
raffa
2025-02-20, 10:03:03
KCD2 läuft ziemlich gut unter Linux, jo.
Wenn du mir ne Karte zukommen lässt dann bench ich das mit dem neuen Mesa gerne mal durch :D
GerryB
2025-02-20, 10:43:21
Mit hoher Wahrscheinlichkeit wirst Du ne 9070(xt) eher in die Hände bekommen können als ne 5070.
robbitop
2025-02-20, 10:46:23
Wobei AMD und Nvidia beide den gleichen Node zu nutzen scheinen - also wenn da etwas durch das Erdbeben betroffen ist, ist es nicht unwahrscheinlich, dass auch RDNA4 betroffen sein kann.
fondness
2025-02-20, 10:51:25
Wobei AMD und Nvidia beide den gleichen Node zu nutzen scheinen - also wenn da etwas durch das Erdbeben betroffen ist, ist es nicht unwahrscheinlich, dass auch RDNA4 betroffen sein kann.
Zumindest scheinen sie keine verbuggten Chips zu haben wie Nvidia laut der Quelle. X-D Und wenn das Erdbeben auch ein Grund ist, war die Verschiebung von AMD für die es hier viel Häme gab allemal die bessere Entscheidung als dieser lächerliche Launch von Nvidia. Die Quelle kommt im übrigen direkt aus Taiwan, scheint also durchaus glaubwürdig.
robbitop
2025-02-20, 10:56:21
Naja die Glaubwürdigkeit allein an der Nationalität fest zu machen finde ich etwas weit hergeholt. Wenn dann müsste eine Assoziation mit TSMC oder einem der Zulieferer oder Partner korreliert sein finde ich.
Das mit den verbuggten Chips ist mir noch nicht ganz klar. Annahme: die Chips der GPUs auf dem Markt sind nicht verbuggt aber es brauchte ein Respin und entsprechend ist man später dran als man wollte und hat noch nicht die Stückzahlen "auf Halde"?
fondness
2025-02-20, 10:58:06
Es ist eine renommierte taiwanische Tech-Seite, die häufig insights von TSMC liefert:
https://www.ctee.com.tw/news/20250220700070-439901
Das ist allemal glaubwürdiger als irgendwelches Geschwätz so mancher Youtube-Channels.
Übersetzung:
After the launch of Nvidia's new generation consumer graphics card RTX50 series, the channels were out of stock. Recently, it was reported that RTX5070 and 5060 need to be debugged due to chip performance issues, which has delayed the mass production schedule. The relevant supply chain revealed that it is expected to be launched in mid-March at the earliest. On the other hand, the Tainan earthquake caused TSMC's wafer production to be disrupted, which is also the reason for the graphics card supply congestion. However, efforts are being made to make up for the production shortage, and the company estimates that the shortage situation will gradually improve.
[...]
Recent supply chain news has revealed that the mainstream 5070/5060 series require further debugging due to chip performance issues. In addition, the Tainan earthquake has hampered wafer production, adding uncertainty to supply. The supply chain revealed that the mass production schedule is delayed by about four weeks, and is expected to be launched in mid-March and mid-April respectively.
Hakim
2025-02-20, 11:52:14
Glaube das Beben kam nach der Verschiebung, es sah so aus das AMD schon kurzfristig auf der CES beschlossen hätte es zu verschieben und offiziell von Q1 sprach, während das Beben am 20/21 Januar war.
amdfanuwe
2025-02-20, 12:17:45
Mal abwarten, wie die Verfügbarkeit bei AMD 9070(XT) ausfallen wird.
Hab irgendwie das Bauchgefühl, dass AMD anderen Chips höhere Priorität einräumte und N48 deshalb verschoben wurde.
Ryzen X3D läuft gut
Strix Point höhere Nachfrage als gedacht?
Mi350 wurde vorgezogen.
N48 spielt bei den Umsätzen und Gewinnen eher eine kleine Rolle, da kann man schon etwas verschieben zumal ja noch Altware 7000er vorhanden ist.
The_Invisible
2025-02-20, 12:21:48
Zumindest scheinen sie keine verbuggten Chips zu haben wie Nvidia laut der Quelle. X-D Und wenn das Erdbeben auch ein Grund ist, war die Verschiebung von AMD für die es hier viel Häme gab allemal die bessere Entscheidung als dieser lächerliche Launch von Nvidia. Die Quelle kommt im übrigen direkt aus Taiwan, scheint also durchaus glaubwürdig.
Klar AMD hat seine Glaskugel zur CES befregt das am 26. Jänner ein Erdbeben kommt und sie somit verschieben. Man kanns langsam auch mal übertreiben mit der Gutgläubigkeit...
fondness
2025-02-20, 12:25:11
Klar AMD hat seine Glaskugel zur CES befregt das am 26. Jänner ein Erdbeben kommt und sie somit verschieben. Man kanns langsam auch mal übertreiben mit der Gutgläubigkeit...
Das hat Hakim schon geschrieben. Aber ist nett, dass du auch noch rein trollst. :)
Und ja, ich hatte das Datum nicht im Kopf, mea culpa. Das Beben war am 20. Jänner: https://www.reuters.com/technology/tsmc-says-all-its-sites-operating-following-taiwan-quake-2025-01-21/
mboeller
2025-02-20, 12:25:53
Klar AMD hat seine Glaskugel zur CES befregt das am 26. Jänner ein Erdbeben kommt und sie somit verschieben. Man kanns langsam auch mal übertreiben mit der Gutgläubigkeit...
lesen lernen ... würde helfen
Bei der ganzen Diskussion um eine Verschiebung ging es um Nvidia 5060 und 5070 ...
Complicated
2025-02-20, 12:26:41
Mal abwarten, wie die Verfügbarkeit bei AMD 9070(XT) ausfallen wird.
Hab irgendwie das Bauchgefühl, dass AMD anderen Chips höhere Priorität einräumte und N48 deshalb verschoben wurde.
Ich spekuliere dass AMD genau diese Fehleinschätzung korrigieren wollte und deshalb verschoben hat. Wenn sie die Zeit genutzt haben um mehr N48 auf Halde zu produzieren, dann würden sie mit stabilen UVP-Preisen und Lieferbarkeit (auch für Komplettsystem-Hersteller - die sind ebenfalls nicht lieferbar mit RTX 50xx GPUs) einen Coup landen. Hier würden einige zuschlagen die auf Nvidia nicht mehr warten wollen, vor allem mit Gamingsystemen inkls. Ryzen X3D. (das würde ganz nebenbei auch etwas für den CPU-Mart und zukünftige Designwins bei den OEMs tun)
Hakim
2025-02-20, 12:35:18
Eigentlich ist es ja jetzt egal warum AMD es verschoben hat. Produktion, Treiber, FSR, chip Priorität etc etc, wir können nur spekulieren und AMD wird es offiziell nicht verkünden. Wir können nur hoffen das zum Launch entsprechend viele Karten zu kaufen gibt dann, wenn schon seit Januar Karten bei den Händlern waren
davidzo
2025-02-20, 12:52:47
Ach was, man kann nicht einfach in wenigen Wochen eine weitere Produktionslinie bei TSMC öffnen. Das braucht neue Maskensätze, etc. - So ein Ramup up dauert eher Monate.
Es ist doch ziemlich eindeutig dass der wahre Grund ist dass man noch auf FSR4 gewartet hat. Es ist auch ein AMD-Klassiker dass mal wieder die Software, also FSR4 Framgen noch nicht fertig ist. AMD könnte zwar auch von Nvidias Framegen etwas überrascht gewesen sein, aber eher glaube ich dass FSR4 zum Launch geplant war aber einfach verzögert hat weil es noch zu viele Bugs oder gar Performanceprobleme gab und die AMD Entwickler damit mal wieder eine Deadline gerissen haben.
Das kommt bei AMD ja am laufenden Band vor. Vega wurde auch mit HBCC und Rapid packed math angekündigt, was letztendlich nie richtig funktioniert hat und dementsprechend schlecht sah man gegenüber Pascal aus.
Die XDNA NPUs liegen praktisch auch seit 2 Jahren brach und niemand weiß ob die wirklich jemals im Stande sein werden AI Benchmarks geschweige denn AI Anwendungen zu beschleunigen. Die 50tops sind bisher rein auf dem Papier.
Klar hätte AMD RDNA4 auch ohne FSR4 launchen können. Aber ich glaube nicht dass das im mainstream Markt gut angekommen wäre. Der Ottonormalverbraucher vergleicht dann AMD mit FSR3.1 vs Nvidia mit DLSS Framegen auf RTX5000 und wie das augeht wissen wir ja. Wir hier in unserem Nerd-castle überschätzen drastisch den Wert von Benchmarks in nativen Auflösungen und unterschätzen dass die meisten User da draußen tatsächlich immer das maximal verfügbare DLSS level angeschaltet haben.
AMD Käufer sind ja P/L ortientiert und geben sich auch mit dem zweit- oder drittbesten zufrieden. Und genau deswegen ist Upscaling und Framegen in diese Käuferschicht extrem wichtig. Diese Zielgruppe glaubt doch wirklich dass eine 5070 eine gleichwertige Experience zu einer 4090 liefert wenn nvidia Folien das behaupten. Und wenn man die Benchmarks mit Framegen sieht würde selbst eine 5060 eine 9070xt ohne Framegen versägen. Da die 5060 auch erheblich günstiger sein wird und noch dazu den glanzvollen Namen von nvidia trägt der impliziert dass es weniger Kompatiblitätsprobleme gibt, ist die Wahl der unbedarften Grafikkartenkäufer doch einfach, oder nicht?
Möglicherweise ist es auch AMDs Azor-Marketing-Guru der nicht ohne FSR4 launchen will weil er sonst eine uphill Marketing-Battle vor sich hat die man nur über niedrigere Preis und weniger Marge gewinnen kann.
Nicht zu vergessen ist N48 immerhin ein 390mm2 Chip in N4. Das ist größer als N31 und GB203. Da möchte man trotz des günstigeren RAM lieber keine Abstriche bei der Marge machen.
Hatstick
2025-02-20, 12:59:05
Wird denn FSR4 abwärtskompatibel auch zu der 6000er Reihe sein oder wird das ein RDNA3/4 exklusives Ding?
Complicated
2025-02-20, 13:00:02
- Wenn AMD zu seinem UVP verkaufen kann so lange wie möglich, gibt es keine Abstriche bei der Marge.
- Eine neue Fertigungslinie braucht man auch nicht um ein Produkt 2 Monate länger zu produzieren auf Lager. (Ich denke eine Steigerung der laufenden Fertigung ist ebenfalls in gewissem Rahmen möglich)
- Geht ja lediglich um die Nachfrage bei Launch und die Preise bei den Händlern stabil zu halten.
davidzo
2025-02-20, 13:00:31
Wird denn FSR4 abwärtskompatibel auch zu der 6000er Reihe sein oder wird das ein RDNA3/4 exklusives Ding?
Wird leider erstmal exklusiv sein, da man mit FP4/6 ein neues low precision Format verwendet.
Es ist möglich dass man das für RDNA3 in FP8 nachreicht, mit dann aber geringerer performance.
robbitop
2025-02-20, 13:08:24
Das kommt bei AMD ja am laufenden Band vor. Vega wurde auch mit HBCC und Rapid packed math angekündigt, was letztendlich nie richtig funktioniert hat und dementsprechend schlecht sah man gegenüber Pascal aus.
Ich meine, dass HBCC und PRM funktioniert haben - was du meinst war glaube ich die neue Geometrie Pipeline oder? Ggf noch den Draw Stream Binning Rasterizer?
Möglicherweise ist es auch AMDs Azor-Marketing-Guru der nicht ohne FSR4 launchen will weil er sonst eine uphill Marketing-Battle vor sich hat die man nur über niedrigere Preis und weniger Marge gewinnen kann.
Nicht zu vergessen ist N48 immerhin ein 390mm2 Chip in N4. Das ist größer als N31 und GB203. Da möchte man trotz des günstigeren RAM lieber keine Abstriche bei der Marge machen.
Naja aber den Stand von FSR4 kennt man ja nicht erst kurz vor dem geplanten Launch in der CES. Es war an sehr vielen Indizien erkennbar, dass das last minute abgesagt wurde. Also ggf durch etwas kurzfristig Unvorhergesehenes. Und da tippe ich eher auf etwas von Nvidia.
Entweder wie fondness sagt dass die kleinen Blackwells überraschend langsam sind und man höher Preisen/Segmentieren kann als gedacht oder aber neue Features wie MFG auf die man ggf eine Antwort braucht.
Ich kann mir vorstellen, dass ein Faktor 3 und 4 zu implementieren wenn man bereits ein funktionierendes FG Verfahren hat kein Hexenwerk ist. Siehe LSFG 3.0.
390 mm²? War N48 nicht ~350...360 mm²?
Wird leider erstmal exklusiv sein, da man mit FP4/6 ein neues low precision Format verwendet.
Es ist möglich dass man das für RDNA3 in FP8 nachreicht, mit dann aber geringerer performance.
Wher hast du das mit FP4/6? Also dass da auf RDNA4 neu / schneller ist und auch gleichzeitig, dass das zu FSR4 Einzug finden wird. Ist das bereits halbwegs sicher?
Das wäre doch ein ziemlicher Genauigkeitsverlust und ab einem gewissen Punkt wird es dann mit guten NNs schwierig.
Meinem Verständnis nach gab/gibt es jetzt mit RDNA4 deutlich mehr Matrix Multiply Durchsatz im Generellen - ggf. extra HW - und das wird gebraucht damit FSR4 akzeptabel schnell läuft.
davidzo
2025-02-20, 13:20:15
Draw Stream Binning Rasterizer?
yepp, das war das Buzzword das ich suchte!
Naja aber den Stand von FSR4 kennt man ja nicht erst kurz vor dem geplanten Launch in der CES. Es war an sehr vielen Indizien erkennbar, dass das last minute abgesagt wurde. Also ggf durch etwas kurzfristig Unvorhergesehenes. Und da tippe ich eher auf etwas von Nvidia.
Naja, bei Bugfixes und Performanceoptimierungen ist das schon schwer vorrauszusagen wann du fertig wirst. Es kann ja durchaus sein dass FSR4 eben in einigen Spielen bereits lange Zeit schon gut lief und deshalb für den RDNA4 Launch eingeplant war obwohl man in anderen Spielen noch am debuggen und optimieren war. Wieviel du debuggen musst oder wann du die richtigen performancetweaks findest ist ja keine deterministische Frage.
Es würde auch Sinn machen wenn man bei FSR4 mit Transformer Modell bisher auf Qualität gegangen ist und schockiert war das nvidia mit ihrem Transformermodell eher auf geschwindigkeit gegangen ist und sich ggf. mehr zwischenframes getraut hat als AMD für realistisch hielt.
In dem Fall wäre es dann besser das eigene FSR mit Transformermodell nicht alleine zu launchen, weil sonst 1:1 Performancevergleiche gemacht werden. Stattdessen könnte man das als Qualitätsmodus verkaufen und noch ein schlechteres schnelleres Modell parallel anbieten welches dann leistungsmäßig besser mit RTX5000 Framegen mithält.
The_Invisible
2025-02-20, 13:27:51
Würde so lachen wenn bei rdna4 Release dann plötzlich fsr4-mfg mit "coming soon" angekündigt würde.
Und zwecks verfügbarkeit: wäre ja quasi aufgelegt für einen X-Post seitens AMD wenn die so viel besser wäre, noch kam aber nix...
fondness
2025-02-20, 13:31:08
Würde so lachen wenn bei rdna4 Release dann plötzlich fsr4-mfg mit "coming soon" angekündigt würde.
Warum eine fsr4-mfg Ankündigung zu lachen ist, bleibt wohl dein Geheimnis.
Aber ich bin mir sicher egal wie gut der Launch wird, die wirst immer irgendwas finden, das du lächerlich machen kannst. :)
Und zwecks verfügbarkeit: wäre ja quasi aufgelegt für einen X-Post seitens AMD wenn die so viel besser wäre, noch kam aber nix...
Noch wurde auch nichts vorgestellt geschweige denn gelauncht. Dazu wird man sich frühestens am 28. Februar äußern.
The_Invisible
2025-02-20, 13:38:52
Lachen nur mit "coming soon" zusammen weil man dann Mal wieder von NV abgekupfert hat
fondness
2025-02-20, 13:40:08
Lachen nur mit "coming soon" zusammen weil man dann Mal wieder von NV abgekupfert hat
Also sollte man es nicht bringen? Lächerliches Argument.
aufkrawall
2025-02-20, 13:42:22
Wär schon erstmal eine Verbesserung, wenn es FSR FG nicht mehr ohne Anti-Lag 2 implementiert geben kann. Mal wieder einfach nur furchtbar von AMD gemanagt.
robbitop
2025-02-20, 13:44:14
Naja mit FSR3 FG hat AMD sich mit der Ankündigung und dem was dann kam und wie lange es dauerte und in welchem Zustand es initial war nicht gerade mit Ruhm bekleckert. Diese Erinnerung kann da schon beim Publikum assoziiert werden. Insofern muss man das aufmerksem und sorgsam kommuniziert werden damit es keine solche Assoziation gibt.
:)
Und wie aufkrawall sagt: es sollte am besten gleich mit AL2 gebundelt werden damit das Erlebnis dann so gut wie möglich wird. Und besser auch gepolisht sein. :)
fondness
2025-02-20, 13:47:41
Der Vorteil von mfg vs. FSR3 FG das es heute schon gibt ist überschaubar und wenn dann überhaupt nur für >240Hz Monitore relevant. NV musste hier vor allem auch mal aufholen, weil das alte FG mies skaliert. Was es braucht ist ein konkurrenzfähiges FSR4, alles andere ist sekundär.
Relex
2025-02-20, 14:52:01
Man kann MFG auch im 3x Modus nutzen.
Sind dann immernoch 80 Reflex Base FPS.
Hakim
2025-02-20, 16:05:08
Selbst wenn AMD für die 9070 sowas wie MFG ankündigen würde, würde ich das beim Kauf nicht bewerten. Mich interessiert eher was sich bei RT getan hat und wie sich FSR4 gegenüber DLSS4 schlägt. Ob die Spieleschmieden in Zukunft mehr FSR unterstützen wollen. Aber ja ist meine persönliche Ansicht, jeder kann das für sich anders sehen. Für mich ist FG ehe nice to have, aber nicht ausschlaggebend
Ich erwarte Leaks in 3, 2, 1 ... :uponder:
MfG
Raff
fondness
2025-02-20, 16:07:35
Wegen dem Paperlaunch wohl kaum.
Völlig unabhängig von Nvidia. ;)
MfG
Raff
dildo4u
2025-02-20, 16:15:20
AMD kann jetzt Benchmarks gegen 5070 TI machen da der Treiber raus ist.
Was anderes macht kein Sinn da die alten Karten Abverkauft sind.
fondness
2025-02-20, 16:16:01
Völlig unabhängig von Nvidia. ;)
MfG
Raff
Also gabs wohl die ersten Presseinfos. Na dann leak mal los Raff :D
AMD kann jetzt Benchmarks gegen 5070 TI machen da der Treiber raus ist.
Und woher soll AMD eine 5070Ti bekommen? :ugly:
dargo
2025-02-20, 16:40:35
Würde so lachen wenn bei rdna4 Release dann plötzlich fsr4-mfg mit "coming soon" angekündigt würde.
Was gibts da zu lachen? Früher oder später wird es kommen müssen wenn die ganzen Zombies nur auf Balkenlänge achten.
Und woher soll AMD eine 5070Ti bekommen? :ugly:
Die liegen bei den Reviewern rum. ;D
prinz_valium_2
2025-02-20, 17:07:11
Ich erwarte Leaks in 3, 2, 1 ... :uponder:
MfG
Raff
Schon eine Stunde rum 😂
DrFreaK666
2025-02-20, 19:42:09
...
Hier ein IMHO:
Ich würde sagen, dass nicht du das entscheidest. Bewirb' dich gern als Mod wenn du moderieren willst (was du in letzter Zeit ja für dich entdeckt zu haben scheinst)...
Netter Versuch. Hier ein Auszug aus dem 3DC-FAQ:
Beleidigende Kommentare, Flames, Verunglimpfungen von Usern oder deren Charakteristika (z.B. Avatarbild) und themenfremde Posts sind unerwünscht.
Warst du nicht mal Mod und solltest das eigentlich wissen?
Disco_STFU
2025-02-20, 19:49:11
Schon eine Stunde rum 😂
https://media3.giphy.com/media/v1.Y2lkPTc5MGI3NjExbmozdXVveWxlZXZ5dDBuOHNwYXlkdDhwaGFucWZ5bWttMjdkeWhldCZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/QBd2kLB5qDmysEXre9/giphy.gif
robbitop
2025-02-20, 20:35:28
Netter Versuch. Hier ein Auszug aus dem 3DC-FAQ:
Warst du nicht mal Mod und solltest das eigentlich wissen?
Die Frage ist wo da die Grenze zu themenfremd ist. MMn ist das weniger eng als du das wahrnimmst. Und weiterhin: du bist kein Mod. Und solange sich das nicht ändert hast du hier kein Mandat. Also lass es dann auch sein.
Shaft
2025-02-20, 20:44:21
Selbst wenn AMD für die 9070 sowas wie MFG ankündigen würde, würde ich das beim Kauf nicht bewerten. Mich interessiert eher was sich bei RT getan hat und wie sich FSR4 gegenüber DLSS4 schlägt. Ob die Spieleschmieden in Zukunft mehr FSR unterstützen wollen. Aber ja ist meine persönliche Ansicht, jeder kann das für sich anders sehen. Für mich ist FG ehe nice to have, aber nicht ausschlaggebend
Ne, bist nicht alleine.
Daher warte ich erstmal Ruhig den amd release ab, ganz entspannt.
Dann wird entschieden ob 5070 ti oder 9070 xt.
DrFreaK666
2025-02-21, 00:05:40
Die Frage ist wo da die Grenze zu themenfremd ist. MMn ist das weniger eng als du das wahrnimmst. Und weiterhin: du bist kein Mod. Und solange sich das nicht ändert hast du hier kein Mandat. Also lass es dann auch sein.
Ja gut. Dann könnte ich ja in NV-Threads auch mein Unwesen treiben.
Aber genug OT ;)
crux2005
2025-02-21, 07:40:44
izyLwTpmGiY
Die Leute haben echt RDNA4 blue ballz wenn sie so was fordern. :ulol:
IMHO kann das lange Warten nur noch schaden. Sie hätten die RDNA4 Karten früher Vorstellen sollen.
dildo4u
2025-02-21, 07:57:10
Die Situation ist doch jetzt massiv besser sie konnten mher Karten sammeln und bei Nvidia ist alles ausverkauft.
5070 TI sind bei uns auf absehbare Zeit 1k plus.
crux2005
2025-02-21, 08:16:37
Sie hätten die Karten schon Vorstellen können mit Release dann am 6.3. Was ich geschaut habe steht bei den Gigabyte Customs weiterhin ab 23.3. "verfügbar". Denke daran wird sich nichts mehr ändern.
dildo4u
2025-02-21, 08:42:15
Ich tippe drauf das sie FSR4 in einem Spiel haben wollen und AMD kontrolliert nicht wann diese Patches kommen.
Cyberpunk hatte z.b DLSS4 per Patch integriert damit es zum Launch was zu testen gab.
dargo
2025-02-21, 08:50:23
Sie hätten die Karten schon Vorstellen können mit Release dann am 6.3.
Was genau hätte man davon? Zumal du je später der Release in Zukunft liegt mehr Zeit hast deine Software zu optimieren.
Badesalz
2025-02-21, 09:01:29
IMHO kann das lange Warten nur noch schaden.Überhaupt absolut garnicht. Zugegeben diesmal, dank Nvidia :freak:
Wenn es nach dem Launch+Verfügbarkeit von RDNA4, auf einmal überall genug RTX5000 gibt, was wäre dann eure Meinung dazu? :ulol:
fondness
2025-02-21, 09:08:20
Jetzt wird es Magic :ugly:
XFX Radeon RX 9070 XT MERCURY Magnetic Air series revealed: 3.1 GHz boost, removable fans and three 8-pin connectors
https://videocardz.com/newz/xfx-radeon-rx-9070-xt-mercury-magnetic-air-series-revealed-3-1-ghz-boost-removable-fans-and-three-8-pin-connectors
Alles schon gelistet bei Amazon:
https://www.amazon.ca/XFX-Mercury-Radeon-Magnetic-RX-97TMARGW9/dp/B0DWP6PY32
https://www.amazon.ca/XFX-Mercury-Radeon-Magnetic-RX-97TMARGBA/dp/B0DW4FGLCC
The_Invisible
2025-02-21, 09:13:59
Wow, ein Schnäppchen würde dargo sagen...
Aber ist ja AMD, da werden die Preise natürlich pünktlich bei Release auf UVP korrigiert :freak:
fondness
2025-02-21, 09:20:29
Der Troll vom Dienst mal wieder. Wahrscheinlich hast du nicht mal verstanden, dass es sind hier um kanadische Dollar handelt. Das wäre also exakt 900 USD für diese Hyper-Edition. Sofern die Preise überhaupt so bleiben.
TerrorZivi
2025-02-21, 09:25:28
Preis ohne Steuer sollte knapp 860$ sein.
dargo
2025-02-21, 09:40:09
Der Troll vom Dienst mal wieder. Wahrscheinlich hast du nicht mal verstanden, dass es sind hier um kanadische Dollar handelt. Das wäre also exakt 900 USD für diese Hyper-Edition. Sofern die Preise überhaupt so bleiben.
Der übliche Beißreflex von The_Invisible. ;D Ich bin auch fest davon überzeugt, dass der Typ akribisch nach dem kleinsten Fettnäppchen beim Release von N48 suchen und auch finden wird. ;)
Badesalz
2025-02-21, 09:44:48
Der übliche Beißrefelx von The_Invisible. ;D Ich bin auch fest davon überzeugt, dass der Typ akribisch nach dem kleinsten Fettnäppchen beim Release von N48 suchen und auch finden wird. ;)Das wäre auch anzuraten. Wer so Preise liest, daß er den US $ und Can $ nicht auseinanderhalten kann, sollte auf jeden Fall alles lieber immer akribisch beäugeln...
dargo
2025-02-21, 09:48:56
Im übrigen machen die Preise bei Amazon Kanada auch überhaupt keinen Sinn da ein weißes Modell eher unter Sondermodell läuft und ein schwarzes Modell in der Regel immer günstiger ist. Richtige Preise davon abzuleiten ist noch ziemlich unmöglich. Auch unter dem Aspekt, dass die Mercury Serie die teuerste bei XFX ist.
Preis ohne Steuer sollte knapp 860$ sein.
Wer sagt das? Dein Bauchgefühl? 1277,51 kanadische $ sind aktuell 859,13€. Mehr wissen wir auch nicht.
GerryB
2025-02-21, 10:03:22
Wenn es nach dem Launch+Verfügbarkeit von RDNA4, auf einmal überall genug RTX5000 gibt, was wäre dann eure Meinung dazu?
JaJa, Nein
Jensen muss erstmal seinen Schlüpper debuggen.(5070+5060)
Das man die 5070Ti vorrangig ggü. ner 5080 produziert halte ich auch für unwahrscheinlich.
(außer man hätte viel Ausschuss, bei NV nicht auszuschließen = Salvage als debugging)
dargo
2025-02-21, 10:10:05
Ich gehe nicht von viel Ausschuss aus, der Fertigungsprozess ist über zwei Jahre alt. Eigentlich noch älter, nur die ersten dGPUs die damit gefertigt wurden sind schon über zwei Jahre.
GerryB
2025-02-21, 10:21:44
but
bei der 5070 solls doch nicht an der Fertigung sondern am Design/Maske liegen
may be
5080 ist auch schon grenzwertig
fondness
2025-02-21, 10:25:12
Der übliche Beißreflex von The_Invisible. ;D Ich bin auch fest davon überzeugt, dass der Typ akribisch nach dem kleinsten Fettnäppchen beim Release von N48 suchen und auch finden wird. ;)
Ich habe das mit den kanadischen Dollar bewusst nicht erwähnt, weil ich nur darauf gewartet habe, dass ein grüner Troll darauf anspringt. :D
Im übrigen machen die Preise bei Amazon Kanada auch überhaupt keinen Sinn da ein weißes Modell eher unter Sondermodell läuft und ein schwarzes Modell in der Regel immer günstiger ist. Richtige Preise davon abzuleiten ist noch ziemlich unmöglich. Auch unter dem Aspekt, dass die Mercury Serie die teuerste bei XFX ist.
Jup, seh ich auch so. Solange es keinen UVP von AMD gibt alles Kaffeesatzlesen.
dargo
2025-02-21, 10:26:35
Gute Idee. (y)
fondness
2025-02-21, 10:29:54
AMD Radeon RX 9070 XT confirmed as 304W card, RX 9070 non-XT is 220W
https://videocardz.com/newz/amd-radeon-rx-9070-xt-confirmed-as-304w-card-rx-9070-non-xt-is-220w
Leaks vom Presse Briefing das Raff schon angedeutet hat. Damit ist man defacto on-par mit der 5070Ti, die mit 300W angegeben ist. Warum man hier noch 4W drauf setzt? :ugly:
Dann werden wohl auch die Gerüchte mit den 330W für die OC-Modelle stimmen.
Relex
2025-02-21, 10:36:29
Lol und schon wieder wird geleaked.
Eigentlich sollte jeder grundsätzlich alles leaken. Wenn das jeder macht kann AMD praktisch auch nichts dagegen machen.
Nur wird das dann dazu führen, dass Hersteller vorab keine Infos mehr rausgeben, was der Presse ein Stückweit die Existenzgrundlage nimmt.
GerryB
2025-02-21, 10:39:09
Warum man hier noch 4W drauf setzt?
Das kann mit den Voltsteps/taktdomäne zu tun haben.
um den nächsten Voltstep zu schaffen, reichen manchmal schon 3-4W mehr
remember
6800@203W
Die modernen Spawas können vermutlich nicht nur 6,25mV-Steps sondern auch 1/2 x 6,25 oder gar 1/4.
Da macht dann auch Kleinvieh bei den Watts was aus.
btw.
Was soll man eigentlich von den 5070Ti-Reviews halten, wenn die Ventus-OC mit 30MHz mehr lief!?
ist eigentlich auch schon 1-2 Taktdomänen höher als Referenztakt
Und dann müsste man noch schauen, wer an der frischen Luft testet, statt im Gehäuse.
Normalerweise verliert man im warmen Case auch 1-2 Taktdomänen.(bei NV)
AMD zieht wohl mit gleichem Takt durch, egal ob warm oder kalt, solange man nicht an die
Throtteltemps kommt.
Dino-Fossil
2025-02-21, 11:13:22
Nur wird das dann dazu führen, dass Hersteller vorab keine Infos mehr rausgeben, was der Presse ein Stückweit die Existenzgrundlage nimmt.
Im allgemeinen haben die Hersteller die Leaks doch inzwischen gut im Griff. Wenn dann etwas so kurz vor Release kommt, kann man schon fast davon ausgehen, dass es gewollt oder wenigstens geduldet ist.
fondness
2025-02-21, 11:17:25
Geekbench-Werte:
https://wccftech.com/amd-radeon-rx-9070-xt-rx-9070-gpu-performance-leak-comparable-rx-7900-gre-rx-7800-xt/
Einmal knapp vor, einmal knapp hinter der 7900XT. Keine Ahnung wie aussagekräftig das ist. Der Takt wird dort sehr niedrig angegeben, keine Ahnung ob das ein Auslesefehler ist.
woodsdog
2025-02-21, 11:27:23
Geekbench-Werte:
https://wccftech.com/amd-radeon-rx-9070-xt-rx-9070-gpu-performance-leak-comparable-rx-7900-gre-rx-7800-xt/
Einmal knapp vor, einmal knapp hinter der 7900XT. Keine Ahnung wie aussagekräftig das ist. Der Takt wird dort sehr niedrig angegeben, keine Ahnung ob das ein Auslesefehler ist.
Ja Schade, die Leistung hätte man vor nem Jahr schon mit mehr RAM und vermutlich ähnlichem Preis haben können. Vielleicht kann der Treiber ja noch was tun.
Am Ende genau so beschissen wie der Abfuck by NV... 4 JAhre auf der Stelle treten.
Badesalz
2025-02-21, 11:31:29
Leaks vom Presse Briefing das Raff schon angedeutet hat. Damit ist man defacto on-par mit der 5070Ti, die mit 300W angegeben ist. Warum man hier noch 4W drauf setzt? :ugly:Weil man angibt was man gemessen hat? Was ist das für eine Frage? Meinst du die sonstigen Karten verbrauchen wirklich xx0W oder xx5W?
Disco_STFU
2025-02-21, 11:32:36
Ja Schade, die Leistung hätte man vor nem Jahr schon mit mehr RAM und vermutlich ähnlichem Preis haben können. Vielleicht kann der Treiber ja noch was tun.
Am Ende genau so beschissen wie der Abfuck by NV... 4 JAhre auf der Stelle treten.
Wieso wird hier von manchen Leistung um 7900XTX propagiert? :confused:;(
dildo4u
2025-02-21, 11:43:11
Benchmark Leaks da hatten wird auch die jetzt bestätigten 304 Watt.
https://youtu.be/sTbGIiGvlIU?si=XvsiDWmknINyJ5A2&t=205
Achill
2025-02-21, 11:46:05
Wieso wird hier von manchen Leistung um 7900XTX propagiert? :confused:;(
Um im hinein künstlich Enttäuscht sein zu können und dann sich selbst/andere den Kauf von NV GPUs zu Empfehlen weil man dort wenigstens die Features: X, Y und Z hat was den dann nochmal höheren Preis rechtfertigt.
Hakim
2025-02-21, 11:55:50
Wieso schreibt NV für eine 300Watt Karte ein 750W NT vor und AMD für eine 304Watt Karte 850W? Ich weiß nichts offiziell, bin von den Gigabyte gaming OC ausgegangen der in der Regel Referenz PT hat.
dargo
2025-02-21, 12:03:34
AMD Radeon RX 9070 XT confirmed as 304W card, RX 9070 non-XT is 220W
https://videocardz.com/newz/amd-radeon-rx-9070-xt-confirmed-as-304w-card-rx-9070-non-xt-is-220w
:up: :ucatch:
Insbesondere finde ich die 220W heftig vs. RTX 5070 mit 250W. Aber erstmal Benchmarks noch abwarten. :) Auf der anderen Seite wäre es auch nichts Besonderes bei der schwachen Vorlage von Blackwell. :tongue: Vs. N31 RDNA 3 aber endlich eine deutliche Verbesserung der Effizienz. :up:
The_Invisible
2025-02-21, 12:03:34
Wieso wird hier von manchen Leistung um 7900XTX propagiert? :confused:;(
Ist halt der AMD Hypetrain. Aber man darf hier im Thread ja keine negativen Kommentare geben sonst ist man gleich ein "NV Green Fanboy" oder fehl am Thema.
Also defacto gleicher "Stillstand" wie bei NV, hoffen kann man noch auf bessere RT Perf und FSR4.
Preis ohne Steuer sollte knapp 860$ sein.
Natürlich gerechtfertigt bei 7900xt Perf
DrFreaK666
2025-02-21, 12:08:15
...
Natürlich gerechtfertigt bei 7900xt Perf
Natürlich nicht.
Ich feiere keine hohen Preise. Egal ob grün, blau oder rot
dargo
2025-02-21, 12:11:40
Wieso schreibt NV für eine 300Watt Karte ein 750W NT vor und AMD für eine 304Watt Karte 850W? Ich weiß nichts offiziell, bin von den Gigabyte gaming OC ausgegangen der in der Regel Referenz PT hat.
Habt ihr sonst keine anderen Probleme als sich über so einen Quark den Kopf zu zerbrechen? Diesmal scheint es bei Gigabyte ein OC Modell zu sein (ergo Richtung ~330W) und eben deshalb schreibt der AIB einen etwas größeren Chinaböller vor.
Übrigens... da die 304W nun stimmen ist die Wahrscheinlichkeit groß, dass die geleakten Benchmarks vom Dezember @MLID korrekt sind. Je nachdem wie die Treiber damals optimiert waren möglicherweise mit noch etwas Luft nach oben, bin immer optimistischer eingestellt. =) Jetzt muss nur P/L noch passen. :cool:
DrFreaK666
2025-02-21, 12:13:40
Dann werden die 525W meines Netzteils knapp :/
dargo
2025-02-21, 12:15:41
Dann werden die 525W meines Netzteils knapp :/
Kauf beim nächsten Mal keine Chinaböller dann wird auch nichts knapp. ;)
dildo4u
2025-02-21, 12:16:01
Wieso schreibt NV für eine 300Watt Karte ein 750W NT vor und AMD für eine 304Watt Karte 850W? Ich weiß nichts offiziell, bin von den Gigabyte gaming OC ausgegangen der in der Regel Referenz PT hat.
Hängt vom Modell ab Asus lässt 330 Watt zu.
https://i.ibb.co/czfP6HV/Screenshot-2025-02-21-121430.png (https://ibb.co/zK91XYD)
https://i.ibb.co/Z6qW198V/Screenshot-2025-02-21-121318.png (https://ibb.co/FbRgqpwK)
https://www.asus.com/de/motherboards-components/graphics-cards/tuf-gaming/tuf-rtx5070ti-o16g-gaming/techspec
https://www.computerbase.de/artikel/grafikkarten/asus-geforce-rtx-5070-ti-tuf-gaming-oc-test.91470/seite-4#abschnitt_leistungsaufnahme
DrFreaK666
2025-02-21, 12:25:44
Kauf beim nächsten Mal keine Chinaböller dann wird auch nichts knapp. ;)
Bequiet ist deutsch, soweit ich weiß
Hakim
2025-02-21, 12:27:18
Ich mache mir mit meinem 600W Bequiet sorgen und du kommst dann mit 525W :)
fondness
2025-02-21, 12:30:15
:up: :ucatch:
Insbesondere finde ich die 220W heftig vs. RTX 5070 mit 250W. Aber erstmal Benchmarks noch abwarten. :) Auf der anderen Seite wäre es auch nichts Besonderes bei der schwachen Vorlage von Blackwell. :tongue: Vs. N31 RDNA 3 aber endlich eine deutliche Verbesserung der Effizienz. :up:
Ja 9070 scheint sehr effizient. Die XT wird sicher takt mäßig hoch getrieben.
DrFreaK666
2025-02-21, 12:30:33
Für die 6700XT hats bisher gereicht.
Mit einer Non-XT könnte ich auf Nummer Sicher gehen. Wollte aber schon die XT
fondness
2025-02-21, 12:33:31
Ja Schade, die Leistung hätte man vor nem Jahr schon mit mehr RAM und vermutlich ähnlichem Preis haben können. Vielleicht kann der Treiber ja noch was tun.
Am Ende genau so beschissen wie der Abfuck by NV... 4 JAhre auf der Stelle treten.
IMO wird es in Games besser aussehen, weil dieses ganze Compute Zeug perfekt skaliert mit Einheiten und auch mit Bandbreite. Im Games ist es auch eine auslastungs Geschichte und da sollte der Chip mit weniger Einheiten aber mehr Takt besser liegen.
fondness
2025-02-21, 12:35:58
Weil man angibt was man gemessen hat? Was ist das für eine Frage? Meinst du die sonstigen Karten verbrauchen wirklich xx0W oder xx5W?
Das sind keine Messwerte, das sind die offiziellen AMD Total Board Power Angaben.
Badesalz
2025-02-21, 12:37:57
Ist halt der AMD Hypetrain. Kurz darauf hat Achill dich aufgeklärt, daß es meist vom agent provocateur stammt. Aber was solls. Was hälst du schon von Aufklärung :rolleyes:
Das sind keine Messwerte, das sind die offiziellen AMD Total Board Power Angaben.Die fantasiert man herbei?
fondness
2025-02-21, 12:40:01
Die fantasiert man herbei?
Nein die stellt man ein im uController der das Power Management steuert.
Hakim
2025-02-21, 12:45:16
Hat eigentlich GDDR7 samt SI Vorteile beim Stromverbrauch gegenüber GDDR6?
dildo4u
2025-02-21, 12:52:10
Geekbench zeigt angeblich nur 7900XT Level.
https://wccftech.com/amd-radeon-rx-9070-xt-rx-9070-gpu-performance-leak-comparable-rx-7900-gre-rx-7800-xt
Prinzenrolle
2025-02-21, 12:53:14
Durch die niedrigere Spannung potenziell schon, wird aber durch die höhere Bandbreite wieder im absoluten Verbrauch aufgefressen.
Geekbench zeigt angeblich nur 7900XT Level.
Die Karte ist von den Spezifikationen nicht höher einzuschätzen als eine 7900XT. Das war schon immer so, also wird sie sich auch in dem Bereich bewegen, mit RT dann auf 7900XTX Niveau und mit Heavy RT leicht drüber.
BavarianRealist
2025-02-21, 12:55:18
@ 32GB-Version von 9070:
Da AMD noch das alte GDDR6 statt das neue und teurere GDDR7 verwendet, haben sie hier vermutlich einen ordentlichen Kostenvorteil gegenüber Nvidia, sodass es sich geradezu aufzwingt, auch eine 32GB-9070 zu bringen um den Kostenvorteil voll auschöpfen zu können.
robbitop
2025-02-21, 12:56:10
Geekbench zeigt angeblich nur 7900XT Level.
https://wccftech.com/amd-radeon-rx-9070-xt-rx-9070-gpu-performance-leak-comparable-rx-7900-gre-rx-7800-xt
Synthie =! Gaming. ;)
Hatstick
2025-02-21, 12:56:50
Um die 850€ war zu erwarten, das ist kein Schnapper aber AMD hat am Ende auch nichts zu verschenken.
Das Verrückte ist, die Leistung hatten wir auch schon vor 2,5 Jahren und seid einem Jahr zum selben Preis, bzw. mit der 7900XT für unter 700€ schon deutlich günstiger. Mit dem Upselling der letzten Gen quasi fast halbes Jahrzehnt im Groben dasselbe im dem Preisbereich, ist schon crazy. :freak:
Prinzenrolle
2025-02-21, 13:01:03
Synthie =! Gaming. ;)
Die Werte aus Open CL und Vulkan sind identisch bei der 9070 XT.
Entweder ist einer Fake oder beide.
dildo4u
2025-02-21, 13:04:46
Die Werte aus Open CL und Vulkan sind identisch bei der 9070 XT.
Entweder ist einer Fake oder beide.
Vulkan 177395
https://browser.geekbench.com/v6/compute/3706522
Opencl 179178
https://browser.geekbench.com/v6/compute/3706513
dargo
2025-02-21, 13:05:19
Ja 9070 scheint sehr effizient. Die XT wird sicher takt mäßig hoch getrieben.
Richtig... davon gehe ich definitiv bei diesen Daten aus. XT ist hochgeprügelt. Was wiederum einiges Spielraum beim Undervolting bedeutet mit entsprechenden Werkzeugen. :)
Bequiet ist deutsch, soweit ich weiß
Dann brauchst du dir keinen Kopf zerbrechen insbesondere mit einem Ryzen 7500F. :tongue: Zur Not nimmst du eine 9070 non XT oder die XT mit ~250W betreiben.
Prinzenrolle
2025-02-21, 13:06:13
Vulkan 177395
https://browser.geekbench.com/v6/compute/3706522
OK, dann einfach falsch übertragen, passiert.:eek:
dargo
2025-02-21, 13:10:03
Hat eigentlich GDDR7 samt SI Vorteile beim Stromverbrauch gegenüber GDDR6?
Ich bin jetzt unsicher, meine aber GDDR7 braucht 1250mV und der GDDR6 auf meinem N21 1350mV, letzteres sicher. Die Einsparung wird verschwindend gering sein. Da ist es eher sinnvoller einen GDDR7 vs. GDDR6 Controller zu vergleichen. Aber auch hier brauchst du dir nicht den Kopf zerbrechen weil du keine verlässlichen Daten finden wirst. Ich erinnere bei diesem Thema gerne an den 384Bit Tahiti und 512Bit Hawaii/Grenada. Letzterer war trotz mehr Breite effizienter beim SI.
Geekbench zeigt angeblich nur 7900XT Level.
https://wccftech.com/amd-radeon-rx-9070-xt-rx-9070-gpu-performance-leak-comparable-rx-7900-gre-rx-7800-xt
Was willst du mit Geekbench? :freak:
Um die 850€ war zu erwarten, das ist kein Schnapper aber AMD hat am Ende auch nichts zu verschenken.
Was hast du jetzt nicht daran verstanden, dass die Mercury Serie bei XFX die "Premium" Serie ist was den Preis angeht und die Amazon Preise aus Kanada eh noch keinen Sinn ergeben wie ich geschrieben hatte?
DrFreaK666
2025-02-21, 13:28:18
Also ich spiele täglich Geekbench :D
Immer das gleiche: Als geleakte Werte sind es dann von Geekbench und OpenCL. Wen interessiert das bei einer Gaming Grafikkarte?
dildo4u
2025-02-21, 13:34:07
Also ich spiele täglich Geekbench :D
Immer das gleiche: Als geleakte Werte sind es dann von Geekbench und OpenCL. Wen interessiert das bei einer Gaming Grafikkarte?
Kann man später nutzen um innerhalb der selben Architektur zu vergleichen.
Genau wie 3D Mark.
Games sind zu oft CPU limitiert eine 5090 wird in der Zukunft nicht nur 30% zur 4090 schaffen das wird sich strecken.
Ich frage mich ja auch immer, welcher Troll ausgerechnet Geekbench und Ärsche der Singularität hochlädt. Bei Geekbench habe ich’s mittlerweile gerafft: Das lädt in der Free-Version ungeniert und direkt Ergebnisse hoch. :ugly:
MfG
Raff
Hakim
2025-02-21, 13:38:53
Ärsche der Singularität war doch früher etwas was auf AMDs gut lief :). Oh man wie alt ist das Ding? Ich weiß noch wo Su bei der Polaris Vorstellung das Game mit zwei 480er im CF laufen ließ und es als bessere Alternative zu NVs Flaggschiff verkaufte
Prinzenrolle
2025-02-21, 14:02:25
Ich weiß noch wo Su bei der Polaris Vorstellung das Game mit zwei 480er im CF laufen ließ und es als bessere Alternative zu NVs Flaggschiff verkaufte
Vielleicht gibt es mit den RDNA4 Karten wieder ein CF Revival?:redface:
Prinzenrolle
2025-02-21, 14:16:41
Speedway Benchmarks wurden mittlerweile auch schon von fleißigen Kollegen angefertigt.
Knappe 6000 Pkt. für die XT und 5000 für die non XT. Brauchbar.
fondness
2025-02-21, 14:17:56
Speedway Benchmarks wurden mittlerweile auch schon von fleißigen Kollegen angefertigt.
Knappe 6000 Pkt. für die XT und 5000 für die non XT. Brauchbar.
Quelle?
Zur Einordnung:
https://www.computerbase.de/artikel/grafikkarten/3dmark-speed-way-benchmark.88644/
Damit wäre man ca. auf 7900XTX Level für die 9070XT und knapp unter 7900XT Level für die 9070. Allerdings ist das ein Raytracing Bench.
dildo4u
2025-02-21, 14:25:27
Wäre ziemlich wenig damit ist die 5070 Meilen vor der 9700.
Und das ist kein Path Tracing.
fondness
2025-02-21, 14:27:39
Ja, nur Prinzenrolle hat hier schon viel behauptet wenn der Tag lang ist. :D
Aber ich lasse mich gerne eine bessere belehren. ;)
Ich gebe dir einen Tipp, wenn du den richtigen Link für Vergleichswerte postest. :biggrin:
MfG
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.