Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)
Wiseman
2025-02-23, 18:31:38
ja da leisten die PR Abteilungen bei einigen hier (aller Farben!) großartige Arbeit, wenn man Multi Mrd Großkonzernen die nur auf die Brieftasche zielen bis aufs Blut verteidigt und alles andere am liebsten Bankrott sehen wollen.
Rational gesehen kann ein besser aufgestelltes AMD und auch Intel bei GPUs für alle besser sein.
In den AMD-Threads wird rund um die Uhr auf Teufel komm raus getrollt und gestänkert und dann erzählst du uns so einen Schrott von wegen PR Abteilungen aller Farben. :facepalm:
Hakim
2025-02-23, 18:37:38
In den AMD-Threads wird rund um die Uhr auf Teufel komm raus getrollt und gestänkert und dann erzählst du uns so einen Schrott von wegen PR Abteilungen aller Farben. :facepalm:
Hier schreiben einige in Grüner und Roter Schrift und werfen mit begriffen wie Jünger um sich, und du scheinst dich auch angesprochen zu fühlen. Spekulationen oder Kritik wird sofort Emotional entgegen gewirkt, bloß die eigene Farbe verteidigen. Machen wir uns nichts vor, gibt es überall, auch hier.
The_Invisible
2025-02-23, 18:40:33
Ich verstehe beim besten Willen nicht, wie einen es stören kann, wenn wir ein starkes AMD haben.
Ich brauche für die Standard-Benchmarks einer einzigen Grafikkarte übrigens einen vollen Tag, reine Fps-Messungen, aufgrund der schieren Anzahl und "handcrafted" Natur. Insofern: early days.
MfG
Raff
Bin schon gespannt wie sich hier dann die Meinung zu RT plötzlich dreht wenn auch das performant läuft :D
GerryB
2025-02-23, 18:48:43
RT und PT sind immer noch 2 Paar Schuhe
wichtig
ist nur SoftwareLumen vs HardwareLumen, damits da nicht so große Fps-Einbrüche gibt
IndianaJones geht auch ohne fette RT-Hardware ganz gut, ... mal schauen wie es im nächsten Doom wird
Pandora lief auch gut, ... das komische Outlaws ist wohl eher zu sehr auf NV-Hardware optimiert
(bei Sowas muss man nicht maxed spielen)
die light-RT (hybrid) ala Resident Evil + FarCry +Grid gehen soundso
um mal ein paar Bsp.Engines zu nennen
was jetzt mit der PS5pro noch dazu kommt, we will see
Was für mich überhaupt keinen Sinn gemacht hat, MP-Shooter mit RT auszubremsen.
wird als Erstes deaktiviert
dargo
2025-02-23, 18:50:17
Bin schon gespannt wie sich hier dann die Meinung zu RT plötzlich dreht wenn auch das performant läuft :D
Da wird sich gar nichts ändern. :rolleyes: Im best case sollte nach den letzten Benchmarks die RX 9070XT in CP77 mit RT 25% schneller sein als die 7900XTX. RT bleibt weiterhin teuer, wird aber in langsamen Schritten massentauglicher.
Edit:
Oder ein anderes best case.
https://i.postimg.cc/d1Dx8RXd/F1-24.jpg
RX 9070XT ca. 22% schneller als die RX 7900XTX.
Hakim
2025-02-23, 19:05:08
Edit:
Oder ein anderes best case.
https://i.postimg.cc/d1Dx8RXd/F1-24.jpg
RX 9070XT ca. 22% schneller als die RX 7900XTX.
Ausgehend von dem Videocardz Leak, mit dem 66% über der 79GRE bei dem Spiel in 4K, müßte es irgendwo zwischen 4070Ti S und 5070Ti liegen bei F1
dargo
2025-02-23, 19:10:01
Korrekt.
Und wenn die RT Frametime nicht sehr teuer ist wie zb. in Starwars Outlaws wird die RX 9070XT nur ca. 6% schneller als die RX 7900XTX sein.
TheGood
2025-02-23, 19:30:21
Bin schon gespannt wie sich hier dann die Meinung zu RT plötzlich dreht wenn auch das performant läuft :D
Die Meinung der Mitte war schon immer die, dass es die Zukunft ist und AMD hier ein Doing hat das zu verbessern.
Die Diskussion ging immer um die absolute 100% Wichtigkeit, dass es ohne nicht geht, wie uns hier manche glauben machen mussten. Da wurden dann die Top Dogs von AMD niedergemacht, aber die Mittelklasse von Nvidia war doch genauso schlecht. Finde den Fehler.
Leider beginnt RT erst jetzt so ganz langsam im Massenmarkt der Spiele anzukommen, aber selbst da kommen erst bein paar Tropfen aus dem Hahn an. Bis das mal ein Strahl wird dauerts noch einige Jahre. Und das ist nur DAnk GI (so wie ich es vor Jahren schon hier vermutet habe) passiert.
Warum, weil damit die Entwickler einen massiven Vorteil haben.
Für Enthusiasten mag die Bewertung anders aussehen und jeder hat es für sich ja auch entsprechend entschieden und dann gekauft. Wobei die Kaufentscheidung wohl daran nicht so wirklich gekoppelt war.
Ich verstehe beim besten Willen nicht, wie einen es stören kann, wenn wir ein starkes AMD haben.
Ich brauche für die Standard-Benchmarks einer einzigen Grafikkarte übrigens einen vollen Tag, reine Fps-Messungen, aufgrund der schieren Anzahl und "handcrafted" Natur. Insofern: early days.
MfG
Raff
Exakt und danke an dich und alle Redaktionen, welche dies Gebenche auf sich nehmen!
TheGood
2025-02-23, 19:35:53
Kommt es eigentlich nur mir vor dass der Unterschied zwischen 9070 und 9070XT so hoch ist? Mir kommt das schon so vor...
Die Frage ist auch, was mit dem Custommodellen noch geht um die nochmals 10% oben drauflegen. DAs wäre dann schon spannend.
madzapp
2025-02-23, 19:37:31
Bin schon gespannt wie sich hier dann die Meinung zu RT plötzlich dreht wenn auch das performant läuft :D
Performant läuft? Also in 6-8 Jahren wenn es gut geht? Ich freu mich, wirklich, schon tierisch. Heute ist mir das noch keinen Fuffi Aufpreis wert.
dargo
2025-02-23, 19:39:23
Kommt es eigentlich nur mir vor dass der Unterschied zwischen 9070 und 9070XT so hoch ist? Mir kommt das schon so vor...
Die Frage ist auch, was mit dem Custommodellen noch geht um die nochmals 10% oben drauflegen. DAs wäre dann schon spannend.
Was soll jetzt an OC spannend sein? :freak: Dann wird die non XT halt etwas schneller auf Kosten der sehr guten Effizienz.
w0mbat
2025-02-23, 19:39:26
Naja, 220W vs 304W sind knapp 40% mehr TDP, da kommt schon gut mehr Leistung rum.
dargo
2025-02-23, 19:42:21
Naja, 220W vs 304W sind knapp 40% mehr TDP, da kommt schon gut mehr Leistung rum.
Du weißt aber schon, dass am oberen Ende der V/F-Kurve jede weitere 100Mhz immer teurer im Powerbudget sind?
Hakim
2025-02-23, 19:44:32
Die werden schon schauen das man mit OC nicht zu nah an die XT ran kommt. Wäre ja einfach z.B Spielraum Begrenzung bei Core, Speichertakt und TDP.
fondness
2025-02-23, 19:47:19
Außerdem fehlen auch Einheiten
dargo
2025-02-23, 19:48:03
Oder einfach max. Voltage entsprechend begrenzen. ;) Anstatt 1150mV halt 1075mV oder Ähnliches.
w0mbat
2025-02-23, 19:52:53
Du weißt aber schon, dass am oberen Ende der V/F-Kurve jede weitere 100Mhz immer teurer im Powerbudget sind?
Klar, es werden sicher auch keine 40% Mehrleistung. Aber an der TDP kann man schon sehen, wohin die Reise geht.
AlterSack
2025-02-23, 19:58:48
Ausgehend von dem Videocardz Leak, mit dem 66% über der 79GRE bei dem Spiel in 4K, müßte es irgendwo zwischen 4070Ti S und 5070Ti liegen bei F1
F1 24 sieht mit RT richtig Scheisse aus.
Eher keine Werbung für RT.
Davon ab ist die Grafik des Spiels eh nicht so toll.
dargo
2025-02-23, 20:03:32
Klar, es werden sicher auch keine 40% Mehrleistung. Aber an der TDP kann man schon sehen, wohin die Reise geht.
Davon kann man überhaupt nichts ableiten. Ich erinnere gerne daran, dass die max. Voltage einer RX 6800 bei nur 1025mV lag. Entsprechned bist du mit sowas deutlich schneller am Boost-Limit.
madzapp
2025-02-23, 20:06:18
Die werden schon schauen das man mit OC nicht zu nah an die XT ran kommt. Wäre ja einfach z.B Spielraum Begrenzung bei Core, Speichertakt und TDP.
Außerdem fehlen auch Einheiten
Die HD 7950 Boost ging recht einfach auf HD 7970 GH Performance. So "unmöglich" ist das nicht.
crux2005
2025-02-23, 21:03:11
RT Gwinne
https://i.ibb.co/k2hV0kHZ/Screenshot-2025-02-23-132157.png (https://ibb.co/qYRL9Xy6)
https://videocardz.com/newz/amd-radeon-rx-9070-series-gaming-performance-leaked-rx-9070xt-is-42-faster-on-average-than-7900-gre-at-4k
RT Index von CB.
https://i.ibb.co/4RX4RWVq/Screenshot-2025-02-23-132111.png (https://imgbb.com/)
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/
Was mich halt interessiert, sind die RT Benchmarks mit oder ohne FSR?
Bei der Leistung sind $599 MSRP für die 9070 XT wohl das beste was wir hoffen können.
Alles über 599 USD MSRP wäre IMHO kein Mainstream Preis mehr.
fondness
2025-02-23, 21:05:30
Ohne, AMD weißt angeblich in den Folien extra drauf hin, dass man nur echte fps und Auflösung bencht. Wohl ein kleiner Seitenhieb.
dildo4u
2025-02-23, 21:06:02
Laut dem Text auf Videocardz native Auflösung ohne Upsampling/Framegen.
basix
2025-02-23, 21:13:47
Ohne, AMD weißt angeblich in den Folien extra drauf hin, dass man nur echte fps und Auflösung bencht. Wohl ein kleiner Seitenhieb.
Für Vergleiche mit AMD Karten ist das auch voll OK. RDNA3 wird vermutlich auch noch gar kein FSR4 können, womit Direktvergleiche dann eh schwierig wären.
Auf dem Markt muss man sich dann aber schon noch gegen DLSS beweisen müssen (FG mal aussen vor) ;)
crux2005
2025-02-23, 21:17:48
Laut dem Text auf Videocardz native Auflösung ohne Upsampling/Framegen.
Haha, stimmt, danke. Habe ich voll übersehen. :freak:
Linmoum
2025-02-23, 21:30:25
Ohne, AMD weißt angeblich in den Folien extra drauf hin, dass man nur echte fps und Auflösung bencht. Wohl ein kleiner Seitenhieb.Was völlig unnötig ist, da nativ in den meisten Fällen das schlechtere Bild liefert. Also zumindest mit DLSS, FSR4 wird man dann sehen. Von daher mutet es kurios an, warum AMD nicht darauf setzt. Es sei denn, das hängt ggf. irgendwie mit der Qualität/dem aktuellen Zustand von FSR4 zusammen. Wobei das AMD in der Vergangenheit ja auch nicht daran gehindert hat, dass man FSR trotzdem entsprechend beworben hat.
Die Frage ist doch in wie weit der doch sehr durchschnittliche Launch von Blackwell, das Wort Midrange seitens AMD tangiert und nun definiert gehört wird.
fondness
2025-02-23, 21:39:47
Was völlig unnötig ist, da nativ in den meisten Fällen das schlechtere Bild liefert. Also zumindest mit DLSS, FSR4 wird man dann sehen. Von daher mutet es kurios an, warum AMD nicht darauf setzt. Es sei denn, das hängt ggf. irgendwie mit der Qualität/dem aktuellen Zustand von FSR4 zusammen. Wobei das AMD in der Vergangenheit ja auch nicht daran gehindert hat, dass man FSR trotzdem entsprechend beworben hat.
Das mit den "fake fps" bei nVidia, denen man echte gegenüberstellt hat war allemal kritikwürdig. Das mit FSR 4 hat wohl schlicht Kompatibilitätsgründe wie schon gesagt von basix.
VooDoo7mx
2025-02-23, 21:47:36
Also bisher sieht es auch wie ein sehr rundes gesamt Produkt.
Nach über 4 1/2 Jahren Wartezeit endlich mal vernünftige RT Performance auf AMD Chips.
Wenn ich die Performance runter rechne auf den kleinen Chiü Navi 44 über den hier niemand spricht, dürfte wohl der auch im ~300€ Segment ein richtiger Banger und ne gute Alternative zur 5060/Ti werden.
Großes Fragezeichen ist jetzt noch die Energieeffizienz.
Schade das AMD direkt schon eine Absage an Notebook SKUs gemacht hat und nVidia da das gesamte Feld überlässt.
RT und PT sind immer noch 2 Paar Schuhe
wichtig
ist nur SoftwareLumen vs HardwareLumen, damits da nicht so große Fps-Einbrüche gibt
IndianaJones geht auch ohne fette RT-Hardware ganz gut, ... mal schauen wie es im nächsten Doom wird
Pandora lief auch gut, ... das komische Outlaws ist wohl eher zu sehr auf NV-Hardware optimiert
(bei Sowas muss man nicht maxed spielen) [...]
Das "komische Outlaws" läuft fast so gut wie die anderen RT-only-Spiele auf AMD, sofern man die PT-Aufwertung weglässt. :) Von einer Nvidia-Optimierung ist dann nichts zu sehen, Blackwell performt "meh".
https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/4/
MfG
Raff
basix
2025-02-23, 21:58:19
Das mit den "fake fps" bei nVidia, denen man echte gegenüberstellt hat war allemal kritikwürdig. Das mit FSR 4 hat wohl schlicht Kompatibilitätsgründe wie schon gesagt von basix.
Ich hoffe AMD legt deutlich mehr wert auf Upsampling Bildqualität als Nvidia. Das ganze MFG Thema war Blödsinn, aber wenn die Karten nur marginal schneller sind war das ihr Marketing "Peformance Pitch". Super Resolution wurde nur so am Rande gezeigt.
DLSS4 zeigt zum Teil eine wirklich deutliche Verbesserung gegenüber DLSS3. Und für die meisten Nutzer ist das viel, viel relevanter als MFG. Aber damit verkauft man wohl keine neuen Karten und man würde eingestehen, dass DLSS3 doch auch noch Qualitätsmängel hatte.
Und AMD wäre gut beraten, FSR4 in einem guten Licht darzustellen, um DLSS etwas Wind aus den Segeln zu nennen. Am besten mit einem Qualitäts-Direktvergleich, falls man genug nah dran ist.
Das "komische Outlaws" läuft fast so gut wie die anderen RT-only-Spiele auf AMD, sofern man die PT-Aufwertung weglässt. :) Von einer Nvidia-Optimierung ist dann nichts zu sehen, Blackwell performt "meh".
https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/4/
MfG
Raff
Würde mich schlicht wundern, wenn RDNA4 hier besser performt als RDNA3!
Würde mich schlicht wundern, wenn RDNA4 hier besser performt als RDNA3!
So ist es laut 3DCenter News
http://www.3dcenter.org/news/amd-eigene-performance-werte-zu-radeon-rx-9070-9070-xt-aufgetaucht
Könnte echt ne tolle Grafikkarte werden, ich freue mich schon auf Raffs 9070XT Review-Video.
GerryB
2025-02-23, 22:34:40
Von einer Nvidia-Optimierung ist dann nichts zu sehen, Blackwell performt "meh".
Ok, ich schaue meist aus Gewohnheit wie die 6900/GRE vs 3080 läuft.
würde denken, ein Studio, das für NV optimiert, muss in erster Linie schauen, das ne 10GB-3080 sauber funzt ohne Bottleneck.(x)
Das man später extra für die 5000er patched wird eher die Ausnahme sein, evtl. wg. Megageometrie, wo dann ältere Gen`s
kein Land mehr sehen.
(x) man hat oft in UE5-Techdemos ein EPIC-Preset für die 4090 und darunter ein extra Preset für die 3080
Dieses 3080 Preset ist natürlich selten ideal für ne 6900/GRE, die halt bei ROPs oder anderen Dingen
eher im Bottleneck sind als die 3080.
Da hat PCGH schon über einige dieser Techdemos berichtet.
(Outlaws ist natürlich nicht UE5)
Prinzenrolle
2025-02-23, 22:37:56
Ich verstehe beim besten Willen nicht, wie einen es stören kann, wenn wir ein starkes AMD haben.
Wo sind die denn stark? Man kommt alles in allem nach 3DC Index deutlich unter einer 5070 Ti heraus. Dass man bei RT aufholt, schön und gut. Eine 5080 wird trotzdem in Raster 25% und in RT 35% und PT eher 50% schneller sein.
Ein starkes AMD wäre schön, bekommen wir aber nicht. Nvidia muss sich nicht mal anstrengen, kein bisschen. Dort reicht ein popeliger Refresh.
Zum Launch der 7900XTX war das auch eher Zweckoptimismus bei dir. Die Ergebnisse waren dann eher langweilig.
Bin schon gespannt wie sich hier dann die Meinung zu RT plötzlich dreht wenn auch das performant läuft :D
Deshalb bitte eine halbwegs gute RT Leistung, ansonsten geht das Jahre so weiter.
fizzo
2025-02-23, 22:49:13
Wo sind die denn stark? Man kommt alles in allem nach 3DC Index deutlich unter einer 5070 Ti heraus.
Das nennst du deutlich? Deutlich wird der Vorsprung der 9070 gegenüber der 5070:
dildo4u
2025-02-23, 22:54:53
Ok, ich schaue meist aus Gewohnheit wie die 6900/GRE vs 3080 läuft.
würde denken, ein Studio, das für NV optimiert, muss in erster Linie schauen, das ne 10GB-3080 sauber funzt ohne Bottleneck.(x)
Das man später extra für die 5000er patched wird eher die Ausnahme sein, evtl. wg. Megageometrie, wo dann ältere Gen`s
kein Land mehr sehen.
(x) man hat oft in UE5-Techdemos ein EPIC-Preset für die 4090 und darunter ein extra Preset für die 3080
Dieses 3080 Preset ist natürlich selten ideal für ne 6900/GRE, die halt bei ROPs oder anderen Dingen
eher im Bottleneck sind als die 3080.
Da hat PCGH schon über einige dieser Techdemos berichtet.
(Outlaws ist natürlich nicht UE5)
Passt doch 5070=4070S beide sind 650€ wenn 9700 diese RT Performance hat und 100€ weniger kostet macht man keine Kompromisse.
fizzo
2025-02-23, 23:02:26
Passt doch 5070=4070S beide sind 650€ wenn 9700 diese RT Performance hat und 100€ weniger kostet macht man keine Kompromisse.
Und bekommt als Bonus noch mehr Speicher bei geringerem Verbrauch. Klingt fast schon zu gut. Der Preis wird entscheidend!
Linmoum
2025-02-23, 23:13:15
Das mit dem Preis ist halt auch der Punkt, wenn man die 5070 dagegen setzt. AMD wirft hier einen 33% fetteren Chip (wenn die 350mm² stimmen) ins Rennen. Dass man den "Konkurrenten" damit schlägt, sollte selbstverständlich sein. Doof ist's dann halt wiederum nur, wenn man trotzdem einen ähnlichen Preis verlangt bzw. fast schon verlangen muss.
Hakim
2025-02-23, 23:24:22
Das mit dem Preis ist halt auch der Punkt, wenn man die 5070 dagegen setzt. AMD wirft hier einen 33% fetteren Chip (wenn die 350mm² stimmen) ins Rennen. Dass man den "Konkurrenten" damit schlägt, sollte selbstverständlich sein. Doof ist's dann halt wiederum nur, wenn man trotzdem einen ähnlichen Preis verlangt bzw. fast schon verlangen muss.
So ist der Markt halt, wenn man bei 10% Marktanteil was erreichen will muss man P/L besser stehen als der Marktführer um Leute abzuholen. Bei einem gesunden Markt wo Nvidia nicht so massiv dominieren würde, würde die 5070 ganz anders aussehen und vermutlich auch einen anderen Preisschild haben.
fizzo
2025-02-23, 23:29:57
Die 9070 bekommt ja den Salvage-Chip und muss nicht auf GDDR7 zurückgreifen. Navi 32 ist unwesentlich kleiner. Preislich hat AMD imho schon Luft.
Dino-Fossil
2025-02-23, 23:30:08
Naja, nach allem was aktuell bekannt ist, scheint N48 etwas kleiner zu sein als GB203 und bietet ähnliche Performance zu dessen Salvage-Variante in der 5070Ti. Und sicherlich deutlich bessere Performance als der kleinere GB205 in der 5070. Ich würde es also durchaus nicht so negativ sehen wie Linmoum.
Zumal nVidia sowieso Fantasiepreise abrufen kann, dank de-facto-Monopol. Also auch bei klar niedrigerem Verkaufspreis dürfte AMD immer noch gut verdienen.
DrFreaK666
2025-02-24, 00:14:44
Wo sind die denn stark? Man kommt alles in allem nach 3DC Index deutlich unter einer 5070 Ti heraus. Dass man bei RT aufholt, schön und gut. Eine 5080 wird trotzdem in Raster 25% und in RT 35% und PT eher 50% schneller sein...
Und eine 5090 ist noch schneller. Toll
Du vergleichst Karten wohl nicht nach dem Preis :freak::rolleyes:
BlacKi
2025-02-24, 07:45:37
amd hat mit der 7700xt massiv upselling betrieben. die 7700xt hat auf dem papier massiv schlechteres perf/euro verhältnis gehabt als die 7800xt. würde ich also wieder erwarten.
Prinzenrolle
2025-02-24, 08:44:08
Du vergleichst Karten wohl nicht nach dem Preis :freak::rolleyes:
Tatsächlich zu diesem Zeitpunkt nicht.
Den Straßenpreis wird man dann sehen.
https://www.computerbase.de/news/grafikkarten/amd-radeon-rx-9070-xt-mehr-details-und-hersteller-benchmarks-durchgestochen.91525/
heftige Packdichte, wenn das so hinkommt.
dargo
2025-02-24, 09:29:01
Was völlig unnötig ist, da nativ in den meisten Fällen das schlechtere Bild liefert.
Es geht dabei nicht um irgendwelche Bildqualität sondern um entsprechende GPU-Last. Oder willst du ab jetzt GPU-Reviews mit 4k Performance Upscaling sehen? Also praktisch 1080p Grafiklast + etwas Upscaling Overhead? :freak:
Im übrigen könnte Nvidia mit Upscaling sogar schlechter bei den Balken abscheiden wenn Transformer verwendet wird da Transformer mehr Overhead erzeugt, insbesondere bei alles älter Blackwell.
Großes Fragezeichen ist jetzt noch die Energieeffizienz.
Welches große Fragezeichen? RX 9070 non XT mit 56 CUs = 220W, das sagt schon alles. ;) Und das SI wurde hier nicht mal auf 192Bit reduziert.
The_Invisible
2025-02-24, 09:34:52
Es geht dabei nicht um irgendwelche Bildqualität sondern um entsprechende GPU-Last. Oder willst du ab jetzt GPU-Reviews mit 4k Performance Upscaling sehen? Also praktisch 1080p Grafiklast + etwas Upscaling Overhead? :freak:
Das Thema gabs schon früher mal mit AF.
Aber ja, DLSS4-P sieht eigentlich immer besser aus als FSR3-Q, da sollte man langsam schon überlegen ob hier noch gleich mit gleich getestet wird.
DrFreaK666
2025-02-24, 09:35:16
Es geht dabei nicht um irgendwelche Bildqualität sondern um entsprechende GPU-Last. Oder willst du ab jetzt GPU-Reviews mit 4k Performance Upscaling sehen? Also praktisch 1080p Grafiklast + etwas Upscaling Overhead? :freak:
Macht NV doch auch so ^^
GerryB
2025-02-24, 09:35:47
Speku,
bei manchen Käufern liegt die Schmerzgrenze relativ nahe am Durchschnitt.
bsp.weise bei der Ti machen momentan schon 30€ zuviel was aus und die Graka verkauft sich schlechter
soll heissen, wenn ne 9070nonXT diese 30€ unter der 5070 bleibt, dann hat man schon Interessenten
(ne 9070xt dann 20% teuerer als die nonXT nach Perf.)
dargo
2025-02-24, 09:43:05
Macht NV doch auch so ^^
Nvidia macht Nvidia Sachen. ;) Da wären wir wieder beim Thema Volksverdummung.
Das mit dem Preis ist halt auch der Punkt, wenn man die 5070 dagegen setzt. AMD wirft hier einen 33% fetteren Chip (wenn die 350mm² stimmen) ins Rennen. Dass man den "Konkurrenten" damit schlägt, sollte selbstverständlich sein. Doof ist's dann halt wiederum nur, wenn man trotzdem einen ähnlichen Preis verlangt bzw. fast schon verlangen muss.
AMD kommt auch ohne 65% Marge gut zurecht. ;) Nur weil Nvidia bei ihren Margen völlig durchdreht muss das nicht im gleichen Verhältnis für andere IHVs gelten. Zudem kein GDDR7.
BavarianRealist
2025-02-24, 09:51:14
Das mit dem Preis ist halt auch der Punkt, wenn man die 5070 dagegen setzt. AMD wirft hier einen 33% fetteren Chip (wenn die 350mm² stimmen) ins Rennen. Dass man den "Konkurrenten" damit schlägt, sollte selbstverständlich sein. Doof ist's dann halt wiederum nur, wenn man trotzdem einen ähnlichen Preis verlangt bzw. fast schon verlangen muss.
Die zusätzliche Größe dürfte zu großem Teil am Cache liegen, den man braucht, weil man den viel langsameren (aber billigeren) GDDR6 statt GDDR7 verwendet. AMDs Strategie dürfte aber schlichtweg aufgrund der APUs (für Notebook) stark in die Richtung gehen, mit langsamerer Ram-Anbindung mit Hilfe von Cache gut auszukommen und vor allem auch Energie-effizient zu werden (Notebooks: Strix-Halo).
Schnitzl
2025-02-24, 09:54:15
Was völlig unnötig ist, da nativ in den meisten Fällen das schlechtere Bild liefert. Also zumindest mit DLSS, FSR4 wird man dann sehen. Von daher mutet es kurios an, warum AMD nicht darauf setzt. Es sei denn, das hängt ggf. irgendwie mit der Qualität/dem aktuellen Zustand von FSR4 zusammen. Wobei das AMD in der Vergangenheit ja auch nicht daran gehindert hat, dass man FSR trotzdem entsprechend beworben hat.
bezüglich welchem DLSS meinst du das jetzt? 3 oder 4?
wenn nativ schon schlechter ist als DLSS3, DLSS4 ja deutlich besser ist als DLSS3 - was ist dann nativ? Absolute Gülle?
ich wills nur verstehn...
Dino-Fossil
2025-02-24, 09:55:18
Unglaublich wie wir diesen Pixelmülll früher spielen konnten!
dargo
2025-02-24, 09:56:52
Unglaublich wie wir diesen Pixelmülll früher spielen konnten!
Vor allem mit ~160ppi. ;D Ok... viel früher gabs diese Pixeldichte noch nicht. ;)
Prinzenrolle
2025-02-24, 10:17:08
Das nennst du deutlich? Deutlich wird der Vorsprung der 9070 gegenüber der 5070:
Raster + RT+ PT meine ich damit.
In Raster könnte es sich laut 3DC aber für einen Gleichstand mit der 5070Ti ausgehen.
ChaosTM
2025-02-24, 11:11:47
Unglaublich wie wir diesen Pixelmülll früher spielen konnten!
320x240 war doch völlig ausreichend in den frühen 90ern. Ohne AA und (bilinearem) Filter Gedöns..
Straffe 26ppi auf einem 15er CRT.
dildo4u
2025-02-24, 11:19:13
Das mit dem Preis ist halt auch der Punkt, wenn man die 5070 dagegen setzt. AMD wirft hier einen 33% fetteren Chip (wenn die 350mm² stimmen) ins Rennen. Dass man den "Konkurrenten" damit schlägt, sollte selbstverständlich sein. Doof ist's dann halt wiederum nur, wenn man trotzdem einen ähnlichen Preis verlangt bzw. fast schon verlangen muss.
AMD hatte 2017 8 gegen 4 Kerne von Intel gestellt um Markanteile zu gewinnen.
Am 28 sehen wir wie ernst es die GPU Ableitung meint.
Nicht vergessen die 7800XT sollte vergleichbar in den Herstellung Kosten sein, die hält ihre 500€.
Dino-Fossil
2025-02-24, 11:20:29
320x240 war doch völlig ausreichend in den frühen 90ern. Ohne AA und (bilinearem) Filter Gedöns..
Die Spiele haben mich damals jedenfalls mehr gefesselt.
https://media1.giphy.com/media/v1.Y2lkPTc5MGI3NjExY3RtcG04dHY0cnNxdDFzMWM3dGdybnkyb3VyZmQ2MGNiM2R5bWI4dCZlcD12M V9pbnRlcm5hbF9naWZfYnlfaWQmY3Q9Zw/nPxVvyTWo1aIU/giphy.gif
The_Invisible
2025-02-24, 11:21:21
CPU ist halt viel einfacher, da brauchst das ganze Software-Gedöns nicht machen, nur schauen das es halbwegs unter Win läuft.
dildo4u
2025-02-24, 11:34:33
CPU ist halt viel einfacher, da brauchst das ganze Software-Gedöns nicht machen, nur schauen das es halbwegs unter Win läuft.
Korrekt und so lange sie nicht auf dem selben Level sind müssen sie aggressiv beim Preis sein.
4n ist uralt in 2025 die Waffer sollen billiger werden.
N4C ist der Nachfolger von N4P.(Mainstream Node)
https://i.ibb.co/GfqPdpxN/e-Ky-ZQNx-PCE8h-Rbowsvg-CCH-1200-80.png (https://ibb.co/9m7Ypg8S)
https://www.tomshardware.com/tech-industry/tsmcs-1-6nm-node-to-be-production-ready-in-late-2026-roadmap-remains-on-track
https://www.anandtech.com/show/21371/tsmc-preps-lower-cost-4nm-n4c-process-for-2025
amdfanuwe
2025-02-24, 11:51:25
Die Spiele haben mich damals jedenfalls mehr gefesselt.
Mich auch. Denke grad an Zelda auf dem Game Boy :-)
Dimon
2025-02-24, 12:02:14
Mich auch. Denke grad an Zelda auf dem Game Boy :-)
Traumhaft :love4:
Ich hoffe doch das die Radeons Konkurrenzfähig sind und das zu einem besseren preis, ich bin jedenfalls guter dinge, und wenn die leistung stimmt, gibt mal seit langer zeit wieder eine radeon im pc :biggrin:
fondness
2025-02-24, 13:21:50
RX 9070 XT 32GB Extreme Edition: How AMD KILLS Nvidia RTX 5080!
https://www.youtube.com/watch?v=WXRhzubF61o
MLID meint AMD wird noch eine 32GB Version mit mehr Takt und vermutlich GDDR7 gegen die GTX5080 stellen.
Der_Korken
2025-02-24, 13:30:19
RX 9070 XT 32GB Extreme Edition: How AMD KILLS Nvidia RTX 5080!
https://www.youtube.com/watch?v=WXRhzubF61o
MLID meint AMD wird noch eine 32GB Version mit mehr Takt und vermutlich GDDR7 gegen die GTX5080 stellen.
Kann das Video gerade nicht gucken, aber ich frage mich warum man dafür auf 32GB geht. Die 9070XT wirkt von den Leaks her schon sehr geprügelt, d.h. da erwarte ich keinen Spielraum mehr nach oben bezüglich Takt. Mit GDDR7 holt im best case vielleicht noch 10-15% raus, aber das würde nicht für die 5080 reichen, wenn die GDDR6-Version knapp unter der 5070Ti rauskommt. Wozu dann 32GB? Das drückt nur die Margen oder macht die Karte preislich unattraktiv. 24GB würde ich noch verstehen - es sei denn die 3GB-Module sind nicht lieferbar oder viel zu teuer/exotisch.
Hakim
2025-02-24, 13:35:39
Man könnte Monatelang die besten Chips selektieren und es später mit GDDR7 als 9080 bringen. Bei der 5700er haben sie es damals aber auch nicht gemacht
fondness
2025-02-24, 13:39:48
Kann das Video gerade nicht gucken, aber ich frage mich warum man dafür auf 32GB geht. Die 9070XT wirkt von den Leaks her schon sehr geprügelt, d.h. da erwarte ich keinen Spielraum mehr nach oben bezüglich Takt. Mit GDDR7 holt im best case vielleicht noch 10-15% raus, aber das würde nicht für die 5080 reichen, wenn die GDDR6-Version knapp unter der 5070Ti rauskommt. Wozu dann 32GB? Das drückt nur die Margen oder macht die Karte preislich unattraktiv. 24GB würde ich noch verstehen - es sei denn die 3GB-Module sind nicht lieferbar oder viel zu teuer/exotisch.
Das Video wirkt mehr wie Speku vom ihm wie durch Fakten gedeckt. Es wäre jedenfalls theoretisch möglich. Und zumindest die GDDR7-Karten wird man wohl irgendwann ziehen. Mal sehen wie Bandbreitenlimitiert die Karten ist...
dargo
2025-02-24, 13:43:09
Kann das Video gerade nicht gucken, aber ich frage mich warum man dafür auf 32GB geht. Die 9070XT wirkt von den Leaks her schon sehr geprügelt, d.h. da erwarte ich keinen Spielraum mehr nach oben bezüglich Takt.
Naja... 304W TGP finde ich jetzt nicht sehr geprügelt. Im Vergleich zur non XT mit 220W sicherlich. Aber überleg mal... schon N21 war bei 300W. Fandest du den sehr geprügelt? Wenn das GPU-Design von RDNA4 bsw. 3,3-3,4Ghz spielend noch mitmacht dann hätte AMD durchaus noch etwas Luft für so ein 32GB Ding. Und sollte so ein Teil für unter 1.000€ machbar sein, warum nicht um eine RTX 5080 anzugreifen?
Edit:
Lol... sehe gerade jetzt erst, dass Korken alte Semmel wieder aufwärmt. Das Thema hatten wir schon. :tongue:
robbitop
2025-02-24, 14:17:08
Die zusätzliche Größe dürfte zu großem Teil am Cache liegen, den man braucht, weil man den viel langsameren (aber billigeren) GDDR6 statt GDDR7 verwendet. AMDs Strategie dürfte aber schlichtweg aufgrund der APUs (für Notebook) stark in die Richtung gehen, mit langsamerer Ram-Anbindung mit Hilfe von Cache gut auszukommen und vor allem auch Energie-effizient zu werden (Notebooks: Strix-Halo).
Die Cachegröße ist doch gleich zum Wettbewerber. Die 5070ti hat auch nur 64 MiB LLC genau wie N48. Und auch die 4080/S hatte 64 MiB.
Savay
2025-02-24, 14:25:03
Sind die Daten denn jetzt final bekannt?
Zudem könnten evtl. auch die anderen Caches gewachsen sein um den LLC zu entlasten...irgendwo für müssen diese ganzen Transistoren ja benutzt werden.
Insbesondere verglichen mit N32. ;)
Shaft
2025-02-24, 14:27:14
Wird immer interessanter. Wenn fsr die qualität von dlss 3.5 erreicht und der preis passt.
Gespannt auf den 28.
Kommt der Raff noch zum schlafen?
robbitop
2025-02-24, 14:31:59
Sind die Daten denn jetzt final bekannt?
Zudem könnten evtl. auch die anderen Caches gewachsen sein um den LLC zu entlasten...irgendwo für müssen diese ganzen Transistoren ja benutzt werden.
Insbesondere verglichen mit N32. ;)
Soweit ich weiß ist noch nichts bestätigt worden. Aber bis zuletzt hieß es immer 64 MiB. Ob die Vergrößerung der L2 Cache Stufe jetzt so viel Entlastung für den IF$ bringt wage ich zu bezweifeln weil die Hitrate bei der winzigen Größe sicherlich auf einer ganz anderen Größenordnung ist.
Hakim
2025-02-24, 14:32:00
Er findet noch Zeit hier zu schreiben, so schlimm kann es nicht sein xD
fondness
2025-02-24, 14:33:55
Jedenfalls hätte das Ding bei nur 64MB Infinity Cache relativ wenig Bandbreite. Selbst eine 4080 hatte damals GDDR6X. Also GDDR7 kann da schon noch was bringen...
robbitop
2025-02-24, 14:36:40
IMO wären Memory scaling Tests ziemlich interessant.
Wobei ich neulich im Blackwell Test gesehen hab, dass Raff Ada vs Blackwell testen wollte bei gleichen Taktraten und da rauskam, dass man den Speicher nur begrenzt runterdrehen kann. Hab das lange nicht mehr probiert - ist das grundsätzlich so?
Wäre wirklich mal spannend neue GPU Generationen zu untersuchen. Ab wie viel GFLOPs/GB/s ist welche uArch langsam an der Kotzgrenze und wie viel hat sich da pro Gen getan? :)
Hakim
2025-02-24, 14:39:55
Ob man dann mit Ram OC viel rausholen kann? Hoffe das die Tester sich auch dafür die Zeit nehmen
dargo
2025-02-24, 14:41:09
Wobei ich neulich im Blackwell Test gesehen hab, dass Raff Ada vs Blackwell testen wollte bei gleichen Taktraten und da rauskam, dass man den Speicher nur begrenzt runterdrehen kann. Hab das lange nicht mehr probiert - ist das grundsätzlich so?
Ja.
Der_Korken
2025-02-24, 14:53:10
Aber überleg mal... schon N21 war bei 300W. Fandest du den sehr geprügelt? Wenn das GPU-Design von RDNA4 bsw. 3,3-3,4Ghz spielend noch mitmacht dann hätte AMD durchaus noch etwas Luft für so ein 32GB Ding. Und sollte so ein Teil für unter 1.000€ machbar sein, warum nicht um eine RTX 5080 anzugreifen?
Edit:
Lol... sehe gerade jetzt erst, dass Korken alte Semmel wieder aufwärmt. Das Thema hatten wir schon. :tongue:
Wieso alte Semmel? Das MLID-Video wurde doch erst heute gepostet. Das 32GB-Thema ist natürlich nicht neu, aber auch GDDR7 ändert imho nicht viel an der Platzierung eines solchen Produkts. Auch wenn Raff sicherlich ein großer Fan davon wäre und irgendwelche Spezialfälle findet, wo die 32GB was bringen.
Zum Thema getreten: Nein, N21 war überhaupt nicht getreten. Das sieht man allein schon daran, dass die 6700XT mit nur halb so vielen CUs wie die 6900XT trotzdem auf 75% des Verbrauchs kam und auf wesentlich höhere Taktraten. N48 dagegen wirkt mit 304W schon getreten, da die 9070 mit 87,5% der CUs und dem gleichen Speicherausbau nur auf 72% des Verbrauchs käme.
Wenn die 9070XT in einem sparsamen Betriebspunkt liefe, müsste AMD hier schon sehr viel Takt bei der 9070 opfern, um mit dem Verbrauch so weit runterzukommen. Vor allem, da die 9070 schlecht gebinnt sein wird als die XT. Mit "sehr viel" meine ich so was in der Größenordnung von 20%. Das einzige jüngere Beispiel, das mir einfällt, wo die Taktraten sich des gleichen Chips zwischen den Modellen so stark unterschieden haben, wäre die 7900GRE - also ein Salvage vom Salvage eines generell leicht kaputten Chips mit Verbrauchsproblemen. AMD könnte ihre Margen hier leicht erhöhen, wenn sie die 9070 einfach mit 260W brächten.
dargo
2025-02-24, 14:58:49
Wieso alte Semmel? Das MLID-Video wurde doch erst heute gepostet.
Nö, es ist zwei Tage alt. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13711643&postcount=7075
Der_Korken
2025-02-24, 15:13:34
Nö, es ist zwei Tage alt. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13711643&postcount=7075
Ah, hab den alten Post gar nicht mitbekommen. Mea culpa. hab nicht auf den Link geklickt^^
davidzo
2025-02-24, 15:34:48
IMO wären Memory scaling Tests ziemlich interessant.
Wobei ich neulich im Blackwell Test gesehen hab, dass Raff Ada vs Blackwell testen wollte bei gleichen Taktraten und da rauskam, dass man den Speicher nur begrenzt runterdrehen kann. Hab das lange nicht mehr probiert - ist das grundsätzlich so?
Wäre wirklich mal spannend neue GPU Generationen zu untersuchen. Ab wie viel GFLOPs/GB/s ist welche uArch langsam an der Kotzgrenze und wie viel hat sich da pro Gen getan? :)
Irgendwas scheint da vor sich zu gehen bei RDNA4. Die Bandbreitenskalierung ist jedenfalls anders als bei RDNA3.
Die GRE ist ja bekanntermaßen eine massiv bandbreitenlimitierte Karte. Die 9070XT verfügt wenn die geleakten Specs stimmen ja über ein ähnliches Verhältnis aus Rechenleistung und Bandbreite. Trotzdem skaliert sie in den geleakten AMD Benchmarks gerade in 4K mit erheblich besser als die GRE.
Beide haben 64MB L3 und ein 256bit Interface. Mit dem geleakten Boostakt von 2970mhz hat die 9070XT um 8% mehr Rechenleistung. Bei den gemunkelten 19.5Gbps sind es genau 8,3% mehr Bandbreite und wenn AMD doch die vollen 20Gbps ausfährt ist die Bandbreite auch nur 11% höher.
Wäre die 9070XT in 4K weiterhin so bandbreitenlimiert wie die GRE, dann würde der Zuwachs näher an den 8-11%Bandbreitenzuwachs liegen.
robbitop
2025-02-24, 15:58:16
Irgendwas scheint da vor sich zu gehen bei RDNA4. Die Bandbreitenskalierung ist jedenfalls anders als bei RDNA3.
Die GRE ist ja bekanntermaßen eine massiv bandbreitenlimitierte Karte. Die 9070XT verfügt wenn die geleakten Specs stimmen ja über ein ähnliches Verhältnis aus Rechenleistung und Bandbreite. Trotzdem skaliert sie in den geleakten AMD Benchmarks gerade in 4K mit erheblich besser als die GRE.
Beide haben 64MB L3 und ein 256bit Interface. Mit dem geleakten Boostakt von 2970mhz hat die 9070XT um 8% mehr Rechenleistung. Bei den gemunkelten 19.5Gbps sind es genau 8,3% mehr Bandbreite und wenn AMD doch die vollen 20Gbps ausfährt ist die Bandbreite auch nur 11% höher.
Wäre die 9070XT in 4K weiterhin so bandbreitenlimiert wie die GRE, dann würde der Zuwachs näher an den 8-11%Bandbreitenzuwachs liegen.
Sehr hilfreiches Posting :up:
Die Frage ist allerdings: ist die GRE wirklich bereits bandbreitenlimitiert? Leider findet man ja reines Memory OC als Test praktisch nicht im Netz für die GPU. Ich würde aber auch annehmen, dass es da schon am ehesten einen Bandbreitenbottleneck gibt, weil sie im gesamten RDNA3 Portfolio die wenigste Bandbreite pro GFLOP/s hat.
Also ja irgendwas ging bei RDNA4 wahrscheinlich vor sich. Entweder mehr Cache in einer der Stufen oder man hat die Bandbreiteneffizienz erhöht. Ada kam ja bei der 4080 ja auch mit 64 MiB aus und so irre viel höher taktet da der Speicher ja auch nicht. Gerade mal 23 gbps verglichen mit den 19,5 gbps von n48 ... wobei das sind ja auch immerhin schon ~18%. Ggf. gibt es dann auch einfach Spiele, wo Bandbreite mehr limitiert und sie dann eben nicht an eine 4080 rankommt und andere wo sie weniger limitiert und die Sprünge größer sind.
Es war ja auch außerhalb von RT Spielen schon nennenswert wie heterogen die Performancezuwächse der 9070XT vs 7900GRE sind. Da war das Spektrum IIRC ~20-40%.
dargo
2025-02-24, 16:04:19
Die GRE ist ja bekanntermaßen eine massiv bandbreitenlimitierte Karte. Die 9070XT verfügt wenn die geleakten Specs stimmen ja über ein ähnliches Verhältnis aus Rechenleistung und Bandbreite.
Da komme ich jetzt nicht ganz mit. Die RX 9070XT hat aktuell 42% mehr "Rechenleistung" bei 11% mehr Bandbreite als die RX 7900GRE. Reine TFLOPs zu vergleichen macht imo überhaupt keinen Sinn wenn Chip A diese TFLOPs gar nicht auf die Straße bringen kann, aus Gründen.
fondness
2025-02-24, 16:35:53
Ja, die 9070XT liefert laut AMD 42% mehr Performance in 4K als eine 7900GRE, hat aber nur 11% mehr Bandbreite. Die 9070XT würde also definitiv eine Rekord aufstellen bei der Perf/Bandbreite.
dargo
2025-02-24, 16:40:55
Ohne jetzt nachzurechnen denke ich davidzo bezieht sich hier auf reine TFLOPs bezüglich Rechenleistung. Aber wie gesagt... TFLOPs sind seit RDNA3 wayne, bei Nvidia seit Ampere. Ansonsten müsste eine 7900XTX um Faktor ~2,7 schneller sein als die 6900XT. Mehr als ein Zahlenspiel sind die TFLOPs bei RDNA3 nicht.
robbitop
2025-02-24, 16:42:03
Wobei es auch Spiele IIRC gibt die in den niedrigen 20er % Bereichen liegen. Das Spektrum ist ja relativ groß - auch außerhalb von RT. Das kann an der Bandbreite liegen - muss aber natürlich nicht. Ggf. sind auch die Verbesserungen in den CUs unterschiedlich wirksam je nach Spiel. Oder aber eine Kombination aus mehreren Faktoren.
Ein Memoryscaling Test mit RDNA3+4+Blackwell+Ada wäre mal interessant. :)
Aber ja im Moment sieht es so aus als hätte sich da was bei RDNA4 getan.
Ohne jetzt nachzurechnen denke ich davidzo bezieht sich hier auf reine TFLOPs bezüglich Rechenleistung. Aber wie gesagt... TFLOPs sind seit RDNA3 wayne, bei Nvidia seit Ampere. Ansonsten müsste eine 7900XTX um Faktor ~2,7 schneller sein als die 6900XT. Mehr als ein Zahlenspiel sind die TFLOPs bei RDNA3 nicht.
Guter Punkt - sehe ich auch so. Mit GFLOPs/s kann man eigentlich nur noch innerhalb einer uArch vergleichen. Man müsste es anhand von echten Performancezahlen vergleichen. Also sowas wie GB/s pro FPS in einem breiten Spiele Index (der aber im GPU Limit sein muss - also 4K).
dargo
2025-02-24, 16:44:08
Wobei es auch Spiele IIRC gibt die in den niedrigen 20er % Bereichen liegen. Das Spektrum ist ja relativ groß - auch außerhalb von RT.
Gottchen... es geht um den Schnitt mehrerer Spiele und nicht Rosinenpicken in die eine oder in die andere Richtung.
robbitop
2025-02-24, 16:48:18
Gottchen... es geht um den Schnitt mehrerer Spiele und nicht Rosinenpicken in die eine oder in die andere Richtung.
Es ist kein Rosinenpicken sondern eine Analyse der Daten. Wenn es ein großes Spektrum gibt, ergibt es schon Sinn sich zu überlegen wo das herkommen kann. Bandbreite kann eines der Gründe sein.
Wir haben 11 Datenpunkte für Raster in 4K. Außerhalb von RT haben wir 23 - 48% je nach Spiel. GEOMEAN davon ist 36,5%. Warhammer, F1 24, GoW und CP77 sind besonders viele Standardabweichungen vom Median entfernt. Bedeutet, diese Spiele sind ggf besonders untersuchenswert was z.B Bandbreitenskalierungstests angeht. Aber auch andere Tests - ggf. hängt es auch stark mit dem CU Umbau zusammen. CP77 skalierte ja auch Blackwell auch ziemlich stark.
aufkrawall
2025-02-24, 16:49:16
Wo gibts denn nicht bei neuen Archs ein größeres Spektrum an Gewinnen?
dargo
2025-02-24, 16:49:52
Es ist kein Rosinenpicken sondern eine Analyse der Daten. Wenn es ein großes Spektrum gibt, ergibt es schon Sinn sich zu überlegen wo das herkommen kann. Bandbreite kann eines der Gründe sein.
Sag bloß. :cool: Und dass unterschiedliche Spiele auf unterschiedlichen GPU-Architekturen unterschiedlich skalieren ist Neuland für dich? :)
robbitop
2025-02-24, 16:59:02
Wir haben 11 Datenpunkte für Raster in 4K. Außerhalb von RT haben wir 23 - 48% je nach Spiel. GEOMEAN davon ist 36,5%. Warhammer, F1 24, GoW und CP77 sind besonders weit vom Median (in Standardabweichungen) entfernt. Bedeutet, diese Spiele sind ggf besonders untersuchenswert was z.B Bandbreitenskalierungstests angeht. Aber auch andere Tests - ggf. hängt es auch stark mit dem CU Umbau zusammen. CP77 skalierte ja auch Blackwell auch ziemlich stark. Sind doch zumindest erste Anhaltspunkte wo man mal nachschauen kann.
Sag bloß. :cool: Und dass unterschiedliche Spiele auf unterschiedlichen GPU-Architekturen unterschiedlich skalieren ist Neuland für dich? :)
Der Punkt ist, dass es ein technisches Forum ist und es nicht nur um gut oder schlecht geht sondern man sich auch mal anschauen kann woran es liegt. Und genau diesen Aspekt beleuchte ich. Wenn es für dich nicht interessant ist musst du ja nicht darauf eingehen. Zu überlegen wie sich die Bottlenecks verschoben haben ist jetzt nicht unbedingt etwas uninteressantes oder schlechtes. Entsprechend kann man das doch mal laufen lassen ohne es abwimmeln zu wollen. IMO.
Wo gibts denn nicht bei neuen Archs ein größeres Spektrum an Gewinnen?
Ich habe nicht behauptet, dass es etwas Ungewöhnliches für neue uArchs ist. Es ist IMO immer interessant sich das anzuschauen um zu sehen wie sich bottlenecks bewegt haben. Und Bandbreite ist ein potenzieller Kandidat dafür.
AffenJack
2025-02-24, 17:00:29
Sag bloß. :cool: Und dass unterschiedliche Spiele auf unterschiedlichen GPU-Architekturen unterschiedlich skalieren ist Neuland für dich? :)
Es macht keinen Sinn RT in eine Betrachtung der Bandbreitenlimitierung einzubeziehen, wenn RT durch eine neue Hardwareeinheit komplett anders berechnet wird.
Robbitops Betrachtungsweise mit den 36,5% außerhalb von RT ist deutlich sinniger.
Dino-Fossil
2025-02-24, 17:04:47
Entsprechend kann man das doch mal laufen lassen ohne es abwimmeln zu wollen. IMO.
Tja, du hättest eben erst auf die Liste der dargo-approved-topics schauen sollen!
dargo
2025-02-24, 17:07:36
Der Punkt ist, dass es ein technisches Forum ist und es nicht nur um gut oder schlecht geht sondern man sich auch mal anschauen kann woran es liegt. Und genau diesen Aspekt beleuchte ich.
Ich finde immer wieder deine "Forderungen" lustig wo von deiner Seite aus nie was bezüglich Tests kommt. ;) Ich finde es verschwendete Lebenszeit über das Thema zu diskutieren weil eh nichts über 20Gbps mit GDDR6 kommt. Also was genau soll diese Diskussion jetzt bringen? Ob AMD bei RDNA4 irgendwann GDDR7 verwendet ist mehr als fraglich. Wird alles vom Aufwand abhängen, wie teuer GDDR7 vs. GDDR6 ist und was es letztendlich bringt. Für +10% wird AMD wohl kaum den Aufwand betreiben, nur um eine fiktive Zahl zu nennen.
Edit:
Und nur mal so als Denkanstoß... die RX 9070XT ist im Schnitt 17% schneller als die 9070 non XT. Das deutet jetzt nicht unbedingt darauf hin, dass die RX 9070XT an Bandbreite super verhungert. Auch nicht in einzelnen Games die stark bei der Skalierung voneinander abweichen.
Rechne mal nach bei F1 24 und CP77 ohne RT.
https://videocardz.com/newz/amd-radeon-rx-9070-series-gaming-performance-leaked-rx-9070xt-is-42-faster-on-average-than-7900-gre-at-4k
bbott
2025-02-24, 17:14:24
320x240 war doch völlig ausreichend in den frühen 90ern. Ohne AA und (bilinearem) Filter Gedöns..
Straffe 26ppi auf einem 15er CRT.
Da gab es noch gesittetere Diskusionen um relevante Grafik unterschiede, welche man nicht mit der Lupe im Standbild suchen musste. :freak:
bbott
2025-02-24, 17:22:22
AMD hatte 2017 8 gegen 4 Kerne von Intel gestellt um Markanteile zu gewinnen.
Am 28 sehen wir wie ernst es die GPU Ableitung meint.
Nicht vergessen die 7800XT sollte vergleichbar in den Herstellung Kosten sein, die hält ihre 500€.
Nochmal, AMD kann keinen Preiskieg anfangen!
1. NV senkt ebenfalls den Preis, und NV Kriegskasse ist x Mal größer. Es verlieren beide aber AMD noch (viel) mehr.
2. Woher sollen die Waver, RAM etc. kommen? Ressourcen sind vor x Quartal bestellt worden und TSMC etc. hat keinen leerlauf (+ Erdbeben) , oder?!
3. Könnte NV einfach alle TSMC, etc. Ressourcen reservieren
USW.
Daher sehe ich eigentlich für AMD nur den Weg über mehrere Generationen, NV Flaggschiff zu Schlagen.
Was ich AMD nur mit Chipletts zutrauen würde... als brachialer Rechenkraft und Die Size. Was wiederum nach RDNA3 sehr unwahrscheinlich geworden ist...
nairune
2025-02-24, 17:29:41
AMD verdient doch aktuell mit der GPU-Sparte eh nichts relevantes, da können sie eigentlich Strategien ausprobieren wie sie wollen, solange sie nicht aktiv Geld verbrennen.
Glaube auch nicht, dass NV so schnell die Preise senken würde nur wegen starker Konkurrenz in der oberen Mittelklasse.
fizzo
2025-02-24, 17:31:29
Edit:
Und nur mal so als Denkanstoß... die RX 9070XT ist im Schnitt 17% schneller als die 9070 non XT. Das deutet jetzt nicht unbedingt darauf hin, dass die RX 9070XT an Bandbreite super verhungert. Auch nicht in einzelnen Games die stark bei der Skalierung voneinander abweichen.
Bei 14% mehr CU, 16% höheren Game-Takt sowie 38% Mehrverbrauch. In diesem Kontext finde ich die 17% jetzt nicht berauschend.
fondness
2025-02-24, 17:45:19
AMD preparing Fluid Motion Frames 2.1 (AFMF)
https://videocardz.com/newz/amd-preparing-fluid-motion-frames-2-1-afmf
Kommt mit der 9070XT. Womöglich geht man da jetzt auch auf bis zu 3 generierte Frames. Angeblich soll auch die Qualität der Frames verbessert werden.
Fluid Multi Frames? Das wäre die erste Minor Version mit einem Major Improvement. ;)
MfG
Raff
Savay
2025-02-24, 17:53:25
Ob die Vergrößerung der L2 Cache Stufe jetzt so viel Entlastung für den IF$ bringt wage ich zu bezweifeln
Naja schon bei RDNA3 haben sie L1 und L2 vergrößert...vermutlich auch um den verkleinerten (und weiter entfernten) MALL/LLC etwas zu entlasten.
https://chipsandcheese.com/p/microbenchmarking-amds-rdna-3-graphics-architecture
Dazu kommt, das der Chip quasi doppelt so viele Transistoren wie N32 hat...bei ansonsten relativ ähnlichen Daten.
Das kann doch nicht alles nur in die Rechenwerke oder Massetransistoren gegangen sein! :wink:
Zumal dickere (und ggf. mehr spezialisierte) Einheiten ja auch mit Daten versorgt werden wollen...
Außerdem muss man bedenken das RDN4 ja auf ner gekippten MCM Strategie basiert...die könnten die Architektur als solche also durchaus in die Richtung optimiert haben evtl. etwas L1 und L2 lastiger zu sein. (Also noch als Prämisse mit dem MALL/LLC in vergleichsweise "entfernten" MCDs!)
Aber in ein paar Tagen wissen wir ja mehr.
GerryB
2025-02-24, 17:55:51
Bei 14% mehr CU, 16% höheren Game-Takt sowie 38% Mehrverbrauch. In diesem Kontext finde ich die 17% jetzt nicht berauschend.
Median 17% täuscht
Da geb ich Robbitop Recht, das manche Games/Engines ganz unterschiedliche Bottlenecks haben.
Würde mal denken, das die 15%-Games nicht viel zur Bandbreite aussagen, da klemmts anderweitig bei S2, ACM, DAV.
20-22% passt dann schon besser zu mehr CU+Takt+Watt.
Da wird man mal bei Igor schauen müssen, wie überhaupt der Durchschnittsverbrauch in den einzelnen Games ist.
oder doch gar die volle Auslastung der FP32 misslingt.
Ob bei der nonXT der eff. Gametakt tatsächlich 16% niedriger ist, weiss derzeit nur der AMD-Treiber.
und
Chips & Cheese wird hoffentlich die IPC-Dinge und evtl. Bottlenecks ordentlich beleuchten
Meine Prognose zu den Customs: 330w, im Raster etwas schneller als ne XTX und 4800, sowie 5070ti, mit RT so schnell wie eine 4070tis. Preis: 649$-799$, je nach Kühllösung usw.! Ne Sapphire Nitro könnte vielleicht auch in 5080-Gefilde kommen, bei 400w und 3.3Ghz. Allerdings: Wäre dies noch Mainstream?
fondness
2025-02-24, 19:23:03
Gigabyte 9070 XT gaming OC easily hits 3250mhz at 329w in heaven unigine
https://x.com/GawroskiT/status/1894047827044548913?t=A-sDdFxMfF6uGNWA-mOrGw&s=19
Wie erwartet und wie auch schon bei RDNA3 liegt der tatsächliche takt also über dem Boost clock.
mczak
2025-02-24, 19:29:02
Nochmal, AMD kann keinen Preiskieg anfangen!
1. NV senkt ebenfalls den Preis, und NV Kriegskasse ist x Mal größer. Es verlieren beide aber AMD noch (viel) mehr.
Dazu müsste Nvidia erstmal liefern können (zu Preisen die zumindest in der Nähe der UVP sind). Es ist aber wohl schon davon auszugehen dass sich das bessert (wenn's am gddr7 liegt irgendwann sollten dann ja auch micron und hynix liefern können - fragt sich halt wann genau).
Ist aber sicher so dass AMD nicht gleich die ganze Marge opfern will um Marktanteile zu gewinnen.
Was ich AMD nur mit Chipletts zutrauen würde... als brachialer Rechenkraft und Die Size. Was wiederum nach RDNA3 sehr unwahrscheinlich geworden ist...
Naja Chiplets kommen wohl ziemlich sicher irgendwann - aber die wird dann Nvidia auch haben.
RDNA3 war eigentlich ein ziemlich halbgarer Multi-Die Ansatz. Weder nötig (weil man ja keine grossen Chips produziert hat) und auch nicht sonderlich modern (konventionelles MCM-Design - das muss besser werden, Strix Halo zeigt ja schon dass das offenbar problemlos geht).
OgrEGT
2025-02-24, 19:29:03
...und 4GHz dann bei 400W :ulol:
Dimon
2025-02-24, 19:37:53
...und 4GHz dann bei 400W :ulol:
Da wäre ich direkt dabei :biggrin:
dargo
2025-02-24, 19:43:48
Gigabyte 9070 XT gaming OC easily hits 3250mhz at 329w in heaven unigine
https://x.com/GawroskiT/status/1894047827044548913?t=A-sDdFxMfF6uGNWA-mOrGw&s=19
Wie erwartet und wie auch schon bei RDNA3 liegt der tatsächliche takt also über dem Boost clock.
Nun mal langsam... welche Heizlast hat so ein altes heaven unigine überhaupt und welche Settings sind das hier? Ich frage deshalb weil ich dann besser mit RDNA2 vergleichen könnte.
raffa
2025-02-24, 19:48:10
9070 XTX 4GHz Edition 32GB confirmed! : )
Dimon
2025-02-24, 19:50:11
Nun mal langsam... welche Heizlast hat so ein altes heaven unigine überhaupt und welche Settings sind das hier? Ich frage deshalb weil ich dann besser mit RDNA2 vergleichen könnte.
Die frage wäre eher wie RDNA 4 auf leichte last reagiert...
Savay
2025-02-24, 19:52:03
Naja Chiplets kommen wohl ziemlich sicher irgendwann - aber die wird dann Nvidia auch haben.
Hat nV denn überhaupt schon irgendwelche Erfahrung mit MCM?! Mir fällt da adhoc nichts ein...auch nichts Architekturseitiges.
Hopper (und BW?!) hat zwar ne On-Die Crossbar...aber so richtig zählen tut das ja nicht.
Nicht das sie da nicht (relativ zeitnah) folgen werden aber ich glaube ja fast eher das wir in der Richtung sogar früher was von Intel sehen könnten als von nV. :tongue:
So ein MI300X artiges Konstrukt dürfte wohl auch aufm Desktop funktionieren zu einem gewissen grad...dürfte aber vom Packaging einfach zu teuer sein.
Ist bei AMD da wohl eher ne Kosten/Nutzen Rechnung im Moment.
robbitop
2025-02-24, 19:54:16
Hat nV denn überhaupt schon irgendwelche Erfahrung mit MCM?!
Glaube ja fast eher das wir in der Richtung früher was von Intel sehen werden als von nV. :tongue:
Der große Blackwell sind doch 2 Chiplets sogar mit modernem packaging. GB200. Ich denke nicht, dass man "zum Üben" ein Massenprodukt rausbringen muss bei dem es dann ggf zu früh war. Nvidia hat HBM auch erst gebracht als es für sie sinnvoll im Endprodukt erschien. So wird es mit Chiplets auch sein vermute ich.
Tja: https://x.com/VideoCardz/status/1894089464927993869?s=19
crux2005
2025-02-24, 20:01:01
Wieso steigt AMD auch auf den fake frame Zug?
https://videocardz.com/newz/amd-preparing-fluid-motion-frames-2-1-afmf#disqus_thread
Irgendwas scheint da vor sich zu gehen bei RDNA4. Die Bandbreitenskalierung ist jedenfalls anders als bei RDNA3.
Die GRE ist ja bekanntermaßen eine massiv bandbreitenlimitierte Karte. Die 9070XT verfügt wenn die geleakten Specs stimmen ja über ein ähnliches Verhältnis aus Rechenleistung und Bandbreite. Trotzdem skaliert sie in den geleakten AMD Benchmarks gerade in 4K mit erheblich besser als die GRE.
Beide haben 64MB L3 und ein 256bit Interface. Mit dem geleakten Boostakt von 2970mhz hat die 9070XT um 8% mehr Rechenleistung. Bei den gemunkelten 19.5Gbps sind es genau 8,3% mehr Bandbreite und wenn AMD doch die vollen 20Gbps ausfährt ist die Bandbreite auch nur 11% höher.
Wäre die 9070XT in 4K weiterhin so bandbreitenlimiert wie die GRE, dann würde der Zuwachs näher an den 8-11%Bandbreitenzuwachs liegen.
Wird IMHO durch die RT Leistung verfälscht.
fondness
2025-02-24, 20:03:21
Nun mal langsam... welche Heizlast hat so ein altes heaven unigine überhaupt und welche Settings sind das hier? Ich frage deshalb weil ich dann besser mit RDNA2 vergleichen könnte.
Ist ohnehin Linux und damit schwer vergleichbar. Genauere Angaben hat er nicht gemacht.
Savay
2025-02-24, 20:05:44
Der große Blackwell sind doch 2 Chiplets sogar mit modernem packaging. GB200.
Ah i see...GB100...das ist aber mehr so CDNA 2 style MCM...mit Crossbars.
Quasi wie nen halbierter Hopper den man wieder zusammen "klebt"?!
Ob das für ne Desktop GPU taugt?
Naja die werden das irgendwann schon können aber ich bezweifele, dass es deren Prio ist.
Die (Bart) DIE Größe scheint sie bisher nicht im geringsten zu tangieren. :wink: Können es ja eh zu absurden Preisen absetzen.
Bei AMD sehe ich die Motivation in der Richtung schon eher, zumal sie damit auch im Massenmarkt gute erfahrungen gemacht haben.
Ich denke nicht, dass man "zum Üben" ein Massenprodukt rausbringen
Geht mir wahrlich nicht um ein Massenprodukt und auch nicht ums "üben"...sondern um die Architektur und Designphilosophie mitsamt Interconnects Caches etc. pp.
CDNA3 ist ja nun auch grade kein Massenprodukt...selbst verglichen mit Hopper/Blackwell ;)
fondness
2025-02-24, 20:06:18
Der große Blackwell sind doch 2 Chiplets sogar mit modernem packaging. GB200. Ich denke nicht, dass man "zum Üben" ein Massenprodukt rausbringen muss bei dem es dann ggf zu früh war. Nvidia hat HBM auch erst gebracht als es für sie sinnvoll im Endprodukt erschien. So wird es mit Chiplets auch sein vermute ich.
Das sind 2 identische Chips mit einem interface dazwischen. Das ist schon eine ganze Ecke weniger komplex als so ein MI300.
robbitop
2025-02-24, 20:11:20
Das kann schon sein. Aber daraus sollte man nicht schliessen, dass sie es nicht können. Sie scheinen es zu bauen, wie sie es für ihr Endprodukt als sinnvoll erachten. Und der Erfolg in dem Segment scheint ihnen ja recht zu geben oder? Es gibt ja keinen Preis für Produkte mit besonders hoher Komplexität.
Savay
2025-02-24, 20:18:54
Es gibt ja keinen Preis für Produkte mit besonders hoher Komplexität.
Nein...es gibt aber auch keinen Preis wenn man ein Produkt versemmelt, weil man an zu vielen Stellen gleichzeitig rum schraubt und techniken/Änderungen bringt die man vorher noch nirgendwo versucht hat zu testen/skalieren.
Vor allem wenn man keinen (Markt)Druck hat da was zu tun...
Deswegen sind die Architekturen von so großen und komplexen Chips wie GPUs ja auch irgendwie so iterativ seit vielen Jahren. :wink:
robbitop
2025-02-24, 20:21:05
Ja Risk Management ist bei so teuren Dingen (moderne uArchs sind sicherlich im Bereich von Milliarden USD in R&D wert) sicherlich sehr wichtig.
Sind die 64MB Cache eigentlich gesichert? Mit 128MB könnte man den Bandbreitennachteil easy abfedern und die Leistung easy auf die Straße bringen.
Prinzenrolle
2025-02-24, 20:26:06
Gigabyte 9070 XT gaming OC easily hits 3250mhz at 329w in heaven unigine
Nett, das könnte noch interessant werden.
Je nachdem wie viel Takt drinnen ist, könnte man mit OC zwischen 5070Ti und 5080 kommen.:)
robbitop
2025-02-24, 20:26:28
Sind die 64MB Cache eigentlich gesichert? Mit 128MB könnte man den Bandbreitennachteil easy abfedern und die Leistung easy auf die Straße bringen.
Ich meine es wurde auch so auf einem Screenshot auf einem der leaks so abgebildet zu den GPU Informationen. Wirklich gesichert ist über ein noch nicht veröffentliches Produkt noch nichts. Aber es ist schon relativ sicher ja.
dildo4u
2025-02-24, 20:28:52
Sie haben nur gegen eine andere 256 Bit Karte gebencht dafür brauchen sie kein Monster Cache.
Die GRE flopt öfter gegen 7800XT der Aufpreis lohnt sich nicht immer.
basix
2025-02-24, 20:30:06
Dazu kommt, das der Chip quasi doppelt so viele Transistoren wie N32 hat...bei ansonsten relativ ähnlichen Daten.
Das kann doch nicht alles nur in die Rechenwerke oder Massetransistoren gegangen sein! :wink:
Wieso kommen alle auf doppelt so viele Transistoren wie N32? Weil auf TPU 28.1b steht? Das ist nur das GCD ;)
Seht euch Navi 31 an:
- Total = 57.7b
- GCD = 45.4b
- MCD = 2.05b
...und 4GHz dann bei 400W :ulol:
9070 XTX 4GHz Edition 32GB confirmed! : )
Jaaaa :D
Ausgehend von Zen5% also nun RDNA40% oder RDNA4GHz ;D
iamthebear
2025-02-24, 20:40:03
Womöglich hat AMD auch sein Cachesystem endlich einmal in den Griff bekommen. Das hat AMD ja bereits seit Vega Zeiten geplagt, dass sie für dieselbe Performance immer mehr Speicherbandbreite oder Cache benötigt haben sei es der HBM mit Vega oder der IF$ bei RDNA2 (als Nvidia noch ohne den groẞen L2 auskam).
Eine 4080 kommt auch gut mit 64MB Cache und 256Bit GDDR6X aus ohne stark speicherlimitiert zu sein. Da scheint es nicht unmöglich, dass die 9070 XT das genauso schafft.
Savay
2025-02-24, 20:41:12
Wieso kommen alle auf doppelt so viele Transistoren wie N32? Weil auf TPU 28.1b steht? Das ist nur das GCD ;)
Da steh "quasi" :wink:...selbst wenn man die MCDs drauf rechnet ist das IMHO ein relativ ungewöhnlicher Sprung.
N21 ohne Dual Issue aber mit 40WGP und doppelt so viel IF$ liegt da quasi auf höhe mit nem N32... :tongue:
basix
2025-02-24, 20:52:19
9070XT -> 3.24 GHz bei 330W (Unigine Heaven 4.0) und 57°C (keine Ahnung ob offener Aufbau, Lüfter RPM etc)
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-337#post-41402717
https://forums.anandtech.com/threads/rdna4-cdna3-architectures-thread.2602668/page-337#post-41402789
fondness
2025-02-24, 20:54:52
Du bist der dritte der das postet :-)
Du bist der dritte der das postet :-)
Mich würde der Verbrauch interessieren, denn der Takt scheint immer anzulegen. Ist eigentlich Radeon untypisch. Selbst bei meiner ex-XTX ging der Takt immer mal gerne 300Mhz oder mehr in den Keller. Sprich: 3.2g eingestellt und dann ging es je Anwendung von 3.4g bis hinunter auf 2.7g. Simulationen liefen eigentlich ebenfalls durchweg stabil mit 3.4g, Spiele eher mit 2.9g im Schnitt. War ne wassergekühlte Toxic bei 463w!
raffa
2025-02-24, 21:30:58
Wieso steigt AMD auch auf den fake frame Zug?
https://videocardz.com/newz/amd-preparing-fluid-motion-frames-2-1-afmf#disqus_thread
Frame Gen ist für mich solange Nische, bis die Latenz sinkt, anstatt zu steigen. Wenn ich bei 60fps FG anmache und die 100fps sich auch so anfühlen und nicht nur schön glatt aussehen, dann wär das a feine Sach. Solange FG aber Leistung frisst und den Lag erhöht will ich das nur in Ausnahmen haben.
Frame Gen ist für mich solange Nische, bis die Latenz sinkt, anstatt zu steigen. Wenn ich bei 60fps FG anmachen und die 100fps sich auch so anfühlen und nicht nur schön glatt aussehen, dann wär das a feine sach.
Mach FG an und stell das Upsampling eine Stufe rauf -> 2-2,5 Mal so viele Fps, weniger Latenz. :biggrin:
MfG
Raff
Man braucht eben ein Gegenpart zu NV. Ob dies jemand braucht...
The_Invisible
2025-02-24, 21:38:14
Wieso steigt AMD auch auf den fake frame Zug?
https://videocardz.com/newz/amd-preparing-fluid-motion-frames-2-1-afmf#disqus_thread
Sagt hier natürlich keiner was dazu, MFG via Treiber ohne Latenzreduktion wird sicher "cool" :D
raffa
2025-02-24, 21:44:13
Mach FG an und stell das Upsampling eine Stufe rauf -> 2-2,5 Mal so viele Fps, weniger Latenz. :biggrin:
MfG
Raff
:D Es wird halt so getan, als würde FG die Perfomance erhöhen, daweil kostet es Leistung zugunsten einer zeitlichen Glättung. Das kann schon ok sein, braucht aber einen high refresh Schirm und oft Bildraten, wo man eigentlich scho koa (M)FG mehr braucht
Sagt hier natürlich keiner was dazu, MFG via Treiber ohne Latenzreduktion wird sicher "cool" :D
Wenn etwas Wahres dran ist, dann ... Ich glaube es erst, wenn ich es sehe! Ist das eigentlich RDNA4-exklusiv?
fondness
2025-02-24, 21:55:53
Sagt hier natürlich keiner was dazu, MFG via Treiber ohne Latenzreduktion wird sicher "cool" :D
Mal wieder am trollen, nett. Latenz Reduktion hat schon Version 2.0. Und AFMF ist jetzt auch nichts neues bei AMD. Das hat Nvidia kopiert.
bbott
2025-02-24, 21:58:47
Es gab doch eine News in der geschrieben wurde, dass RDNA 4 in den Linux Patches eine neue bzw. Bessere Kompression erhällt.
Dann hätte man wahrscheinlich in Sachen Kompression, Bandbreite und Speicherplatz zu NV auf geschlossen bzw. den Abstand verkürzt.
fondness
2025-02-24, 22:01:54
Es gab doch eine News in der geschrieben wurde, dass RDNA 4 in den Linux Patches eine neue bzw. Bessere Kompression erhällt.
Dann hätte man wahrscheinlich in Sachen Kompression, Bandbreite und Speicherplatz zu NV auf geschlossen bzw. den Abstand verkürzt.
Abstand verkürzt ist gut. Keine Nvidia gpu hat so wenig Bandbreite bei der Performance.
The_Invisible
2025-02-24, 22:17:18
Mal wieder am trollen, nett. Latenz Reduktion hat schon Version 2.0. Und AFMF ist jetzt auch nichts neues bei AMD. Das hat Nvidia kopiert.
Schau deine Posts mal in den NV Threads an ; )
Latenz trotzdem höher als bei AL2/Reflex und MFG bei NV wurde hier von einigen gewissen Leuten gerügt ohne Ende obwohl technisch viel besser. Aber egal, ich sehe mir den HypeTrain hier gerne mit an.
fondness
2025-02-24, 22:23:08
Schau deine Posts mal in den NV Threads an ; )
NVIDIA macht es einem aber auch leicht zurzeit :-). Normalerweise bin ich in den threads fast gar nicht X-D
basix
2025-02-24, 22:32:58
Manche würfeln da ein wenig Zeugs durcheinander:
- AFMF = Treiber FG (keine Motionvectors, deswegen schlechtere Qualität). Nvidia hat das erst bei RTX50 Release mit Smooth Motion Frames gebracht und bei AMD gibt es AFMF schon länger (Stichwort Versionsnummer, dass v2.1 bald realeased wird ;)). Reflex/AL2 kann hier auch nicht greifen, ausser es ist bereits ins Spiel integriert
- FG = Spielintegriertes FG mit 2x Faktor (siehe FSR3 und DLSS3), Reflex und AL2 integriert
- MFG = Spielintegriertes FG mit 3x / 4x Faktor (siehe DLSS4), Reflex integriert // Evtl. wird auch FSR4 MFG bieten
MFG mit AFMF ist eher unwahrscheinlich. Es fehlen einfach Informationen und die Spielintegration, damit das gut klappt. Nvidias Smooth Motion Frames ist aber da genau gleich davon betroffen.
Wo FSR4 auftrumpfen könnte (ich hoffe drauf, nicht sehr wahrscheinlich aber wenn sehr geil): Frame Extrapolation, womit der FG Latenzzuwachs eliminiert wird (abzüglich niedriger Basisframerate aufgrund der FG Performancekosten).
Das kann schon ok sein, braucht aber einen high refresh Schirm und oft Bildraten, wo man eigentlich scho koa (M)FG mehr braucht
Mit einem 120/144Hz Display ist "normales" FG mit 2x gut brauchbar, sehe da nicht so grosse Probleme. Je nach Spiel ist auch 100fps (inkl. FG) auch brauchbar und ich ziehe das 60fps ohne FG typischerweise vor, ausser es ist ein schneller Shooter.
Prinzenrolle
2025-02-24, 23:26:37
Sagt hier natürlich keiner was dazu, MFG via Treiber ohne Latenzreduktion wird sicher "cool" :D
Latenz ist nur ganz schlimm, wenn es um Nvidia geht. Ist doch klar. Für (M)FG braucht man schon Reflex, damit die Spielbarkeit nicht allzu leidet.
Der_Korken
2025-02-25, 01:07:34
Wo FSR4 auftrumpfen könnte (ich hoffe drauf, nicht sehr wahrscheinlich aber wenn sehr geil): Frame Extrapolation, womit der FG Latenzzuwachs eliminiert wird (abzüglich niedriger Basisframerate aufgrund der FG Performancekosten).
Das würde mich ehrlich gesagt sehr wundern, denn für Extrapolation braucht man eigentlich eine gute Halluzinierungsmethode, was eher für ML und somit eher für Nvidia sprechen würde. Es sei denn, es gibt irgendwelche algorithmischen Kniffe dafür. Irgendwie sowas in der Art, dass man vom nächsten Frame nur die Geometrie berechnet, damit man schon mal motion vectors hat und dann "nur" das Shading extrapoliert werden muss. Aber ich phantasiere hier nur gerade laienhaft etwas rum.
Colin MacLaren
2025-02-25, 05:42:47
Frame Gen ist für mich solange Nische, bis die Latenz sinkt, anstatt zu steigen. Wenn ich bei 60fps FG anmache und die 100fps sich auch so anfühlen und nicht nur schön glatt aussehen, dann wär das a feine Sach. Solange FG aber Leistung frisst und den Lag erhöht will ich das nur in Ausnahmen haben.
Bist Du so eine Maschine, dass Du merkst, wenn die Latenz von 11 auf 15ms steigt? Die paar Millisekunden sind der Unterschied zwischen einer Mittelklasse- und einer Highend-Klasse-Gaming Maus. Oder ein anderer Vergleich: Wenn Du keine optische oder magnetische Tastatur verwendest, ist alleine die Entprellzeit länger als die zusätzliche Latenz durch Framegen. Ich spiele selbst Mulitplayer-Shooter mit Framegen, da das Mehr an Bewegtbildschärfe das mehr als kompensiert. Solange mir Frameview etwas unter 20ms anzeigt, ist imho alles in Butter, das merke ich schlicht nicht.
crux2005
2025-02-25, 06:17:53
Bist Du so eine Maschine, dass Du merkst, wenn die Latenz von 11 auf 15ms steigt? Die paar Millisekunden sind der Unterschied zwischen einer Mittelklasse- und einer Highend-Klasse-Gaming Maus. Oder ein anderer Vergleich: Wenn Du keine optische oder magnetische Tastatur verwendest, ist alleine die Entprellzeit länger als die zusätzliche Latenz durch Framegen. Ich spiele selbst Mulitplayer-Shooter mit Framegen, da das Mehr an Bewegtbildschärfe das mehr als kompensiert. Solange mir Frameview etwas unter 20ms anzeigt, ist imho alles in Butter, das merke ich schlicht nicht.
Nur steigt die System Latenz mit FG nicht von 11 auf 15ms. Die System Latenz ist in den Fällen wo FG nicht Sinnlos ist eher 40-50ms+.
Keine Ahnung was für FPS, Monitor Refreshrate etc. du hast, aber so wie ich das verstehe bringt dir FG "nichts"*, wenn du die gleichen FPS auch ohne FG erreichen würdest (was deine Angabe von 20ms Frameview suggeriert). Aber vielleicht liege ich falsch, lasse mich gerne des besseren belehren.
*nichts positives, es kostet ja Leistung
Badesalz
2025-02-25, 06:34:55
Aber egal, ich sehe mir den HypeTrain hier gerne mit an.Ja richtig irre oder? RDNA4 zwischen 5070 und 5080 zu vermuten ist sowas von Hypertrain :ulol:
Wenn du dir noch so unsicher bist was Hypertrain eigentlich ist, dann schau dir die älteren Beiträge im Blackwell-Speku Thread an :wink: Oder halt vinci in RDNA3. Die gleiche Quali :usweet:
dargo
2025-02-25, 07:10:28
Latenz trotzdem höher als bei AL2/Reflex und MFG bei NV wurde hier von einigen gewissen Leuten gerügt ohne Ende obwohl technisch viel besser. Aber egal, ich sehe mir den HypeTrain hier gerne mit an.
Welchen Hypertrain?
Bist Du so eine Maschine, dass Du merkst, wenn die Latenz von 11 auf 15ms steigt?
Lol... was ist das denn wieder für ein kruder Vergleich? :freak: Der letzte Vergleich von NV persönlich in CP77 bezüglich Marketing lag bei 70(+)ms Latenz mit MFG + Reflex! Bei 11-15ms Systemlatenz wird sicherlich keiner meckern. :freak: Sowas dürfte schon unter der Wahrnehmungsschwelle liegen. Wenn du schon sowas schreibst bin ich fest davon überzeugt, dass du die Latenzauswirkungen von (M)FG nicht mal verstanden hast vs. no (M)FG inkl. Reflex oder AL2.
basix
2025-02-25, 07:38:58
Ja richtig irre oder? RDNA4 zwischen 5070 und 5080 zu vermuten ist sowas von Hypertrain :ulol:
5080 ist sogar zu hoch gegriffen. Die meisten wären mit 5070 Ti / 4080 Niveau sehr zufrieden ;)
Badesalz
2025-02-25, 08:01:15
Welchen Hypertrain?Du gehst da wohl noch nach den alten Maßstäben. Die wurden diesjahr erneuert.
Wenn du heute etwas von thermisch dauerhaft unverformbaren Steckverbindungen fantasierst oder nicht aufgeplatzten Bauteilen und PCBs oder von nicht teildefekten Chips oder auch nur einer annehmbaren Verfügbarkeit - und dann auch noch wenigstens zu halbwegs zivilisierten Preisen - bist du heutzutage schon auf dem Hypertrain, mit deinen kindisch utopischen Annahmen :usweet:
Es fehlt nur noch, daß du black-screen-crashes ausschließt und man wird dich direkt zum einen durchgeknallten Fanboy erklären.
Colin MacLaren
2025-02-25, 08:23:19
Nur steigt die System Latenz mit FG nicht von 11 auf 15ms. Die System Latenz ist in den Fällen wo FG nicht Sinnlos ist eher 40-50ms+.
Keine Ahnung was für FPS, Monitor Refreshrate etc. du hast, aber so wie ich das verstehe bringt dir FG "nichts"*, wenn du die gleichen FPS auch ohne FG erreichen würdest (was deine Angabe von 20ms Frameview suggeriert). Aber vielleicht liege ich falsch, lasse mich gerne des besseren belehren.
*nichts positives, es kostet ja Leistung
Mein Monitor steht in der Sig. 240Hz 4K, 480Hz 1080p. Ersteres nehme ich für Singleplayer, zweiteres für Multiplayer. Mit 400fps durch einen schnellen Shooter zu rutschen ist ein Traum. Aber auch in Singleplayerspielen macht es durchaus einen Unterschied, ob man 120 oder 200fps hat. Bei Letzteren keinen gewaltigen, aber einen sichtbaren.
GerryB
2025-02-25, 08:43:51
Ja richtig irre oder? RDNA4 zwischen 5070 und 5080 zu vermuten ist sowas von Hypertrain
5080 ist sogar zu hoch gegriffen. Die meisten wären mit 5070 Ti / 4080 Niveau sehr zufrieden ;)
Wennschon dann mal etwas differenzierter:
5070Ti-stockNiveau evtl. mit ner stark OCten 9070xt-Custom@330W+PL15% mit dann >3,5GHz
(aber die Ti lässt sich ja auch OCen, ... k.A. wo da das obere PL+Taktlimit liegt)
9070xt -Reference ala Reaper = 4070TiS wäre nice, bedeutet dann = deutlich preiswerter als ne Ti
5070@250W = 4070Ti bedeutet für mich, das ne 9070@220W gar nicht so schnell sein kann, eher <7900xt in Raster
(OCen bei Beiden bleibt abzuwarten)
Das ist auch gar nicht schlimm, wenn die 9070<5070 landet, weil dann der Preis humaner wird.
Schnitzl
2025-02-25, 08:45:18
Schau deine Posts mal in den NV Threads an ; )
Latenz trotzdem höher als bei AL2/Reflex und MFG bei NV wurde hier von einigen gewissen Leuten gerügt ohne Ende obwohl technisch viel besser. Aber egal, ich sehe mir den HypeTrain hier gerne mit an.
:facepalm:
Hat denn AMD schon was gelaunched?
nVidia schon. Und alles mögliche versemmelt. Also was willst du hier sagen?
dargo
2025-02-25, 09:44:42
Du gehst da wohl noch nach den alten Maßstäben. Die wurden diesjahr erneuert.
Wenn du heute etwas von thermisch dauerhaft unverformbaren Steckverbindungen fantasierst oder nicht aufgeplatzten Bauteilen und PCBs oder von nicht teildefekten Chips oder auch nur einer annehmbaren Verfügbarkeit - und dann auch noch wenigstens zu halbwegs zivilisierten Preisen - bist du heutzutage schon auf dem Hypertrain, mit deinen kindisch utopischen Annahmen :usweet:
Es fehlt nur noch, daß du black-screen-crashes ausschließt und man wird dich direkt zum einen durchgeknallten Fanboy erklären.
Danke für die Klarstellung. :uup: ;)
fondness
2025-02-25, 11:30:34
Nvidia muss hier noch unbedingt einen Tag vorm N48 Launch die GeForce RTX 5070 rein quetschen:
https://videocardz.com/newz/geforce-rtx-5070-reviews-coming-march-4th-with-radeon-rx-9070-reviews-the-next-day
Ich hoffe das wirkt sich nicht allzu sehr auf die Testzeit der Reviewer aus.
Dural
2025-02-25, 11:52:34
Ist doch super, da haben wir einen schönen Vergleich.
robbitop
2025-02-25, 11:57:24
Womöglich hat AMD auch sein Cachesystem endlich einmal in den Griff bekommen. Das hat AMD ja bereits seit Vega Zeiten geplagt, dass sie für dieselbe Performance immer mehr Speicherbandbreite oder Cache benötigt haben sei es der HBM mit Vega oder der IF$ bei RDNA2 (als Nvidia noch ohne den groẞen L2 auskam).
Eine 4080 kommt auch gut mit 64MB Cache und 256Bit GDDR6X aus ohne stark speicherlimitiert zu sein. Da scheint es nicht unmöglich, dass die 9070 XT das genauso schafft.
Wobei man sagen muss, dass die 4080 mit 23 gbps immerhin knapp 18% mehr Bandbreite als N48 zur Verfügung hat,
Ist doch super, da haben wir einen schönen Vergleich.
Ich kann mir lebhaft vorstellen, dass einige Tester zur Triage gezwungen werden, denn 3 Grafikkarten auf einmal ist eigentlich unmöglich.
Wobei man sagen muss, dass die 4080 mit 23 gbps immerhin knapp 18% mehr Bandbreite als N48 zur Verfügung hat,
Die rohe Transferrate spricht für die 4080S, Navi 48 hat aber eine andere Cache-Hierarchie mit insgesamt mehr Zwischenspeicher.
MfG
Raff
fondness
2025-02-25, 12:05:59
Ich kann mir lebhaft vorstellen, dass einige Tester zur Triage gezwungen werden, denn 3 Grafikkarten auf einmal ist eigentlich unmöglich.
MfG
Raff
Dann lass bitte die Nvidia-Karte links liegen, danke :D
fondness
2025-02-25, 12:18:05
Die rohe Transferrate spricht für die 4080S, Navi 48 hat aber eine andere Cache-Hierarchie mit insgesamt mehr Zwischenspeicher.
MfG
Raff
Raff du bist ja ganz schon freizügig mit den Infos. X-D Also wohl 64MB L3 "Infinity" Cache aber mehr L2 Cache.
fondness
2025-02-25, 12:22:18
AMD teases Radeon RX 9070 focusing on sub-$700 price point
https://videocardz.com/newz/amd-teases-radeon-rx-9070-focusing-on-sub-700-price-point
Wie erwartet Preis zumindest mal unter $700. Allerdings lässt das noch die Tür offen für $699 X-D
dargo
2025-02-25, 12:24:28
Die rohe Transferrate spricht für die 4080S, Navi 48 hat aber eine andere Cache-Hierarchie mit insgesamt mehr Zwischenspeicher.
Endlich mal nützliche Infos. ;)
@fondness
Wir haben eine Edit-Funktion in diesem Forum.
AMD teases Radeon RX 9070 focusing on sub-$700 price point
https://videocardz.com/newz/amd-teases-radeon-rx-9070-focusing-on-sub-700-price-point
Wie erwartet Preis zumindest mal unter $700. Allerdings lässt das noch die Tür offen für $699 X-D
Müssen wir uns jetzt Sorgen machen weil das "XT" nicht erwähnt wurde? X-D
why_me
2025-02-25, 12:24:39
Dann hoffen wir mal, dass es nicht 9070 non XT für 699$ wird.
robbitop
2025-02-25, 12:32:11
Raff du bist ja ganz schon freizügig mit den Infos. X-D Also wohl 64MB L3 "Infinity" Cache aber mehr L2 Cache.
Aber er sagt doch nichts von mehr L2 Cache? Er sagt, dass AMD eine Cachezwischenstufe mehr hat.
AD102 hat die 64 MiB L2 und zB die 7900GRE hatte 6 MiB L2 + 64 MiB L3 bzw die 7800 XT hatte 4 MiB L2 + 64 MiB L3. Entsprechend hat man mehr Zwischenspeicher auch ohne eine L2 Vergrößerung.
Habe ich was überlesen oder womit schreibt er, dass N48 L2 größer geworden ist?
The_Invisible
2025-02-25, 12:32:34
AMD teases Radeon RX 9070 focusing on sub-$700 price point
https://videocardz.com/newz/amd-teases-radeon-rx-9070-focusing-on-sub-700-price-point
Wie erwartet Preis zumindest mal unter $700. Allerdings lässt das noch die Tür offen für $699 X-D
Was ist jetzt an 50$ weniger als 5070Ti so toll :freak:
dargo
2025-02-25, 12:34:00
Was ist jetzt an 50$ weniger als 5070Ti so toll :freak:
Steht kein Nvidia drauf! Das ist mir sogar 50$ Aufpreis wert.
fondness
2025-02-25, 12:36:15
Was so toll sein soll?
https://i.postimg.cc/RV2YnVJ6/image.png (https://postimages.org/)
;D
fondness
2025-02-25, 12:37:23
Aber er sagt doch nichts von mehr L2 Cache? Er sagt, dass AMD eine Cachezwischenstufe mehr hat.
AD102 hat die 64 MiB L2 und zB die 7900GRE hatte 6 MiB L2 + 64 MiB L3 bzw die 7800 XT hatte 4 MiB L2 + 64 MiB L3. Entsprechend hat man mehr Zwischenspeicher auch ohne eine L2 Vergrößerung.
Habe ich was überlesen oder womit schreibt er, dass N48 L2 größer geworden ist?
Du hast natürlich Recht, aber nachdem er es extra erwähnt dachte ich da instinktiv an eine Änderung/Verbesserung. Zumal man L2 und L3 natürlich nicht zusammen zählen kann.
The_Invisible
2025-02-25, 12:40:55
Steht kein Nvidia drauf! Das ist mir sogar 50$ Aufpreis wert.
Hab gedacht AMD will Marktanteile holen und nicht bei 10% bleiben :freak:
robbitop
2025-02-25, 12:44:51
Nachtrag: unter der Annahme dass Cachemissrate bei einer Verdopplung um Wurzel 2 sinkt, sind Erhöhungen des L2 Caches selbst bei einer Verdopplung ausgehend von N32 von 4 MiB auf 8 Mib doch sicherlich nur klein. Klar L2 hat kürzere Latenz und sicherlich auch mehr Bandbreite. Aber wenn einfach die Gesamthitrate der Flaschenhals ist, bringt beides nicht so viel. Also dann statt 64+4 MiB also 68 MiB bei einer Verdopplung dann 64+8 MiB = 72 MiB. Da käme man dann auf eine Senkung der Missrate auf ~2,5%. Würde man die Gesamtcachegröße noch wesentlich deutlicher erhöhen wollen wäre es wahrscheinlich effizienter das beim IF$ zu tun. Bei einem Nachteil von ~18% VRAM Bandbreite erscheint mir das nicht wesentlich genug.
Ich weiß nicht, wie viel stärker es wiegt dass L2 schneller ist als der L3 - aber ob das die 18% ausgleichen sollte? Zumindest für mich sehr schwer vorstellbar.
Ich vermute eher, dass wenn der L2 Cache größer wird, ist das nur ein Puzzleteil von mehreren. :) (zB wurde verbesserte Kompression erwähnt)
Du hast natürlich Recht, aber nachdem er es extra erwähnt dachte ich da instinktiv an eine Änderung/Verbesserung. Zumal man L2 und L3 natürlich nicht zusammen zählen kann.
Kann man nicht - aber in ganz grober Näherung bei einem Victim Cache ist es sicherlich nicht zu extrem daneben. Insbesondere wenn Latenz und Bandbreite der Caches nicht unbedingt der bottleneck sind sondern die Hitrate um VRAM Zugriffe zu sparen. Aber ja richtig ist es nicht.
dargo
2025-02-25, 12:48:40
Hab gedacht AMD will Marktanteile holen und nicht bei 10% bleiben :freak:
Nvidia vernichtet sich gerade selbst mit Blackwell. Da muss AMD nicht aggressiv RDNA4 bepreisen.
robbitop
2025-02-25, 12:51:51
Solange die Straßenpreislücke ordentlich klafft ist die MSRP gar nicht mehr soo wichtig denke ich. Und wenn sich da bei BW nichts tut wird das so sein. :)
dargo
2025-02-25, 12:52:42
Nachtrag: unter der Annahme dass Cachemissrate bei einer Verdopplung um Wurzel 2 sinkt, sind Erhöhungen des L2 Caches selbst bei einer Verdopplung ausgehend von N32 von 4 MiB auf 8 Mib doch sicherlich nur klein. Klar L2 hat kürzere Latenz und sicherlich auch mehr Bandbreite. Aber wenn einfach die Gesamthitrate der Flaschenhals ist, bringt beides nicht so viel. Also dann statt 64+4 MiB also 68 MiB bei einer Verdopplung dann 64+8 MiB = 72 MiB. Da käme man dann auf eine Senkung der Missrate auf ~2,5%. Würde man die Gesamtcachegröße noch wesentlich deutlicher erhöhen wollen wäre es wahrscheinlich effizienter das beim IF$ zu tun. Bei einem Nachteil von ~18% VRAM Bandbreite erscheint mir das nicht wesentlich genug.
Du hast hier schon einen Denkfehler mit der Annahme eine 4080 würde an Bandbreite verhungern. Daraus kommen dann so seltsame Schlussfolgerungen auf N48. Der Übergang von zu wenig Bandbreite zu relativ gut ausgewogen bis hin zu zu viel Bandbreite ist fließend, da gibt es keine harten Cuts.
btw.
"Zu viel" Bandbreite ist wirtschaftlich auch nicht klug.
stinki
2025-02-25, 13:00:09
$699 und damit ~800€ wären zwar das Maximum das ich erwartet hätte und schon echt Schmerzgrenze für mich, aber wenn man die Karten dann auch für 800€ kaufen kann, wären das noch immer mehr als 200€ weniger als man momentan für eine 5070Ti bei Mindfactory hinlegen muss.
robbitop
2025-02-25, 13:00:21
Das ist schon klar und war vereinfacht ausgedrückt. Und AD103 ist nur ein Referenzpunkt weil er relativ viel Performance aus dem 64 MiB L2 herausgeholt hat und ja hier der Zweifel bestand, dass N48 eine sehr große Performancesteigerung erzielen muss ohne die Bandbreite ausgehend von RDNA3 (zB der GRE) zu steigern.
Und AD103 hat nochmal 18% mehr VRAM Bandbreite als N48. Und bereits die GRE war angeblich schon um einiges in dem Übergangsbereich der Bandbreitenlimitierung.
dildo4u
2025-02-25, 13:01:57
$699 und damit ~800€ wären zwar das Maximum das ich erwartet hätte und schon echt Schmerzgrenze für mich, aber wenn man die Karten dann auch für 800€ kaufen kann, wären das noch immer mehr als 200€ weniger als man momentan für eine 5070Ti bei Mindfactory hinlegen muss.
Du kannst bei AMD 1 zu 1 vom US Preis umrechnen.
7800XT sind z.b 500€/$
dargo
2025-02-25, 13:15:05
$699 und damit ~800€ wären zwar das Maximum das ich erwartet hätte und schon echt Schmerzgrenze für mich, aber wenn man die Karten dann auch für 800€ kaufen kann, wären das noch immer mehr als 200€ weniger als man momentan für eine 5070Ti bei Mindfactory hinlegen muss.
Ich weiß, diese Preisdiskussionen nerven. Aber 800€ Straßenpreis bei einer RX 9070XT bringt den PC-Gaming Markt nicht nach vorne. Das wäre wieder eine Sackgasse. (no) Nicht vergessen... ein zu teurer N48 wird auch den Preis vom N44 nach oben ziehen.
Dino-Fossil
2025-02-25, 13:25:28
Eigentlich sollten sich die Karten preislich eher an der UVP der 7800er Serie orientieren, da man sie am ehesten als deren Ersatz im Portfolio ansehen könnte. Daher wären max 600€ UVP eigentlich wünschenswert, wenn man Verbesserungen beim P/L sehen will.
Edit: Und vor nicht allzulanger Zeit hätte man die Karten unter 400-450 € positioniert.
fondness
2025-02-25, 13:35:38
$699 und damit ~800€ wären zwar das Maximum das ich erwartet hätte und schon echt Schmerzgrenze für mich, aber wenn man die Karten dann auch für 800€ kaufen kann, wären das noch immer mehr als 200€ weniger als man momentan für eine 5070Ti bei Mindfactory hinlegen muss.
Niemand weiß aktuell den Verkaufspreis. Auch die Medien unter NDA nicht. AMD hat ihn noch nicht veröffentlicht. Dieser wird zum erste mal am 28. bei dem live Event präsentiert. Die Folie sagt erst mal nur "85% der Gamer kaufen GPUs <$700", mit dem Nachsatz "Focus on what gamers want". Ergo alles >=$700 kann man ausschließen, den Rest wird man sehen. Worst case ist $699 für die 9070XT, kann aber auch weniger werden.
fizzo
2025-02-25, 13:42:38
Der Preis der 5070 ist mit 650€ UVP gesetzt. Die 9070 wird sich preislich darunter platzieren. Ich sehe ca. 600€ als maximal vertretbar an. Kann mir daher nicht vor vorstellen, dass bei der XT nochmal 200€ dazukommen. Dazu ist der Leistungsunterschied imho zu gering.
Ich denke da man es mit der 79GRE verglich, vermutlich um zu zeigen was man fürs selbe Geld jetzt bekommt.
Ist schlüssig und würde wirklich Bewegung in den Markt bringen!
Hakim
2025-02-25, 13:43:43
Ich denke da man es mit der 79GRE verglich, vermutlich um zu zeigen was man fürs selbe Geld jetzt bekommt.
Dino-Fossil
2025-02-25, 13:51:08
Plausibel, die gab es für 550$ UVP, wenn ich mich nicht täusche. Nur können ja nicht beide Karten diesen Preis haben. Wäre es die 9070, hätte man auch nur magere + 20-25% Verbesserung im P/L (Raster bzw. RT). Nicht gerade überragend für eine neue Generation (zumal wenn der Vorgänger eher durchwachsen aufgenommen wurde), wenngleich nVidia momentan sogar noch schlechter daherkommt.
Wäre es auf die XT bezogen sähe es natürlich deutlich besser aus. Aber genauso könnte es ein Preis nahe der GRE werden (z.B. 500$ und 600$), bzw. könnte man Software-Features als Argumente auffahren. Da wäre wohl vor allem FSR4 dabei - hat nVidia ja genauso gemacht.
Hakim
2025-02-25, 14:10:02
Gab es Gerüchte bezüglich FSR4 auf spielen anzuwenden die FSR3.1 haben? Also sowas wie das override bei Nvidia mit DLSS4 mit deren App.
YeahBuoy!
2025-02-25, 14:15:59
Ich denke da man es mit der 79GRE verglich, vermutlich um zu zeigen was man fürs selbe Geld jetzt bekommt.
Naja, die 7900 GRE gabs selbst kurz nach Release als Partnerkarte für ~600 €. Wenn die 9070 (non XT) für um die 700 € und nur leicht besserer Performance daherkommt wäre das schon iwie ernüchternd. Mal sehen was die Preise am Ende sagen. Irgendwer hatte mal geschrieben das Ingram Micro, Tech Data, Wave und Co. die Preise bis zuletzt als Platzhalter drin haben da sich die OEMs die Flexibilität bis zur letzten Sekunde offen halten wollen.
Hakim
2025-02-25, 14:22:53
Man hatte ja beide Karten mit der 79GRE verglichen. Vielleicht da man mit der 9070 auf den ähnlich oder leicht darunter steht, ausgehend von 550$ UVP, 500-550$ und mit der XT etwas darüber, 600-650$, mal sehen.
DrFreaK666
2025-02-25, 14:27:34
Gab es Gerüchte bezüglich FSR4 auf spielen anzuwenden die FSR3.1 haben? Also sowas wie das override bei Nvidia mit DLSS4 mit deren App.
Nein, aber es gibt eine offizielle AMD-Folie, die genau das gesagt hat
BavarianRealist
2025-02-25, 14:34:27
699$ oder 679$ macht Sinn für die 9070XT:
Andernfalls wären doch die Abverkaufspreise für die 7900XT(X) weit niedriger....sind sie aber nicht, weil die Neuen dann bei uns ab ca. 699€ und ab 850€ kosten dürften.
DrFreaK666
2025-02-25, 15:36:53
AMD wird am Freitag wie immer nur US-Preise nennen
w0mbat
2025-02-25, 15:37:20
AMD darf nicht den Fehler machen und die 9070 XT zu nah an der 5070 Ti bepreisen. UVP hier in Deutschland für die 5070 Ti ist 879€. Selbst wenn man in Raster schneller ist und in RT nicht weit zurück liegt muss man ein gutes Stück günstiger sein, um z.B. DLSS auszugleichen.
$549 MSRP für die XT wären in etwas eine UVP von 649€, d.h. Karten wie die Nitro+ würden um die 750€ kosten. Das ist genug Abstand um es sich zu überlegen. Wenn die guten Karten aber über 800€ kosten, macht eine günstige 5070 Ti (sobald die Verfügbarkeit gegeben ist) mMn deutlich mehr Sinn. Einfach wegen dem Nvidia Ökosystem.
fondness
2025-02-25, 15:44:58
AMD darf nicht den Fehler machen und die 9070 XT zu nah an der 5070 Ti bepreisen. UVP hier in Deutschland für die 5070 Ti ist 879€. Selbst wenn man in Raster schneller ist und in RT nicht weit zurück liegt muss man ein gutes Stück günstiger sein, um z.B. DLSS auszugleichen.
$549 MSRP für die XT wären in etwas eine UVP von 649€, d.h. Karten wie die Nitro+ würden um die 750€ kosten. Das ist genug Abstand um es sich zu überlegen. Wenn die guten Karten aber über 800€ kosten, macht eine günstige 5070 Ti (sobald die Verfügbarkeit gegeben ist) mMn deutlich mehr Sinn. Einfach wegen dem Nvidia Ökosystem.
Naja, wenn FSR4 überzeugt und die RayTracing-Leistung passt (beides sieht gut aus), muss man das auch nicht übertreiben mit dem "Nvidia-Ökosystem".
Dino-Fossil
2025-02-25, 15:48:11
Da es keine Referenzkarten geben soll, könnte AMD die UVP auch etwas niedriger ansetzen und die Hersteller können sich austoben. Real wird die UVP dann halt kaum mal zu sehen sein.
w0mbat
2025-02-25, 15:56:56
Naja, wenn FSR4 überzeugt und die RayTracing-Leistung passt (beides sieht gut aus), muss man das auch nicht übertreiben mit dem "Nvidia-Ökosystem".
DLSS wird aber viel breiter unterstützt. Es gibt viele Spiele nur mit DLSS oder wenn dann mit FSR1 oder so. AMD muss über den Preis kommen.
fondness
2025-02-25, 15:59:28
DLSS wird aber viel breiter unterstützt. Es gibt viele Spiele nur mit DLSS oder wenn dann mit FSR1 oder so. AMD muss über den Preis kommen.
Das kann man mittlerweile alles mittels Tools injecten sobald DLSS-support da ist.
The_Invisible
2025-02-25, 16:09:18
Das kann man mittlerweile alles mittels Tools injecten sobald DLSS-support da ist.
Das erste Mal das du einen Vorteil bei Nvidia zugibst, auch wenn nur indirekt :up:
fondness
2025-02-25, 16:14:33
Das erste Mal das du einen Vorteil bei Nvidia zugibst, auch wenn nur indirekt :up:
Hm?
prinz_valium_2
2025-02-25, 16:16:23
699$ oder 679$ macht Sinn für die 9070XT:
Denke ich auch
9070 dann für $549 bis $599
Hoffe die Europreise werden nicht zu brutal. Aber selbst 799€ ist eigentlich viel zu viel für mich. Ich will wieder gute 300€ Grafikkarten
Hakim
2025-02-25, 16:20:42
Die meisten kaufen Nvidia wegen den Namen und sind auch bereit mehr für zu bezahlen. Die meisten können vermutlich nicht genau sagen was der Unterschied zwischen DLSS und FSR ist, aber haben gesagt bekommen das DLSS besser ist. Dazu kommt auch die Bequemlichkeit wenn man eine Nvidia Karte hatte will man sich nicht umstellen. Ich denke auch das wenn der Preis zu nahe dran ist, es nicht ausreichen würde.
robbitop
2025-02-25, 16:27:54
Der breite Markt besteht aber wahrscheinlich auch aus vielen die nicht wissen wie man injected (oder darauf keine Lust haben). Und bei vielen wirkt eben auch der Mindshare und die Reputation. Und das dauert bis man das grundlegend ändern kann. Siehe Epyc und Ryzen welche überlegene Produkte seit Jahren sind und noch immer nicht überall den größten Marktanteil haben.
Ich denke auch dass die Preisdifferenz relativ groß sein muss um potenzielle Käufer umzustimmen. Noch. Wenn man eine Weile konstant abliefert für ein paar Jahre kann man diesen Nachteil abbauen aber das dauert.
dllfreak2001
2025-02-25, 16:57:22
Ich hoffe FSR4 liefert auch bei Transparenzen ordentlich ab, denn wenn ich mit FSR3.1 in CP2077 sehe wie das Schnapsglas in der Hand meiner virtuellen Torte bei Bewegung zur Geistererscheinung mutiert wird mir übel. ;D
Ich finde aber auch DLSS rotzig, eigentlich wird im Hintergrund selbst auf High alles totgematscht und die temporale Komponente erzeugt bei mir den gleichen Würgereiz wie bei FSR. Indoor in dunklen Szenen ist das geradezu unerträglich.
Ich hoffe FSR4 liefert auch bei Transparenzen ordentlich ab, denn wenn ich mit FSR3.1 in CP2077 sehe wie das Schnapsglas in der Hand meiner virtuellen Torte bei Bewegung zur Geistererscheinung mutiert wird mir übel. ;D
Ich finde aber auch DLSS rotzig, eigentlich wird im Hintergrund selbst auf High alles totgematscht und die temporale Komponente erzeugt bei mir den gleichen Würgereiz wie bei FSR. Indoor in dunklen Szenen ist das geradezu unerträglich.
Und ich dachte, es geht nur mir so, danke!
fondness
2025-02-25, 17:36:41
Achtung DLSS darf man hier nicht kritisieren, gleich geht wieder der Flamewar los. ;D
basix
2025-02-25, 17:41:33
Das kann man mittlerweile alles mittels Tools injecten sobald DLSS-support da ist.
Ob AMD hier evtl. ein Treiber-Tool für das bereitstellt (DLSS to FSR swap)? Das wäre ein riesen Feature für Leute mit AMD-Karten.
Klar gehen auch externe Tools aber das können und wollen nicht alle Leute machen.
Achtung DLSS darf man hier nicht kritisieren, gleich geht wieder der Flamewar los. ;D
Das aktuelle DLSS ist ganz objektiv besser als FSR 1, 2 oder 3 (alle zusammen ;)). Da kann man flamen und sich drumherum wuseln, es ändert nichts an den Tatsachen.
MfG
Raff
fondness
2025-02-25, 17:49:57
Das aktuelle DLSS ist ganz objektiv besser als FSR 1, 2 oder 3. Da kann man flamen und sich drumherum wuseln, es ändert nichts an den Tatsachen.
MfG
Raff
Hat auch niemand bestritten und war auch nicht meine Aussage. Aber ich wusste, dass da sofort jemand drauf anspringt ;D
Wer Quatsch säht, wird Quatschsturm ernten. Oder so. Man kann sich Quatsch auch einfach sparen. :)
MfG
Raff
fondness
2025-02-25, 17:53:02
Wer Quatsch säht, wird Quatschsturm ernten. Oder so. Man kann sich Quatsch auch einfach sparen. :)
MfG
Raff
Quatsch? Ich habe gesagt, dass man DLSS hier nicht kritisieren darf, und du hast mich bestätigt. ;)
Weil es Quatsch ist. Man kann DLSS natürlich kritisieren, aber das ist halt wieder diese Diskussion um Splitter bei anderen, während man den eigenen Balken im Auge nicht bemerkt. ;)
MfG
Raff
fondness
2025-02-25, 17:54:21
Weil es Quatsch ist.
MfG
Raff
Aha. :D Nagut ich muss jetzt eh weg, schönen Abend. :)
GerryB
2025-02-25, 18:37:33
Raff hat wohl freie Spitzen?
zumindestens könnte Er schon mal die 70er-Konkurrenz testen, dann hat Er nicht so nen Stau beim Test von N48
Hakim
2025-02-25, 18:40:37
naja während der minutenlangen Benchmarks hat man doch nichts zu tun, Zeit für Kaffe, WC gang und Kommentare in Foren :)
Schnitzl
2025-02-25, 19:24:33
Weil es Quatsch ist. Man kann DLSS natürlich kritisieren, aber das ist halt wieder diese Diskussion um Splitter bei anderen, während man den eigenen Balken im Auge nicht bemerkt. ;)
MfG
Raff
?
also darf man DLSS nicht kritisieren nur weil FSR schlechter ist?
Macht für mich kein Sinn
Mal ganz abgesehen davon, dass AMD deutlich weniger Geldmittel und Manpower hat, das wird ja auch immer "totgeschwiegen"...
basix
2025-02-25, 19:31:07
Eh, Raff schreibt "Man kann DLSS natürlich kritisieren" und für dich heisst das "also darf man DLSS nicht kritisieren"?
Er hat lediglich gesagt, dass DLSS besser abschneidet, als FSR 1, 2 und 3, was auch stimmt, FG ausgenommen, denn dies ist auf NV kompletter Schrott. Trotzdem ist es weit weg von perfekt und die Texturen matschen in der Ferne ordentlich.
madzapp
2025-02-25, 19:42:27
Wie es scheint, ist es echt Zeit für neue Fakten. :wink:
BavarianRealist
2025-02-25, 19:43:33
Ein Boost-Takt von 2970 Mhz mit TDP=304W für ein Referenz-Design, das gar nicht angeboten wird??? Das sind doch dann eigentlich eher ziemlich fiktive Werte, oder? Wer wird einen Boost-Takt von 2970Mhz machen, wenn man die 3Ghz ohne großen Aufwand überbieten kann?
Ähnliches gilt für das Referenz-Desing für 9070, das man mit einer TDP=220W ansetzt...wer wird nur 220W in seinem Design ansetzen, wenn er ohne Aufwand bei z.B. 260W dann statt 2520Mhz vielleicht 2800Mhz bieten kann?
Diese "Refernz-Designs" dienen bestenfalls für die Hersteller-Benchmarks am 28.02., die dann von den Custom-Designs hoffentlich weit überboten werden.
Hat AMD womöglich die Werte für die "Referenz-Desings" so niedrig gewählt, damit die Hersteller dann die recht niedrigen MSRPs nach Lust und Laune einfach deutlich überbieten können?
Ein Boost-Takt von 2970 Mhz mit TDP=304W für ein Referenz-Design, das gar nicht angeboten wird??? Das sind doch dann eigentlich eher ziemlich fiktive Werte, oder? Wer wird einen Boost-Takt von 2970Mhz machen, wenn man die 3Ghz ohne großen Aufwand überbieten kann?
Ähnliches gilt für das Referenz-Desing für 9070, das man mit einer TDP=220W ansetzt...wer wird nur 220W in seinem Design ansetzen, wenn er ohne Aufwand bei z.B. 260W dann statt 2520Mhz vielleicht 2800Mhz bieten kann?
Diese "Refernz-Designs" dienen bestenfalls für die Hersteller-Benchmarks am 28.02., die dann von den Custom-Designs hoffentlich weit überboten werden.
Hat AMD womöglich die Werte für die "Referenz-Desings" so niedrig gewählt, damit die Hersteller dann die recht niedrigen MSRPs nach Lust und Laune einfach deutlich überbieten können?
Ich denke ne Reaper könnte mit dem 2. VBios auch nur die lediglich 263W anbieten, wenn sie ein Dual-Bios besitzt.
horn 12
2025-02-25, 20:14:00
PowerColor Reaper hat nur ein Bios
zudem wohl die Billige Referenz Karte und die ganzen Klopper plus 70 bis 120 Euro an Aufpreis!
naja während der minutenlangen Benchmarks hat man doch nichts zu tun, Zeit für Kaffe, WC gang und Kommentare in Foren :)
Meine Benchmarks sind alle handgebaut, da ist nichts automatisiert - inklusive Live-Plausibilitäts- und Bildqualitätscheck. Zeit für Spam habe ich nur in den leider immer öfter von Spielen vollzogenen Shader-Compiling-Phasen. Da vermisse ich den 24-Kerner sehr. Ohne Lade-/Wartezeiten wäre es viel einfacher, die 20+15+8 Tests durchzucrunchen.
Ein Boost-Takt von 2970 Mhz mit TDP=304W für ein Referenz-Design, das gar nicht angeboten wird??? Das sind doch dann eigentlich eher ziemlich fiktive Werte, oder? [...]
Für jede Grafikkarte gibt es eine Baseline-Spezifikation, die dann idR von MSRP=UVP-Designs verwendet wird.
... Black Myth ist fertig.
MfG
Raff
raffa
2025-02-25, 20:24:31
Und das Ergebnis? :D
Die Reaper gefällt mir, aber als 9070, ohne XT. 220W (-x mit uv und takt-/powerlimit) sollte das Design prima kühlen. 304 eher nicht.
Meine Benchmarks sind alle handgebaut, da ist nichts automatisiert - inklusive Live-Plausibilitäts- und Bildqualitätscheck. Zeit für Spam habe ich nur in den leider immer öfter von Spielen vollzogenen Shader-Compiling-Phasen. Da vermisse ich den 24-Kerner sehr. Ohne Lade-/Wartezeiten wäre es viel einfacher, die 20+15+8 Tests durchzucrunchen.
Für jede Grafikkarte gibt es eine Baseline-Spezifikation, die dann idR von MSRP=UVP-Designs verwendet wird.
... Black Myth ist fertig.
MfG
Raff
Wenn ihr bereits Karten erhalten habt, dann würde mich der Treiberstatus interessieren. AMD-typisch ist ja eigentlich, dass nochmals ein neuer Treiber, bzw. VBios rausgehauen wird. So ca. 3 Tage vor Veröffentlichung des Reviews...
The_Invisible
2025-02-25, 20:43:18
FG ausgenommen, denn dies ist auf NV kompletter Schrott.
Wo hast den Unsinn wieder her, FSR-FG hat ja noch immer kein AL2 als Vorraussetzung, wie kann das dann nicht Schrott sein :freak:
... Black Myth ist fertig.
MfG
Raff
In RT/PT? Allein das Ergebnis würd mich interessieren ;)
Prinzenrolle
2025-02-25, 20:51:26
Er hat lediglich gesagt, dass DLSS besser abschneidet, als FSR 1, 2 und 3, was auch stimmt
DLSS 4 Performance auf dem Niveau von FSR 3.1 Native (4K). Also darf man gespannt sein ob AMD aus dem Loch mit FSR raus kommt.Wäre sehr dringend.
Wo hast den Unsinn wieder her, FSR-FG hat ja noch immer kein AL2 als Vorraussetzung, wie kann das dann nicht Schrott sein :freak:
In RT/PT? Allein das Ergebnis würd mich interessieren ;)
Ich habe eine NV-Karte verbaut...
raffa
2025-02-25, 21:36:07
Ich freu mich auf das PCGH Video zum Test. (Frei nach Bloch von automotorsport): Das wird gut!
Ravenhearth
2025-02-25, 21:54:01
AMD teases Radeon RX 9070 focusing on sub-$700 price point
https://videocardz.com/newz/amd-teases-radeon-rx-9070-focusing-on-sub-700-price-point
Wie erwartet Preis zumindest mal unter $700. Allerdings lässt das noch die Tür offen für $699 X-D
$599 für die XT sind mMn damit gestorben. Wenn sie das vorhätten, würden sie nicht mit <$700 werben, sondern gleich mit <$600. Ich denke aber auch nicht, dass sie auf $699 gehen. $649 für die XT und $549 für die non-TX halte ich für wahrscheinlich.
Palpatin
2025-02-25, 22:23:16
Mal ganz abgesehen davon, dass AMD deutlich weniger Geldmittel und Manpower hat, das wird ja auch immer "totgeschwiegen"...
Mittlerweile schwimmt auch AMD im Geld. Klar der Geldspeicher ist kleiner als bei Onkel Dagobert Huang aber Geldmittel um die entsprechende Manpower einzukaufen sollten mittlerweile Genug da sein, selbiges gilt für das Marketing (hust). ;) Ja, 2018 war das noch anders.
In RT/PT? Allein das Ergebnis würd mich interessieren ;)
Wukong ist einer der acht Pathtracing-Tests (https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/).
Hyped. =)
MfG
Raff
M4xw0lf
2025-02-25, 22:30:39
Aaaah dieses Geteasere immer :ubash2:
ChaosTM
2025-02-25, 22:33:02
Du solltest nicht hyped sein, sondern höchstens erregt.. :)
Ok, Wukong dürfte schon mal gut laufen, und das ist einer der bösesten RT/PT Titeln bezüglich FPS Absaugung vs. normaler Rasteriesierung..
robbitop
2025-02-25, 22:39:45
Wenn man so viele Transistoren für 64 CUs investiert hat sollte da auch bei RT richtig was rumkommen. :)
Nakai
2025-02-25, 23:13:32
War es nicht immer so, dass selbst das Reden darüber, dass man eine Karte zum Testen hat, bereits ein NDA-Bruch wäre? :wink:
Ich glaube langsam immer mehr, dass AMD sich kein Gefallen getan hat, kein großen RNDA4 auf den Markt gebracht zu haben.
fondness
2025-02-25, 23:23:55
Das war ja keine freiwillige Entscheidung sondern eine Notwendigkeit wegen packaging Kapazitätsmangel.
Nakai
2025-02-26, 00:07:34
Das war ja keine freiwillige Entscheidung sondern eine Notwendigkeit wegen packaging Kapazitätsmangel.
Wenn es um MCMs geht, stimme ich dir zu. Bei reinen Packaging Kapazitäten eher nicht. N31 und N32 sind EOL. Und deren Packaging war deutlich aufwändiger. Ein größerer RDNA4 würde nicht die Stückzahlen von N48 haben.
Wenn RDNA4 so gut wird, wie man es erwartet, dann wäre ein großer RDNA4 etwa auf 4090-Niveau.
Prinzenrolle
2025-02-26, 00:16:41
Hyped. =)
Komisch. Wie soll man das nun interpretieren.
GerryB
2025-02-26, 00:17:24
Wenn RDNA4 so gut wird, wie man es erwartet, dann wäre ein großer RDNA4 etwa auf 4090-Niveau.
Niemand braucht/kauft eine 600W-AMD-Graka für 3k€.
btw.
Nach m.E. wird sich zeigen, das AMD in der Effizienz immer noch zurück liegt und daher
erstmal nicht mit großen Chips hantieren sollte.
Eigentlich schon erstaunlich, jetzt mit 3x 8pin für ne Midrange XT.
Hoffentlich gibts auch Referenz-Reaper XT o.ä. mit 2x 8pin.
Prinzenrolle
2025-02-26, 00:18:45
War es nicht immer so, dass selbst das Reden darüber, dass man eine Karte zum Testen hat, bereits ein NDA-Bruch wäre? :wink:
Ja.
bbott
2025-02-26, 00:32:37
Das aktuelle DLSS ist ganz objektiv besser als FSR 1, 2 oder 3 (alle zusammen ;)). Da kann man flamen und sich drumherum wuseln, es ändert nichts an den Tatsachen.
MfG
Raff
Ich denke es war eher an die Kollegen gerichtet die schreiben, dass inzwischen DLSS (fast) immer besser als Nativ ist...
Das FSR besser als DLSS habe in letzter Zeit keinen mehr schreiben sehen?!
Nakai
2025-02-26, 00:51:02
Niemand braucht/kauft eine 600W-AMD-Graka für 3k€.
btw.
Nach m.E. wird sich zeigen, das AMD in der Effizienz immer noch zurück liegt und daher
erstmal nicht mit großen Chips hantieren sollte.
Eigentlich schon erstaunlich, jetzt mit 3x 8pin für ne Midrange XT.
Hoffentlich gibts auch Referenz-Reaper XT o.ä. mit 2x 8pin.
Unsinn. Die 9070XT ist völlig überprügelt. Eigentlich hätte es da einen Chip drüber gebraucht. Selbst mit 256 Bit + schnellerem Speicher + doppelten LLC als N48 könnte man 96CUs gut durchfüttern. Als Basis einer Watt-Berechnung nimmt man eher 275 W an. Wir sprechen eher von 400W.
€: RDNA4 hat ordentlich Perf/Watt auf Rnda3 draufgelegt. Da kann man gerne auch N31 als Basis nehmen und dann dementsprechend nach oben skalieren. Da würde man wohl sogar noch unter 500mm2 rauskommen.
DrFreaK666
2025-02-26, 03:15:28
AMD announces Ryzen 9000/7000 and Radeon 7000 “Monster Hunter Wilds” game bundle
https://videocardz.com/pixel/amd-announces-ryzen-9000-7000-and-radeon-7000-monster-hunter-wilds-game-bundle
Vielleicht kann man sich den Preis etwas schönreden ^^
edit: RDNA4 ist (noch nicht?) auf der Liste
crux2005
2025-02-26, 03:16:52
28.2. 2pm CET Wer hat das Zeitfenster ausgewählt? :D
https://videocardz.com/pixel/amd-announces-ryzen-9000-7000-and-radeon-7000-monster-hunter-wilds-game-bundle
Vielleicht kann man sich den Preis etwas schönreden ^^
edit: RDNA4 ist (noch nicht?) auf der Liste
Meh, können sie behalten.
DrFreaK666
2025-02-26, 04:35:25
Für 40€ oder so bekommt man den Code los -> effektiv niedrigerer Kaufpreis
crux2005
2025-02-26, 04:38:36
Für 40€ oder so bekommt man den Code los -> effektiv niedrigerer Kaufpreis
Ich denke nicht das AMD Codes vergibt sondern die Spiele per verlinkung aktiviert. In diesem Fall müsste der Käufer dir also seine Steam Login Daten geben. :freak:
dargo
2025-02-26, 06:48:55
Mittlerweile schwimmt auch AMD im Geld. Klar der Geldspeicher ist kleiner als bei Onkel Dagobert Huang aber Geldmittel um die entsprechende Manpower einzukaufen sollten mittlerweile Genug da sein, selbiges gilt für das Marketing (hust). ;) Ja, 2018 war das noch anders.
Schlaue Köpfe im Bereich Software fallen nicht einfach so vom Himmel von heute auf morgen. :)
Wukong ist einer der acht Pathtracing-Tests (https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/).
Hyped. =)
Ok... ich lese hier raus, dass N48 selbst mit PT konkurrenzfähig ist bzw. deutlich vs. ältere Radeon Generationen zulegt. Mir ist das zwar wurscht (viel zu hohe Kosten noch), aber danke für diese Häppsche. ;)
Wenn es um MCMs geht, stimme ich dir zu. Bei reinen Packaging Kapazitäten eher nicht. N31 und N32 sind EOL. Und deren Packaging war deutlich aufwändiger. Ein größerer RDNA4 würde nicht die Stückzahlen von N48 haben.
Wenn RDNA4 so gut wird, wie man es erwartet, dann wäre ein großer RDNA4 etwa auf 4090-Niveau.
Und würde dann trotzdem ~450W saufen, gähn. Wobei eventuell auch <400W möglich gewesen wären wenn nicht so hoch "geprügelt" wie N48XT.
btw.
Nach m.E. wird sich zeigen, das AMD in der Effizienz immer noch zurück liegt und daher
erstmal nicht mit großen Chips hantieren sollte.
Bei diesem Punkt glaube ich das nicht wenn sich die 56CUs an einem 256Bit SI mit 220W bewahrheiten.
Ich denke nicht das AMD Codes vergibt sondern die Spiele per verlinkung aktiviert. In diesem Fall müsste der Käufer dir also seine Steam Login Daten geben. :freak:
Man merkt direkt, dass du noch nie ein von AMD "beigelegtes" Game aktiviert hast. Du musst über AMD den Gamecode anfordern, danach kannst du den wieder veräußern da er noch nicht an ein Spielkonto gebunden ist.
crux2005
2025-02-26, 07:20:03
Man merkt direkt, dass du noch nie ein von AMD "beigelegtes" Game aktiviert hast. Du musst über AMD den Gamecode anfordern, danach kannst du den wieder veräußern da er noch nicht an ein Spielkonto gebunden ist.
Du reimst dir wieder Sachen zusammen. Ich habe ein AMD "beigelegtes" Spiel aktiviert, nämlich Far Cry 6. Dann lag es an Ubisoft das AMD es durch verlinkung aktivieren musste.
dargo
2025-02-26, 07:25:16
Dann wurde die Vorgehensweise vermutlich geändert, oder es ist vom Publisher abhängig. Bisher hatte ich nur Fälle wo ich einen Key direkt bei AMD angefordert habe und dieser Key dann einfach vom x-beliebigen Rechner aktiviert werden konnte.
PS: sorry dann von meiner Seite aus.
The_Invisible
2025-02-26, 07:53:08
Du reimst dir wieder Sachen zusammen. Ich habe ein AMD "beigelegtes" Spiel aktiviert, nämlich Far Cry 6. Dann lag es an Ubisoft das AMD es durch verlinkung aktivieren musste.
Jap bei meinen Ryzen auch so, kein Code.
Von demher aber völlig egal, ist schönrechnen und gibts bei NV auch immer wieder mal.
Wenn man so viele Transistoren für 64 CUs investiert hat sollte da auch bei RT richtig was rumkommen. :)
Bei Wukong PT müsste man quasi Faktor 3-4 aufholen, daher ja interessant
Dimon
2025-02-26, 08:07:10
Wukong ist einer der acht Pathtracing-Tests (https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/).
Hyped. =)
MfG
Raff
Danke! :ulove3:
Wann kommt der test online? :biggrin:
Viele Grüsse
Disco_STFU
2025-02-26, 08:12:46
Ich denke nicht das AMD Codes vergibt sondern die Spiele per verlinkung aktiviert. In diesem Fall müsste der Käufer dir also seine Steam Login Daten geben. :freak:
Also wenn es so läuft wie bisher, ist es möglich den Key zu verkaufen, habe ich schon 3 mal erfolgreich gemacht.
Du machst dir einen AMD Reward Account, damit verifizierst du die verbaute AMD Grafikkarte und bekommst dann den Key, den du mit deinem Steam-Account verknüpfen musst.
Du gibst dann einfach den Zugang zum Reward Account weiter und der Käufer verknüpt dort seinen Steam-Account.
Easy und win win! :smile::biggrin:
DrFreaK666
2025-02-26, 08:14:16
Du reimst dir wieder Sachen zusammen. Ich habe ein AMD "beigelegtes" Spiel aktiviert, nämlich Far Cry 6. Dann lag es an Ubisoft das AMD es durch verlinkung aktivieren musste.
Bei Starfield (Steam) war das nicht so.
Und bei RE2 Remake und DMC5 auch nicht
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.