PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37

Palpatin
2025-01-27, 12:20:28
Bereits die 7900XT gab es zu ~650 EUR in der Last Gen. Damit man jetzt beeindrucken will reicht es nicht einfach nur mehr RT Leistung draufzupacken und FSR4 und wieder Nvidia -50 EUR zu fahren.

Entscheidend ist der Preis mit den sie in den Markt treten. Ende 2022 hat man die 7900XT mit 899 Dollar gegen die 4070ti mit 799Dollar gestellt und ist mit der Preispolitik baden gegangen. Wenn man jetzt 5070ti Leistung im Köcher hat und die mit z.B. 750 Dollar gegen die 799Dollar 5070ti stellt wäre das schon mal eine deutliche Verbesserung gegen 2022...... 699$ wäre dann der Kampfpreis alles andere unrealistisch.
Ist die Karte eine Gurke und langsamer als die 5070ti was ich nicht hoffe muss man mit 599$ kommen ja, aber dann interessiert mich und vermutlich viele die Karte eh nicht.

GerryB
2025-01-27, 12:25:35
Die 9070xt ist nur der Nachfolger der 7800xt.
ne Devil = derzeit 550€, = ca. 80€ mehr als Billigmodelle

Wie da Jemand auf Phantasiepreise >1000€ kommen kann, may be
bulgarian Scalper.

robbitop
2025-01-27, 12:51:57
Entscheidend ist der Preis mit den sie in den Markt treten. Ende 2022 hat man die 7900XT mit 899 Dollar gegen die 4070ti mit 799Dollar gestellt und ist mit der Preispolitik baden gegangen. Wenn man jetzt 5070ti Leistung im Köcher hat und die mit z.B. 750 Dollar gegen die 799Dollar 5070ti stellt wäre das schon mal eine deutliche Verbesserung gegen 2022...... 699$ wäre dann der Kampfpreis alles andere unrealistisch.
Ist die Karte eine Gurke und langsamer als die 5070ti was ich nicht hoffe muss man mit 599$ kommen ja, aber dann interessiert mich und vermutlich viele die Karte eh nicht.

Die 9070xt ist nur der Nachfolger der 7800xt.
ne Devil = derzeit 550€, = ca. 80€ mehr als Billigmodelle

Wie da Jemand auf Phantasiepreise >1000€ kommen kann, may be
bulgarian Scalper.
Meine Einschätzung (kann auch daneben liegen) - wenn man Marktanteile holen will brauchst du leistungsnormiert zu einer Geforce -20% Preis.
Sagen wir mal grob liegt die 9070XT auf 5070 ti Niveau. Die hat eine MSRP von 750 USD. Da landen wir dann bei 600 USD.
Passt übrigens auch ziemlich zu den Einschätzungen der hiesigen Youtuber (die zT auch schon lange in der HW Presse arbeiten). 500-600 USD sagen die meisten nach meiner Erinnerung wäre ein Preis bei dem die Masse dann zur Radeon greifen würde.
Wenn man bei einer Bruttomarge von Nvidia von 50-60% ausgeht (die verkaufen ja auch komplette Grafikkarten), dann landen 375-450 USD bei Nvidia wenn sie eine 5070ti FE verkaufen. Und entsprechend 300-375 für die reine Herstellung der Grafikkarte. Sagen wir mal das obere Ende und hauen noch etwas Sicherheit drauf. 400 USD. Dann bleiben immer noch 200 USD (sofern die 9070XT ähnliche Herstellungskosten hat) für Bruttomarge. Klar kann das eine sehr schmale oder leicht negative netto Marge bedeuten. Aber wenn man Marktanteile holen will -> that is the way to go. IMO.
Und dann sukzessive aufholen. Und endlich aus dem Reagieren Modus raus und wieder die Initiative in die Hand nehmen (was nur geht, wenn man auch in die GPU Sparte investiert).

Ich stimme dem Post von Gerry weiterhin zu. Man kann nicht beides haben. Entweder vergleicht man MSRPs vom gleichen SKU Segment (das wäre Launch MSRP von der 7800XT oder gar 7700XT da es bei RDNA4 keine Top SKU gibt) oder man vergleicht die P/L vom passenden old gen Produkt (ungefähr gleichschnell) gegen das neue next Gen Produkt.

w0mbat
2025-01-27, 12:57:37
Ich würde die 9070 XT bei 599€ sehen und die 9070 bei 499€.

BavarianRealist
2025-01-27, 13:00:00
Ich würde die 9070 XT bei 599€ sehen und die 9070 bei 499€.

Wäre schön, denke aber, dass die Preise höher liegen werden: eher so 749€ und 599€. Die von Nvidia angekündigten Preise könnten sich womöglich als Makulatur erweisen:

https://www.tweaktown.com/news/102804/nvidias-tight-margins-on-geforce-rtx-50-series-pressure-aibs-as-msrp-feels-like-charity/index.html

Das Die mit rund 350mm² und die 16GB dürften meines Erachtens einfach viel zu teuer für Preise um die 500€ sein.

DrFreaK666
2025-01-27, 13:02:51
Ich würde zähneknirschend 700€ akzeptieren, da ich die 6700XT verkaufe.
Aber wenn sie teurer wird, dann warte ich auf ein Angebot

w0mbat
2025-01-27, 13:04:52
Wenn wir $120 für das die und nochmal so viel für den GDDR6 rechnen, sind wir bei $240. Die Karte sollte dann insg. ca. $300 BOM haben. AMD braucht Marktanteile und keine hohe Marge. Das Geld machen sie mit den Servern.

basix
2025-01-27, 13:23:54
GDDR6 ist momentan bei einem Session Average von 2.3$/GByte. 120$ sind deutlich zu viel für 16GByte ;)
https://www.dramexchange.com/

Auch 120$ sind zu viel für das Die. Das dürfte <100$ sein.

Exxtreme
2025-01-27, 13:24:08
GDDR6 ist VIEL billiger als die 120 USD. Das Ding kostet derzeit ~3 USD pro GB. Für 16 GB wären wir bei 48 USD.

https://dramexchange.com/

DrFreaK666
2025-01-27, 13:26:01
AMD muss auch beachten, dass DLSS4 auch für ältere NV-Karten erscheint.
Es geht nicht nur um Performance

basix
2025-01-27, 13:29:33
AMD muss auch beachten, dass DLSS4 auch für ältere NV-Karten erscheint.
Es geht nicht nur um Performance

Evtl. bescheren uns die +2 Monate auch FSR4 für RDNA3 Karten ;)

Aber DLSS4 für ältere Karten ist generell ein "Problem für Neuverkäufe". Auch für Nvidia. Dito bei FSR4 für RDNA3. Man wird dadurch schlicht weniger neue Karten verkaufen.

AMD kann das nur durchbrechen, wenn RDNA4 generell attraktiv ist. Gutes P/L, gute Performance, genug VRAM, gutes Featureset (FSR4 gehört da dazu).

DrFreaK666
2025-01-27, 13:34:32
AMD benötigt noch mehr Alleinstellungs-Merkmale wie AFMF2.
Vielleicht kommt ja AFMF3 mit AI oder FSR4 FG mit AI.
Irgendetwas, das Nvidia nicht zu bieten hat

robbitop
2025-01-27, 13:37:18
Es (AFMF3) sollte besser einen ordentlichen Sprung machen. Lossless Scaling mit LSFG3 liefert bereits echt gute Resultate. Für jede GPU. Hab es für Elden Ring und Dark Souls 3 ausprobiert (beide sind locked 60 Hz Titel) und in beiden funktioniert es wirklich gut.
Hab dann allerdings einen DLSS + FSR3.1 FG Mod für Eldenring gefunden der dann natürlich noch besser ist X-D

Der_Korken
2025-01-27, 13:37:48
Ich würde die 9070 XT bei 599€ sehen und die 9070 bei 499€.
Ich würde zähneknirschend 700€ akzeptieren, da ich die 6700XT verkaufe.
Aber wenn sie teurer wird, dann warte ich auf ein Angebot

Ich glaube wir können froh sein, wenn es am Ende 700$ UVP sind. Also 800€ aufwärts dann für die XT. Ich stimme dem Tenor zu, dass AMD gute Preise machen muss, wenn sie Marktanteile wollen und ehrlich gesagt könnte die bisher schwache Vorstellung von Blackwell genau der richtige Zeitpunkt dafür sein. Ich glaube nur einfach nicht daran.

robbitop
2025-01-27, 13:39:39
700 USD UVP würde dann wieder kaum gekauft werden da man für 750 USD dann die 5070ti bekommt. Die hat modernere Features und ist wahrscheinlich in RT besser und hat den Geforce mindshare. Wenn man wieder kaum Marktanteil holen will -> dann 700 USD. ^^

dargo
2025-01-27, 13:40:31
Ich würde zähneknirschend 700€ akzeptieren, da ich die 6700XT verkaufe.
Aber wenn sie teurer wird, dann warte ich auf ein Angebot
Nimmst halt dann die 9070 non XT, super sparsam (sofern die 220W stimmen) und immer noch ein deutlich spürbares Upgrade von 6700XT. :)

Dino-Fossil
2025-01-27, 13:45:49
Würde ja auch gerne endlich mal wieder gute Preise für neue GPUs sehen, aber daran glauben mag ich nicht so recht. AMD kann ja gerne davon reden, dass sie Marktanteile wollen. Letztlich müssen sie es aber erstmal beweisen, dass es wirklich so ist.
Und als nächstes müssten sie dann auch gute Angebote <350$/400€ und <250$/300€ machen, denn da sind nochmal mehr Marktanteile zu holen.

aufkrawall
2025-01-27, 13:47:27
Es (AFMF3) sollte besser einen ordentlichen Sprung machen. Lossless Scaling mit LSFG3 liefert bereits echt gute Resultate.
Ich will AFMF nicht zu sehr loben, aber ich halte es LLS prinzipiell für massiv überlegen. Schlicht deshalb, weil der Treiber mit AFMF volle Kontrolle über die Priorisierung der GPU-Ressourcen und das Frame Pacing hat.
Es müsste sich halt mal nicht mehr zwischendurch abschalten und mit Vsync funktionieren, dann wärs mit Low-Paced Kram wie Anno ggf. endlich mal nutzbar. Scheint AMD aber auch vor riesige Herausforderungen zu stellen, wo wir wieder bei besser investierten Ressourcen in andere Projekte wären...

DrFreaK666
2025-01-27, 14:01:11
Nimmst halt dann die 9070 non XT
Nein, das geht nicht.
Ich habe ja eine 6700XT und davor hatte ich eine 5500XT.
Wie du siehst: Es muss eine XT sein :biggrin:

Und ich will meine +100%. Das wird mit der Non XT sicherlich nicht gegeben sein

robbitop
2025-01-27, 14:04:19
Ich will AFMF nicht zu sehr loben, aber ich halte es LLS prinzipiell für massiv überlegen. Schlicht deshalb, weil der Treiber mit AFMF volle Kontrolle über die Priorisierung der GPU-Ressourcen und das Frame Pacing hat.
Es müsste sich halt mal nicht mehr zwischendurch abschalten und mit Vsync funktionieren, dann wärs mit Low-Paced Kram wie Anno ggf. endlich mal nutzbar. Scheint AMD aber auch vor riesige Herausforderungen zu stellen, wo wir wieder bei besser investierten Ressourcen in andere Projekte wären...
Ich konnte AFMF2 mangels Radeon bis dato noch nicht testen hab aber mitbekommen, dass die Tester zufrieden waren. Allerdings scheint LSFG3 auch ordentliche Sprünge gemacht zu haben. Hast du LSFG3 (noch relativ neu) schon getestet? Es scheint sich zumindest gar nicht auszuschalten. Wobei IIRC laut den Tests von ancientgameplay AFMF2 auch ziemlich stabil wohl war in Bezug auf Ausschalten.

Ich denke eine gute Praktik ist es, mit Frame Generation jeglicher Art sicher gegen einen Limiter zu laufen. Dann sollte das Framepacing gut sein, die GPU ist dann underutilized was die renderqueue senkt und damit die Latenz.

Aber du hast sicher Recht - dann wenn es schwieriger wird (also im freien VRR Bereich) kann es schon sein, dass AFMF2 besser funktioniert. Allerdings sind diese übergestülpten Frame Generation Tools ja auch eher was für Spiele die älter sind und einen 60 Hz fix haben. Da ist genug Leistung da um es nach 120 fps/Hz zu drücken.
Modernere Spiele haben wenigstens DLSS2/FSR2. Und dann kann man Frame Generation (FSR3.1) mit Optiscaler forcieren. Und das ist wahrscheinlich besser als AFMF2 und Lossless Scaling.

dargo
2025-01-27, 14:34:48
Nein, das geht nicht.
Ich habe ja eine 6700XT und davor hatte ich eine 5500XT.
Wie du siehst: Es muss eine XT sein :biggrin:

Und ich will meine +100%. Das wird mit der Non XT sicherlich nicht gegeben sein
Doch... schon eine RX 7900XT liegt bei +85% vs. RX 6700XT in 1080p.
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing

In höheren Auflösungen sicherlich noch etwas mehr. ;) Schlag mich aber nicht wenn es nachher heißt +90%. :D

PS: ich würde vorschlagen erstmal die Preise und Performance abzuwarten und sich nicht jetzt schon verrückt machen. Wenn die non XT dann nur 50-70$ weniger kostet als die XT ist die non XT dann auch Käse vom Preispunkt her.

fondness
2025-01-27, 15:10:57
Ich konnte AFMF2 mangels Radeon bis dato noch nicht testen hab aber mitbekommen, dass die Tester zufrieden waren. Allerdings scheint LSFG3 auch ordentliche Sprünge gemacht zu haben. Hast du LSFG3 (noch relativ neu) schon getestet? Es scheint sich zumindest gar nicht auszuschalten. Wobei IIRC laut den Tests von ancientgameplay AFMF2 auch ziemlich stabil wohl war in Bezug auf Ausschalten.


Es ist natürlich völlig absurd, AFMF2 dafür zu kritisieren, dass es sich abschaltet. Es wäre wesentlich einfacher es einfach weiterlaufen zu lassen. AMD erkennt halt Fälle wo der Nutzen nicht gegeben ist und dreht es ab - das ist ein Feature und kein Bug. Es ist auch logisch, dass bei sehr schnellen Drehungen und niedrigen fps da kein sinnvolles Ergebnis raus kommen kann. Und bevor man Bildfehler hat ist es wesentlich sinnvoller es abzuschalten.

DrFreaK666
2025-01-27, 15:15:11
AMD sollte das optional machen. Ich bin kein iPhone-User, der an der Hand geführt werden muss :D

[MK2]Mythos
2025-01-27, 16:03:32
Die Preise die sich hier manche wünschen sind doch völlig an der Realität vorbei. Selbst die misslungene RX7900 -Reihe lag preislich auf Augenhöhe mit den vergleichbaren Nvidia Karten. Obwohl wichtige Features im Vergleich zu Nvidia fehlten oder deutlich schlechter performten.
Die RX9070 wird offensichtlich ein deutlich runderes Produkt. Und als AMD auf der CES verkündet hat, dass sie ihre Karten für unter 1000 USD anbieten würden, war doch klar, dass das nicht 500 oder 600 USD bedeutet, sondern irgendwas im Bereich 700-900.
Eine 9070xt die die 7900xt in Raster schlägt und bei Raytracing zu Nvidia aufschließt, wird garantiert auch entsprechend viel kosten.

dildo4u
2025-01-27, 16:09:36
Ebend 4070S ist 650€,4070 TI Super 850€ daran orientiert man sich, beide Hersteller sind besser geworden und produzieren nicht mehr zu viele Karten was absurde Preise bedeutet.

Lehdro
2025-01-27, 16:12:57
Mythos;13694187']
Die RX9070 wird offensichtlich ein deutlich runderes Produkt. Und als AMD auf der CES verkündet hat, dass sie ihre Karten für unter 1000 USD anbieten würden, war doch klar, dass das nicht 500 oder 600 USD bedeutet, sondern irgendwas im Bereich 700-900.
Eine 9070xt die die 7900xt in Raster schlägt und bei Raytracing zu Nvidia aufschließt, wird garantiert auch entsprechend viel kosten.
Eine 7900XT kostet was? Ab 680 € mittlerweile? Ziehe die Steuern davon ab und du bis bei ~575€, was ca. 600 Dollar sind. Das ist die Basis, denn die Karte muss nicht nur attraktiv gegenüber NV sein, sondern auch generell im Markt. So viel Spielraum nach oben sehe ich da gar nicht, falls es AMD wirklich ernst meinen sollte.

ashantus
2025-01-27, 17:17:34
Mythos;13694187']D
Eine 9070xt die die 7900xt in Raster schlägt und bei Raytracing zu Nvidia aufschließt, wird garantiert auch entsprechend viel kosten.

Die 7900XT hat 84 Cluster, die 9070XT hat 64 Cluster. Bei 84/64 = 1,31
D.h. die 9070XT muß per IPC und Takt erstmal 31% Rückstand aufholen!
Ich glaube, die 9070XT wird im Raster nicht besser, als die 7900XT.

Für AMD wäre es rentabel, weil der neue Chip eben kleiner ist und weniger kostbare Waferfläche verbraucht.
Dennoch ist ein Aufpreis von 100 Euro für das FSR Feature gerechtfertigt.
Somit sind 699 Dollar / 790€ als absolutes Maximum zu sehen. Sollte AMD bei den Europreisen eine 8 vorne haben, dann greifen die Käufer zu nvidia.

Armaq
2025-01-27, 17:23:27
Die 7900XT hat 84 Cluster, die 9070XT hat 64 Cluster. Bei 84/64 = 1,31
D.h. die 9070XT muß per IPC und Takt erstmal 31% Rückstand aufholen!
Ich glaube, die 9070XT wird im Raster nicht besser, als die 7900XT.

Für AMD wäre es rentabel, weil der neue Chip eben kleiner ist und weniger kostbare Waferfläche verbraucht.
Dennoch ist ein Aufpreis von 100 Euro für das FSR Feature gerechtfertigt.
Somit sind 699 Dollar / 790€ als absolutes Maximum zu sehen. Sollte AMD bei den Europreisen eine 8 vorne haben, dann greifen die Käufer zu nvidia.
Das ist zu teuer. Wenn sie wirklich die Masse abholen muss die Differenz zu nvidia anders aussehen. Man sieht es ja Pre 5000er Release, wie sich die Preise einspielten und das war nicht gut für AMD. Wenn sie wirklich Bewegung reinbringen wollen, zB in Vorbereitung für SW Features bei PS oder Xbox, dann müssen sie im PC Markt auch mal eine Ansage machen.

why_me
2025-01-27, 17:43:08
Speku forum hin oder her, was ist das hier für ein Kleinkrieg mit den Preisen? Wir wissen nicht einmal wieviel Leistung die Karten final haben werden, aber es ist sowas von klar, dass die 9070 XT nicht mehr als 400€ kosten darf. ;D

w0mbat
2025-01-27, 18:02:17
Die 7900XT hat 84 Cluster, die 9070XT hat 64 Cluster. Bei 84/64 = 1,31
D.h. die 9070XT muß per IPC und Takt erstmal 31% Rückstand aufholen!
Auf dem Papier stimmt das, in der Realität ist es aber einfacher 64CUs auszulasten, als 84CUs. D.h. es würden wahrscheinlich weniger als 31% Mehrleistung durch IPC/Takt ausreichen, um gleichzuziehen.

aufkrawall
2025-01-27, 18:05:04
Es ist natürlich völlig absurd, AFMF2 dafür zu kritisieren, dass es sich abschaltet.
Deshalb klappt das auch mit LLS-FG. Hat dein "Bias" wohl mal wieder zugeschlagen.

AffenJack
2025-01-27, 18:29:22
GDDR6 ist momentan bei einem Session Average von 2.3$/GByte. 120$ sind deutlich zu viel für 16GByte ;)
https://www.dramexchange.com/

Auch 120$ sind zu viel für das Die. Das dürfte <100$ sein.

Vom Preis für Billig GDDR6 ist es kaum möglich den Preis von High-End GDDR6 herzuleiten. 20GBps könnte durchaus auch ein vielfaches von 12Gbps kosten oder sieht man hier wie die Preissteigerungen aussehen?

fizzo
2025-01-27, 18:35:18
Die RX9070 wird offensichtlich ein deutlich runderes Produkt. Und als AMD auf der CES verkündet hat, dass sie ihre Karten für unter 1000 USD anbieten würden, war doch klar, dass das nicht 500 oder 600 USD bedeutet, sondern irgendwas im Bereich 700-900.
Eine 9070xt die die 7900xt in Raster schlägt und bei Raytracing zu Nvidia aufschließt, wird garantiert auch entsprechend viel kosten.

Sehe ich mittlerweile auch so. Der Onlineshop in Dänemark hatte die 9070 rund 25% über der 7900xt gelistet und diese war auch auf Lager. Die kolportierten Erstpreise sollten also der Wahrheit entsprechen.

Nun ist AMD zurückgerudert und muss die 9000er Serie marktkonform, preislich einsortieren. Schnäppchen erwartet ich keines mehr. Dafür dürfte es eine ‚runde’ Grafikkarte werden. Es bleibt spannend😎

GerryB
2025-01-27, 18:41:04
Da hat wohl die AI im Shop selber die Preise ausgewürfelt ?!
9070/7900= 115%

Bitte mal Alle das Gehirn beim Einloggen im Büro abgeben und durch ChatGPT ersetzen.

fizzo
2025-01-27, 18:47:40
Da hat wohl die AI im Shop selber die Preise ausgewürfelt ?!
9070/7900= 115%

Bitte mal Alle das Gehirn beim Einloggen im Büro abgeben und durch ChatGPT ersetzen.

Ich arbeite im Medizinproduktehandel. Wir bekommen von den Herstellern sehr wohl einen UVP (abzüglich Rabatt) zu den Produkten mitgeteilt. Wird hier wohl ähnlich ablaufen sein.

Edit: Es gab doch auch schon Meldungen zu diesem Thema….

mczak
2025-01-27, 18:57:35
Vom Preis für Billig GDDR6 ist es kaum möglich den Preis von High-End GDDR6 herzuleiten. 20GBps könnte durchaus auch ein vielfaches von 12Gbps kosten oder sieht man hier wie die Preissteigerungen aussehen?
12 gbps gddr6 stellt keiner mehr her (Minimum 14 gbps). Bei Samsung und Micron sind auch sämtliche 8 gb gddr6 Chips längst EOL, nur hynix hat noch welche im Programm, von daher sind die Werte da wohl ziemlich nutzlos. Da aber 8 gb Chips Exotenstatus haben ist eigentlich nicht davon auszugehen dass die 16 gb Chips wirklich teurer sind (pro GB).
Alle einigermassen neuen Grakas verwenden eigentlich auch mindestens 16 gbps Chips, sind vermutlich kaum mehr teurer als die 14 gbps Chips (sonst würden die sicher irgendwo verbaut). 20 gbps haben wohl schon einen gewissen Aufpreis, aber ob das am Ende wirklich so viel ausmacht?

dargo
2025-01-27, 19:45:39
Mythos;13694187']
Die RX9070 wird offensichtlich ein deutlich runderes Produkt. Und als AMD auf der CES verkündet hat, dass sie ihre Karten für unter 1000 USD anbieten würden, war doch klar, dass das nicht 500 oder 600 USD bedeutet, sondern irgendwas im Bereich 700-900.

Ist das so? Ich habe direkt von Frank Azor gehört <1.000$ und größer 300$. Wenn ich die Mitte davon nehme bin ich bei 650$. ;)

Linmoum
2025-01-27, 19:52:15
Ich habe bei RDNA2 auch von Frank Azor gehört, dass es kein Paper Launch wird (und auf Twitter hat er damals sogar mit irgendwem darum gewettet). Dem Typ würde ich nicht einmal glauben, wenn er behauptet, dass Wasser nass ist.

TheGood
2025-01-27, 20:42:37
Ich habe bei RDNA2 auch von Frank Azor gehört, dass es kein Paper Launch wird (und auf Twitter hat er damals sogar mit irgendwem darum gewettet). Dem Typ würde ich nicht einmal glauben, wenn er behauptet, dass Wasser nass ist.
Gab ja auch nicht zufällg ein Mining boom...

crux2005
2025-01-27, 20:44:47
https://videocardz.com/newz/retailer-confirms-powercolor-radeon-rx-9070-xt-red-devil-limited-edition-is-in-stock-talks-amd-pricing-strategy

9070 XT sollte 899 USD und 9070 sollte 749 USD kosten. :facepalm:
"RDNA4 Targeting mainstream price", ist klar AMD.

reaperrr
2025-01-27, 20:47:20
Gab ja auch nicht zufällg ein Mining boom...
Kombiniert mit Scalping Boom.

Nur weil AMD wegen der ausgebuchten N7-Kapazitäten, die mehrheitlich für margenträchtigere CPUs oder fixe Konsolen-SoC-Verträge verwendet werden mussten, nicht gleich Unmengen Karten zum Launch hatte, um die gesamte Nachfrage abzudecken, war es noch lange kein Paper-Launch.

RoNsOn Xs
2025-01-27, 20:51:00
https://videocardz.com/newz/retailer-confirms-powercolor-radeon-rx-9070-xt-red-devil-limited-edition-is-in-stock-talks-amd-pricing-strategy

9070 XT sollte 899 USD und 9070 sollte 749 USD kosten. :facepalm:
"RDNA4 Targeting mainstream price", ist klar AMD.
Ja, krass. Das heißt, dass sie aber immer hin anpassungsfähig sind und die Preise foglich im März nur die Tendenz nach unten kennen. Dennoch :shock:

Exxtreme
2025-01-27, 21:11:06
Und zurück zum Thema bitte.

Prinzenrolle
2025-01-28, 02:30:48
Es ist natürlich völlig absurd, AFMF2 dafür zu kritisieren, dass es sich abschaltet.
Natürlich. Wäre ja auch total vermessen Frame Generation zu haben, die sich nicht abschaltet. Also genau dann wenn man es am dringendsten braucht.:rolleyes:

AMD erkennt halt Fälle wo der Nutzen nicht gegeben ist und dreht es ab - das ist ein Feature und kein Bug.
Genau. Das Abschalten ist ein Feature.:tongue:

Und bevor man Bildfehler hat ist es wesentlich sinnvoller es abzuschalten.
Ach was?

GerryB
2025-01-28, 07:11:47
Hast Du denn überhaupt in letzter Zeit mit AFMF2 gespielt?

Nach m.E. ist ab 45/90fps kein Abschalten mehr zu beobachten.(eher ein AFMF1-Feature?)
ergo
Mal wieder eine sinnlose Diskussion for Nothing


Wer die Grafiksettings ingame so hoch treibt, das er die 45fps nicht schafft, ist selbst dran Schuld.
Entweder Ultra-->High-->Medium für einige Regler
oder/und
TSR/FSR Quality-->Balanced-->Performance
ist doch kein Hexenwerk

Natürlich ist am 4k-Moni mehr FSR sinnvoll möglich als in FHD, wo evtl. nur Quality gut genug ausschaut.

DrFreaK666
2025-01-28, 11:00:31
AMD FSR4 DLL spotted in unofficial Radeon drivers, support for RDNA4 only
https://videocardz.com/newz/amd-fsr4-dll-spotted-in-unofficial-radeon-drivers-support-for-rdna4-only

Hakim
2025-01-28, 11:17:32
Ja vorhin gelesen. Aber ist ja vorher schon so kommuniziert worden, das es exklusiv für RDNA4 kommen wird und wenn überhaupt später ( und evtl in abgespeckter Form) für RDNA3. Kommt halt gerade bei den 7900 XT/XTX Besitzern nicht gut an. Vor allem da ausgerechnet NV DLSS4 ungewöhnlich für alle RTX Karten bringt. Bin dennoch dafür das man einen Cut macht und sich auf die neuen Karten mit den Hardware Einheiten bei FSR4 fokussiert

dargo
2025-01-28, 11:20:45
Es gibt keinen Cut... FSR3.1 wird parallel weiter laufen für Hardware die kein FSR4 supportet bzw. dafür zu langsam ist. Und das ist auch gut so.

aufkrawall
2025-01-28, 11:26:30
Es gibt keinen Cut...
Dann gibts deiner Logik nach wohl auch keinen Cut bei BW und MFG? Läuft ja schließlich für LL auch in der gleichen DLL weiter.
:facepalm:

robbitop
2025-01-28, 11:30:11
Ggf sollte AMD einfach einen dp4a (oder WMMA) Pfad anbieten und wenn es zu langsam läuft -> ist halt die HW.
Jetzt noch parallel wie Intel ein low fidelity Modell mitzuschleppen ist wahrscheinlich extra Aufwand und kostet Fokus.

Exxtreme
2025-01-28, 11:33:57
Es gibt keinen Cut... FSR3.1 wird parallel weiter laufen für Hardware die kein FSR4 supportet bzw. dafür zu langsam ist. Und das ist auch gut so.

Parallel weiterlaufen wird's wahrscheinlich nicht sondern kumulativ in FSR4 aufgehen. Das ist viel einfacher für die Entwickler als zwei Projekte zu pflegen und dann Verbesserungen zurückzuportieren. Ist jetzt interessant ob AMD auch das Modell von FSR4 veröffentlicht. Denn dann könnte man es eventuell so ändern, dass es auch auf älterer Hardware läuft.

DrFreaK666
2025-01-28, 12:19:57
... Das ist viel einfacher für die Entwickler als zwei Projekte zu pflegen und dann Verbesserungen zurückzuportieren...

Wenn Entwickler DirectSR nutzen, dann dürfte sich der Mehraufwand in Grenzen halten

dargo
2025-01-28, 12:20:06
Parallel weiterlaufen wird's wahrscheinlich nicht sondern kumulativ in FSR4 aufgehen. Das ist viel einfacher für die Entwickler als zwei Projekte zu pflegen und dann Verbesserungen zurückzuportieren. Ist jetzt interessant ob AMD auch das Modell von FSR4 veröffentlicht. Denn dann könnte man es eventuell so ändern, dass es auch auf älterer Hardware läuft.
Du musst keine zwei Projekte auf DEV-Ebene pflegen. DEVs liefern FSR3.1, Treiber macht für passende Hardware FSR4. ;)

DrFreaK666
2025-01-28, 12:23:03
Könnte mir vorstellen, dass eine native FSR4-Lösung besser aussieht als FSR3.1 to FSR4

dargo
2025-01-28, 12:23:41
Was soll da besser aussehen wenn die DLL austauschbar ist? :freak: Mit der passenden DLL hast du die "native" FSR4 Lösung bei passenden Hardware.

HOT
2025-01-28, 13:16:06
Vielleicht benötigt FSR4 gar nicht mehr Daten als FSR3.1, in dem Falle wäre die Implementierung eh gleich für die Entwickler, oder besser, es gibt keine dedizierte FSR4-Implementierung.
Für RDNA3 kann man die dann später einfach nachreichen, alle vorherigen und Fremd-Produkte bleiben dann ganz einfach bei FSR3.1. Für die Entwickler würde das ein FSR bedeuten, das implementiert werden muss. Optional kann AMD dann ein FSR4.1 anbieten, dass dann wieder etwas mehr Liebe der Entwickler benötigt später.

rumpeLson
2025-01-28, 13:19:04
Was soll da besser aussehen wenn die DLL austauschbar ist? :freak: Mit der passenden DLL hast du die "native" FSR4 Lösung bei passenden Hardware.
Denkbar wäre es schön, dass es bei "nativer Implementierung" besser funktioniert.

Es wäre doch zum Beispiel möglich, dass die Schnittstelle um weitere optionale Inputs erweitert wurde, die die Bildqualität steigern können.

Oder aber, dass bei der ursprünglichen FSR 3 Workarounds für Bildfehler implementiert würden, die für FSR 4 nun mehr erforderlich sind und andere Probleme verursachen.

Also ausgeschlossen ist es theoretisch nicht.

Tesseract
2025-01-28, 13:37:36
Vielleicht benötigt FSR4 gar nicht mehr Daten als FSR3.1

wahrscheinlich weniger, z.B. keine reactive mask.

Colin MacLaren
2025-01-28, 13:37:49
https://videocardz.com/newz/retailer-confirms-powercolor-radeon-rx-9070-xt-red-devil-limited-edition-is-in-stock-talks-amd-pricing-strategy

9070 XT sollte 899 USD und 9070 sollte 749 USD kosten. :facepalm:
"RDNA4 Targeting mainstream price", ist klar AMD.

Was hatten die denn geraucht? Eine 7900XTX soll schneller sein und kostet aktuell so um die 900 EUR. Man bringt eine neue Karte, macht die langsamer und will noch mehr Geld dafür :freak:

dildo4u
2025-01-28, 13:39:30
Der Preis war für eine 1200$ 5080.

HOT
2025-01-28, 13:43:50
Ich würd mich an den Preisen da nicht aufhängen, das ist sicherlich eh purer BS.
https://www.techpowerup.com/331698/amd-denies-radeon-rx-9070-xt-usd-899-usd-starting-price-point-rumors

Exxtreme
2025-01-28, 13:44:02
Du musst keine zwei Projekte auf DEV-Ebene pflegen. DEVs liefern FSR3.1, Treiber macht für passende Hardware FSR4. ;)

Nein, so funktionieren DLLs nicht. DLLs sind so eine Art Lowlevel-Plugins und enthalten bereits alle Funktionalität. Das Programm, welches so eine DLL einbindet, assimiliert die Funktionalität dieser DLL und diese Funktionalität wird ein Teil des Programms. Das bedeutet, eine FSR3.1-DLL modifiziert bereits die Daten, die darzustellen sind und reicht sie an den Treiber weiter. Ein FSR4 im Treiber kann jetzt nichts Sinnvolles mehr tun da die Daten bereits fertig verarbeitet sind.

Man könnte sicherlich die FSR3.1-DLLs so programmieren, dass diese eine neuere Version von FSR erkennen können und diese dann einbinden anstatt die eigene Funktionalität auszuführen. Aber das macht man normalerweise nicht da solche verketteten DLLs wiederum andere Probleme nach sich ziehen könnten. Und mir wäre nicht bekannt, dass FSR3.1 von sich aus sowas macht.

Deshalb wird es wohl bei einem DLL-Austausch bleiben. Und wenn man schon DLLs tauscht dann ist es einfacher die APIs dieser DLLs stabil zu halten und dafür keine FSR-Varianten parallel zu entwickeln. Also so wie es Nvidia mit DLSS macht. Ein Spiel, welches FSR4 nicht kennt, würde nur die FSR3.1-APIs in dieser FSR4-DLL sehen.

DrFreaK666
2025-01-28, 14:07:21
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13694591&postcount=6046

Laut Videocardz.com ist sowohl 3.1 als auch 4 in einer dll enthalten

The file was analyzed by Osvaldo Pinali Doederlein, who confirmed that it contains implementations of both FSR 4.0 and FSR 3.1. The FSR 4.0 implementation is significantly larger (17 MB) compared to the older technology (6.5 MB).

HOT
2025-01-28, 14:20:52
FSR4 ist also FSR3.1 mit KI. Damit sollte klar sein, dass es keine eigene FSR4-Implementation in Spielen gibt. Kein Wunder also, dass Last of Us genau jetzt mit 3.1 aufgerüstet wurde. Das wird sicherlich auch noch vielen anderen Titeln so gehen demnächst.

Lehdro
2025-01-28, 14:40:27
Was hatten die denn geraucht? Eine 7900XTX soll schneller sein und kostet aktuell so um die 900 EUR. Man bringt eine neue Karte, macht die langsamer und will noch mehr Geld dafür :freak:
Und viel weniger Speicher hätte sie auch noch gehabt. Das passt alles nicht zusammen, die war nie und nimmer für diesen Preispunkt gedacht. Die wird für den jetzigen Preispunkt um die 7900XT anvisiert gewesen sein und nun wird man auf die 5000er Serie reagieren (leichte Anpassungen beim Preis gehen immer) und auf FSR 4 warten, damit man etwas hat mit dem man werben kann. Die Boardpartner sind eh sauer und werden fleißig rumstänkern, damit AMD denen den Hintern pudert. Nix neues.

Ich hoffe nur dass AMD diesmal die Preisdifferenz recht realistisch zum Performanceunterschied weitergibt, damit wir nicht noch einmal eine DOA 7900XT bekommen.

GerryB
2025-01-28, 14:41:24
FSR4 ist also FSR3.1 mit KI. Damit sollte klar sein, dass es keine eigene FSR4-Implementation in Spielen gibt. Kein Wunder also, dass Last of Us genau jetzt mit 3.1 aufgerüstet wurde. Das wird sicherlich auch noch vielen anderen Titeln so gehen demnächst.


und 2077 games erhalten kein FSR3.1

Da sollten die Redaktionen dann mal HEFTIG und ganz EMPÖRT drauf rumhacken!

Prinzenrolle
2025-01-28, 14:50:03
Eine 7900XTX soll schneller sein und kostet aktuell so um die 900 EUR. Man bringt eine neue Karte, macht die langsamer und will noch mehr Geld dafür :freak:

Mit RT und FSR4 wäre die neue Karte schon besser gewesen.
Wer auf substanzielle Preissenkungen hofft, der ist schief gewickelt, selbst nachdem AMD herausgefunden hat, dass diese Preise nicht haltbar sind. Die 9070XT wird trotzdem inkl. Steuer 850 Euro kosten.

dargo
2025-01-28, 14:56:42
Was hatten die denn geraucht? Eine 7900XTX soll schneller sein und kostet aktuell so um die 900 EUR. Man bringt eine neue Karte, macht die langsamer und will noch mehr Geld dafür :freak:
Die haben gar nichts geraucht, ein paar 3DC-Member sind nur auf Drogen, wahrscheinlich seit Cannabis legalisiert wurde. Das Thema wurde schon durchgekaut.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13693861#post13693861

Linmoum
2025-01-28, 15:03:42
Wurde nur falsch durchgekaut. Ja, in dem VCZ-Artikel geht's um eine 9070XT Red Devil LE. Der Händler nennt aber auch Preise für non-XT Karten. Ergo ist der Hinweis darauf, dass sich der Preis eh nur auf irgendein teures Custom bezieht, schon mal falsch.

HOT
2025-01-28, 15:09:22
und 2077 games erhalten kein FSR3.1

Da sollten die Redaktionen dann mal HEFTIG und ganz EMPÖRT drauf rumhacken!
Da das aich DLSS 4 bekommt dürfte das auch FSR3.1 bekommen, da mach ich mir keine Sorgen. Wie gesagt, ich erwarte nen ganzen Haufen FSR3.1-Updates jetzt noch.

Prinzenrolle
2025-01-28, 15:16:21
Die haben gar nichts geraucht, ein paar 3DC-Member sind nur auf Drogen, wahrscheinlich seit Cannabis legalisiert wurde.
Wenn Nvidia P/L um zaghafte 10-15% anhebt und sich im Endeffekt nicht viel ändert, verzichtet AMD, nachdem sie bei den Margen mit RDNA3 schon ins Klo gegriffen haben auf faire Erzeugerpreise? :uhammer2:
Sankt Martin ist doch schon vorbei. :D
Natürlich kostet eine Red Devil mehr als das MBA Design.
Natürlich glaubt man aber AMD, die in einer nie dagewesenen Shit-Show den Launch auf den letzten Drücker verschieben und sogar vergessen Werbung von Verfügbarkeit für den 23/24 Januar rechtzeitig zu kündigen. ;D
. Ergo ist der Hinweis darauf, dass sich der Preis eh nur auf irgendein teures Custom bezieht, schon mal falsch.

Das kommt auch noch dazu. AMD hat halt mit 1199 für die 5080 gerechnet.

aufkrawall
2025-01-28, 15:18:44
Wurde nur falsch durchgekaut. Ja, in dem VCZ-Artikel geht's um eine 9070XT Red Devil LE. Der Händler nennt aber auch Preise für non-XT Karten. Ergo ist der Hinweis darauf, dass sich der Preis eh nur auf irgendein teures Custom bezieht, schon mal falsch.
Das ist schon ein sehr ekliger Geschmack, dass AMD selbst als Mini-Zweiter im Duopol noch stärker abzukassieren versucht als Nvidia. Die Firma hat wirklich völlig den Bezug zur Realität verloren. Bzw. wenn diese dann doch mal durchblitzt, kommt so etwas wie dieser verschobene Chaos-Launch bei rum. Die toppen sich selbst immer noch aufs Neue, das schafft sonst keiner.
Jetzt fehlt eigentlich nur noch, dass sie bei FSR 4 noch das neuronale Netzwerk so wie Intel bei XeSS unter Verschluss halten, nachdem man sich jahrelang als Open Source-Messias dargestellt hat.

DrFreaK666
2025-01-28, 15:46:57
...Die Firma hat wirklich völlig den Bezug zur Realität verloren...
In deiner Realität gilt: Gerüchte = Wahrheit.

Vielleicht solltest du eher daran arbeiten und zusätzlich noch an deiner stets abfälligen Ausdrucksweise

Palpatin
2025-01-28, 15:52:05
Das kommt auch noch dazu. AMD hat halt mit 1199 für die 5080 gerechnet.
Mit 5080 >= 1199$ haben viele gerechnet aber halt auch mit 5080 >= 4090. Jetzt sieht es eher nach 5080 ~ 4080S + ~5% aus.

aufkrawall
2025-01-28, 15:54:37
Vielleicht solltest du eher daran arbeiten und zusätzlich noch an deiner stets abfälligen Ausdrucksweise
Aber das triggert doch so schön kleine Leutchen, die meinen, die Ehre ihrer Lieblings-Milliardenkonzerne verteidigen zu müssen. :redface:

robbitop
2025-01-28, 15:55:39
Jetzt fehlt eigentlich nur noch, dass sie bei FSR 4 noch das neuronale Netzwerk so wie Intel bei XeSS unter Verschluss halten, nachdem man sich jahrelang als Open Source-Messias dargestellt hat.
Ich sehe das auch schon kommen. Würde mich aber gern irren.

fondness
2025-01-28, 15:57:55
Ich würds auch nicht veröffentlichen. Es wird schließlich eh nicht goutiert. Kommen höchstens gehässige Kommentare der NV-Trolle die meinen man tue das ja eh nur aus Marketingzwecken.

Das NV alles maximal abschottet und closed-Source hält stört auch niemanden. Stattdessen wird AMD hier dafür kritisiert, dass sie FSR4 "eventuell" nicht open-source machen. X-D

DrFreaK666
2025-01-28, 16:13:11
Aber das triggert doch so schön kleine Leutchen, die meinen, die Ehre ihrer Lieblings-Milliardenkonzerne verteidigen zu müssen. :redface:

Wenn ich dich kritisiere, dann ist es nicht das Gleiche wie eine Firma zu verteidigen. Hätte Nvidia mehr VRAM verbaut, dann hätte ich jetzt sicherlich eine 3060Ti. Davor hatte die 5500XT mehr VRAM als die 1650 Super und davor hatte die 980Ti mehr VRAM als die Fury X

raffa
2025-01-28, 16:53:12
Da das aich DLSS 4 bekommt dürfte das auch FSR3.1 bekommen, da mach ich mir keine Sorgen. Wie gesagt, ich erwarte nen ganzen Haufen FSR3.1-Updates jetzt noch.

Und für den Rest gibts immer noch den Weg über Mods (optiscaler). DLSS wird zu FSR3.1 was dann vom Treiber dann zu FSR4 gemacht wird. Wird Zeit für einen Vendor agnostischen Upscaler(pfad). Das ist doch kein Zustand mehr.

DrFreaK666
2025-01-28, 17:02:06
... Wird Zeit für einen Vendor agnostischen Upscaler(pfad). Das ist doch kein Zustand mehr.

Sowas in die Richtung gibt es mit DirectSR. Aber keine Ahnung ob es auch wirklich jemand nutzt. Sieht aktuell eher nicht danach aus

Lurtz
2025-01-28, 17:06:01
Hoffen wir einfach mal, dass FSR4 was taugt und einigermaßen Verbreitung findet. Sonst kann man AMD langsam endgültig abschreiben.

raffa
2025-01-28, 17:09:35
Stimmt, da war was. Und FSR3.1 kanns inzwischen auch. Wär ne gute Sache, aber gibts irgendwelche Spiele, die das nutzen?

https://www.tomshardware.com/video-games/pc-gaming/microsoft-directsr-adds-support-for-amd-fsr-3-1-upscaling-microsofts-one-stop-upscaling-api-for-dx12-games-gets-an-upgrade

Badesalz
2025-01-28, 17:12:32
Das ist schon ein sehr ekliger Geschmack, dass AMD selbst als Mini-Zweiter im Duopol noch stärker abzukassieren versucht als Nvidia. Die Firma hat wirklich völlig den Bezug zur Realität verloren.Kannst du irgendwas davon zu den genannten Preisen kaufen? Dann gebe ich dir Recht.

Hakim
2025-01-28, 18:00:47
So ein Standard für upscaler wäre echt gut, und sei es wegen der Vergleichbarkeit. Bei den tests werden verschiedene Marken Techniken gegeneinander gestellt, und der normale Käufer schaut sich halt die Balken Länge an. Aber hat es die selbe Bildqualität? Selbst wenn z.B konkret die Tensor Kerne unterstützt würden, wird wohl NV derzeit da nicht mitmachen wollen als Marktführer und Vorreiter dabei.

The_Invisible
2025-01-28, 18:04:32
So ein Standard für upscaler wäre echt gut, und sei es wegen der Vergleichbarkeit. Bei den tests werden verschiedene Marken Techniken gegeneinander gestellt, und der normale Käufer schaut sich halt die Balken Länge an. Aber hat es die selbe Bildqualität? Selbst wenn z.B konkret die Tensor Kerne unterstützt würden, wird wohl NV derzeit da nicht mitmachen wollen als Marktführer und Vorreiter dabei.

Wir hätten dann heute noch kein AI upscaling und wohl auch kein RT...

fondness
2025-01-28, 18:16:28
Wir hätten dann heute noch kein AI upscaling und wohl auch kein RT...

Natürlich hätten wir das, wenn Nvidia daran interessiert wäre. RT ist zudem ein Scherz nehme ich an, denn hier gibt es einen gemeinsamen Standard.

fondness
2025-01-28, 18:23:29
Frank Azor meldet sich jetzt direkt zu den angeblichen Preisen mancher Trolle:

While we aren’t going to comment on all the price rumors, I can say that an $899 USD starting price point was never part of the plan.

https://x.com/AzorFrank/status/1884016064360767598?t=gCUa6xXf3wJZDU1J4c_CPA&s=19

dargo
2025-01-28, 18:26:55
Frank Azor meldet sich jetzt direkt zu den angeblichen Preisen mancher Trolle:

While we aren’t going to comment on all the price rumors, I can say that an $899 USD starting price point was never part of the plan.

https://x.com/AzorFrank/status/1884016064360767598?t=gCUa6xXf3wJZDU1J4c_CPA&s=19
Ach hör doch auf. Gleich kommt wieder Linmoum um die Ecke und bezichtigt den Typen als Lügner.

Linmoum
2025-01-28, 18:29:15
Einen Händler, der nachweislich Karten für den Verkauf auf Lager hat(te), als Troll zu bezeichnen, ist dann aber selbst für deine Verhältnisse drüber. Der hat Karten eingekauft, natürlich kennt/kannte der die Preise.

Zumal es ja auch einen spanischen (?) Händler gab, der zwischenzeitlich von $800+ für die XT sprach. Dass es dazu nicht mehr kommen wird, ist ja mittlerweile offenkundig.

dargo
2025-01-28, 18:32:12
Einen Händler, der nachweislich Karten für den Verkauf auf Lager hat(te), als Troll zu bezeichnen, ist dann aber selbst für deine Verhältnisse drüber.
Sag mal... gehts dir noch gut oder was sollen diese Fake-Unterstellungen? Zeig mir mal wo ich irgendeinen Händler als Troll bezeichnet habe!

GerryB
2025-01-28, 18:46:46
Da das auch DLSS 4 bekommt dürfte das auch FSR3.1 bekommen, da mach ich mir keine Sorgen. Wie gesagt, ich erwarte nen ganzen Haufen FSR3.1-Updates jetzt noch.
Wers glaubt wird selig, ... weil die Marktposition so schwach ist, kann AMD bei den Studios garnix bewirken "dürfen".

Und für den Rest gibts immer noch den Weg über Mods (optiscaler). DLSS wird zu FSR3.1 was dann vom Treiber dann zu FSR4 gemacht wird. Wird Zeit für einen Vendor agnostischen Upscaler(pfad). Das ist doch kein Zustand mehr.

Mods erobern kein Marktanteile

den gemeinsamen ML-Pfad gibts ja schon durch MS, wo theoretisch die aktuellen dll´s unabhängig vom Game liegen könnten.
(aber auch MS hat da nicht genug zu melden)

Wenn MS nicht so ne Gurkentruppe wäre, hätte man schon vor Jahren für alle Gamepassspiele FSR2,3+ zwangsweise fordern können.

dargo
2025-01-28, 18:48:22
Wers glaubt wird selig, ... weil die Marktposition so schwach ist, kann AMD bei den Studios garnix bewirken "dürfen".

Ist doch Unsinn... was glaubst du warum jetzt gerade ein Update für FSR 3.1 bei TLOU kam? Nach deiner Logik dürfte XeSS es in praktisch kein Spiel schaffen.

GerryB
2025-01-28, 18:50:53
Intel ist immer noch größer/einflussreicher als Manche denken.

Hat Wer die Budgets die von XYZ an die Studios fliessen?
Denke mal, das AMD am wenigsten Geld dafür in die Hand nimmt, und
wenn mal ein AMD sponsered Game auftaucht, reden wir da meist über die CPU und
nicht über GPU optimierten Renderpfad.
Wie oft kackt AMD in Ultra-Settings ab?, ... frag mal Wiseman, wieviel besser Shadows@high läuft.

dargo
2025-01-28, 18:58:20
Wie oft kackt AMD in Ultra-Settings ab?
Seltsame Frage... ohne hohe RT/PT-Last praktisch gar nicht, bzw. vernachlässigbar.

Zossel
2025-01-28, 19:07:01
Jetzt fehlt eigentlich nur noch, dass sie bei FSR 4 noch das neuronale Netzwerk so wie Intel bei XeSS unter Verschluss halten, nachdem man sich jahrelang als Open Source-Messias dargestellt hat.

"Source-code" wären ja im dem Fall auch die Trainigs-Daten inklusive der Abläufe des Trainigs?

The_Invisible
2025-01-28, 19:24:22
Natürlich hätten wir das, wenn Nvidia daran interessiert wäre. RT ist zudem ein Scherz nehme ich an, denn hier gibt es einen gemeinsamen Standard.

Dxr wäre ein scheintoter Standard wie directstorage heute, hilft nix wenn es keine Hardware dazu gibt. Könntet euch also ruhig Mal bei NV bedanken das die das so gepusht haben ;)

basix
2025-01-29, 18:03:10
Da Blackwell gerade nicht so abliefert und man die 5070 und 5060 (Ti) in etwa abschätzen kann:
AMD hat gerade eine einmalige Chance bekommen. Bei der HW gibt es Indizien, dass man gegenüber Blackwell vermutlich ziemlich gut dastehen wird (Benchmark-Leaks, RT noch als Unbekannte). Kriegt man auch noch FSR4 gebacken, würde es sehr gut aussehen hinsichtlich Konkurrenzfähigkeit von HW & SW. Falls AMD das noch mit anständigen MSRPs anbietet, wäre RDNA4 richtig attraktiv für RDNA1...3 sowie Turing...Ampere Besitzer. Und auch Lovelace Besitzer bis zur 4070 könnten ein schönes Upgrade bekommen (z.B. auf 9070 16GB).

Wird sehr spannend in den nächsten paar Wochen.

horn 12
2025-01-29, 18:08:17
Jetzt noch einen RTX 5080 Konter in ca. Minderperformacne 10 - 15% Reichweite zur 5090 und AMD hat mehr geschafft als man Ihnen zutraute in der Generation
Träumen darf man ja noch, oder wird´s Realität gar ?

dildo4u
2025-01-29, 18:09:22
Meint ihr wirklich Nvidia verbaut GDDR7 aus Spaß, alle aktuellen GPU nutzen große Caches was aber nicht heißt das man 5 Jahre ohne Speicher Speedupgrade gehen kann.
Wenn eine 5080 1TB Speicherbandbreite hat machst du Kompromisse mit 600GB/Sec.

TheGood
2025-01-29, 18:22:41
AUf jedenfall wird AMD bei Raytracing deutlich aufholen, aber das war auch nach dem Test zur 5090 schon klar. Mit der 5080 wird es noch deutlicher. Das ist auf jedenfall sehr sehr gut für den MArkt.
Ich glaube immer noch nicht dran, dass die KArten ein schnäppchen werden. WEnn AMD wollte könnten sie dies aber machen und würden Nvidia dann richtig in den preiskrieg treiben. DAs wird NVidia weniger schmecken als AMD, da deren Bruttomarge in dem geschäftsbereich dann deutlich fallen würde. WAs auch immer das für weitere Auswirkungen hätte.

Irgendwie ist die RTX 5000 serie Nvidias RDNA3 szenario....

Hakim
2025-01-29, 18:28:41
Ich denke die 70er Karten werden sich auch nicht großartig von Ada absetzen können, eigentlich ist es die Vorlage für AMD, jetzt muss AMD es mal endlich etwas ausnutzen. Wenn die jetzt nicht irgendwo Patzen und P/L mäßig so dar stehen das es einfach selbst für Leute die gewöhnlich eher NV kaufen, sehr Attraktiv aussieht. Die Bühne ist frei

basix
2025-01-29, 18:37:47
Das ist genau das was ich meine. AMD hat eine Chance bekommen. Jetzt nutzen sie die auch hoffentlich.

horn 12
2025-01-29, 18:50:20
449 und 579 Euro soll(t)en es nun werden
Dies würde dem ganzen Guttun!

Dies würde ein Selbstläufer sein,- Zudem Massig lieferbar um die 2 Monate aufzubauen an Stock
und Leaks ab dem 20-ten Februar :-)

https://www.techpowerup.com/331776/amd-details-deepseek-r1-performance-on-radeon-rx-7900-xtx-confirms-ryzen-ai-max-memory-sizes

GerryB
2025-01-29, 19:07:17
$ ist was anderes als €
und meist wurde von 579$ ohne MSt. gesprochen in frühen Wunsch-Leaks

Warum AMD jetzt preiswerter werden soll, wenn evtl. die 5070(Ti) schwächelt, = ???
Eher besteht die Gefahr, das AMD genauso teuer wird.

horn 12
2025-01-29, 19:17:24
Ja, zuzutrauen wäre es Ihnen Allemal und die Vergangenen GPU Launch versemmelte AMD bisher allesamt (alle Jahre auf Neue)
Wenn sie es diesesmal aber Richtig und ihre Chance sehen, dürften 20 bis 25% Marktanteile schlussendlich wieder drinnen sein.
Da würden AMD die Karten aus den Händen gerissen!

basix
2025-01-29, 19:35:50
Ich rechen mit irgendwie sowas hier:
- 9070 XT = 599$ (64CU, 16GB)
- 9070 = 529$ (56CU, 16GB)
- 9060 XT / 9070S = 449$ (48CU, 12GB)

Billiger wird es vermutlich nicht werden. Aber wie immer: Preise sind nur eine Seite von Perf/$ ;)

Wiseman
2025-01-29, 20:06:08
Ich rechen mit irgendwie sowas hier:
- 9070 XT = 599$ (64CU, 16GB)
- 9070 = 529$ (56CU, 16GB)
- 9060 XT / 9070S = 449$ (48CU, 12GB)

Billiger wird es vermutlich nicht werden. Aber wie immer: Preise sind nur eine Seite von Perf/$ ;)

Das wären in Euro ca. 750 €. Mit so einem Preis rechne ich auch für die 9070XT. Und wie du richtig sagst, Preise sind nur eine Seite von Perf/€.

IMHO wäre AMD schön blöd, eine derart performante Karte, die nach meinen Performance-Vergleichen von zwei geleakten 9070XT-Benchmarks mit meiner XTX in Raytracing 24% bis 46% schneller als meine XTX und in Raster so schnell wie meine XTX war, beim Launch für 600 Euro zu verscherbeln. Zur Erinnerung, eine Custom 7900XTX kostete beim Launch zunächst 1300 Euro also fast das Doppelte.

Und wenn ich es richtig in Erinnerung habe, soll der direkte Konkurrent 5070Ti beim Launch ca. 880 Euro kosten.

basix
2025-01-29, 20:23:57
750 vs. 880 Euro macht bei 600$ vs. 750$ MSRP aber nicht so viel Sinn?

amdfanuwe
2025-01-29, 20:31:13
Und wenn ich es richtig in Erinnerung habe, soll der direkte Konkurrent 5070Ti beim Launch ca. 880 Euro kosten.
Wenn die Performance in RT gleichwertig ist, wird AMD bei der 9070XT nicht viel darunter bleiben.
Der Knüller könnte eher die 9070 16GB vs 5070 12 GB werden.
Bin mal gespannt, ob da auch noch eine N48 12GB darunter geben wird.

Wiseman
2025-01-29, 20:38:36
750 vs. 880 Euro macht bei 600$ vs. 750$ MSRP aber nicht so viel Sinn?

Das verstehe ich nicht. Wären dir 130 Euro Preisunterschied beim Launch zwischen 9070XT und 5070Ti zu wenig? Wie viel sollte deiner Meinung nach die 9070XT beim Launch in Euro kosten, damit sie gekauft wird?

Poweraderrainer
2025-01-29, 20:41:26
Die Leistung der 5070 Ti kann man doch relativ genau hochrechnen. War ja schon jedem bei der 5080 klar nach den 5090 Tests, dass da kaum mehr als +10% rauskommen können. Der Preis der FE ist auch bekannt.
Was die eigene Karte kann weiß AMD auch. Den eigenen Preispunkt sollte man daher leicht ausrechnen können - das kann imo nicht der Grund für eine Verzögerung sein.

Zeit in Treiberoptimierung stecken um den Preis der Karte zu maximieren könnte vllt ein Ansatz sein.
Die Karten sollen jetzt noch 1,5 Monate bei den Händlern und Distris rumgammeln deswegen offenbar. Wenn man über den günstigen Preis Marktanteile wollte, könnte man einfach nächste Woche launchen für unter 700 Euro und fertig.

Wir werden am Ende imo bei 800 Euro +/- 50 Euro rauskommen für die XT schätz ich mal. Zumindest hoffe ich, dass es nicht teurer wird.

basix
2025-01-29, 20:51:41
Das verstehe ich nicht. Wären dir 130 Euro Preisunterschied beim Launch zwischen 9070XT und 5070Ti zu wenig? Wie viel sollte deiner Meinung nach die 9070XT beim Launch in Euro kosten, damit sie gekauft wird?

Der relative Unterschied macht keine Sinn ;)
- 750 / 600 = 1.25x
- 880 / 750 = 1.17x

Wenn die 600$ MSRP zutreffen, müsste es ja eher 700 Euro rum sein, oder nicht?

Wiseman
2025-01-29, 20:52:06
...

Wir werden am Ende imo bei 800 Euro +/- 50 Euro rauskommen für die XT schätz ich mal. Zumindest hoffe ich, dass es nicht teurer wird.

Das deckt sich ziemlich genau mit meinen Erwartungen . Und ja, mehr als 850 Euro sollte die 9070XT auf keinen Fall kosten.

Iscaran
2025-01-29, 21:36:02
529$ + 1.04 €/$ + Mwst (1.19) ~ 650 €
599$ + 1.04 €/$ + Mwst (1.19) ~ 740 €

=> 649 € / 749 €.

Für mich immer noch zu teuer, aber vermutlich nicht unrealistisch.

Eine RTX 5080 FE soll ja wohl für ~999 $ antanzen (https://videocardz.com/newz/gigabyte-geforce-rtx-5080-pricing-revealed-by-bestbuy-one-msrp-model-six-premium-variants-starting-at-1199).

Nach obigem Schema also 1239 €.

Eine 5070 Ti wohl für 749$ (https://www.techpowerup.com/331715/nvidia-geforce-rtx-5070-ti-launches-on-february-20) => 929 €

Da wäre diese AMD Preis schon eine Ansage.

HOT
2025-01-29, 21:47:31
Wenn das Ding bei 4080 rauskommt, was nach Vorabbenchmarks und noch Treiberoptimierung bis März so passieren dürfte, ist der schneller als die 5070Ti, welche kaum schneller als ne 4070TiS sein dürfte, hat ungefähr die gleiche Rohleistung. Also wird die 9070XT bei Raster die 4080 ca. erreichen, also 5-7% unter der XTX und bei RT die 5070Ti sicherlich erreichen oder zumindest verdammt nah drankommen. Das wäre bei 750€ dann ein absolutes Knallerprodukt, zumal die langsamere 5070Ti dann ja teurer ist. Mit diesen Preisen wäre die 5080 dann klar überteuert.

dildo4u
2025-01-29, 21:50:57
Die Super Preise haben durch die Bank gepasst nur die 4080 hatte Probleme,daher mach es kein Sinn auf was sein könnte zu reagieren.

DrFreaK666
2025-01-29, 22:20:50
800€ für einer 7er Karte? Nie im Leben.
Die 7700XT kam damals mit einer UVP von 489€ auf den Markt. Und wie wir alle wissen, war der Preis zu hoch, da es die 7800XT für 549€ UVP gab.
Wie will man die Erhöhung um 310€ rechtfertigen?

dildo4u
2025-01-29, 22:31:38
AMD hat auf der CES selber gesagt das die alten Namen falsch gewählt wurden und man sich Nvidia anpasst damit Kunden besser vergleichen können.
Der Name 7800XT machte weder gegen AMDs eigene RDNA2 noch Nvidias Lovelace Karten Sinn


2p7UxldYYZM

Lawmachine79
2025-01-29, 23:11:37
AMD hat auf der CES selber gesagt das die alten Namen falsch gewählt wurden und man sich Nvidia anpasst damit Kunden besser vergleichen können.

https://youtu.be/2p7UxldYYZM
Wenn man besser vergleichen können soll, sollte man das neue Flagship einfach 3080XTX nennen.

crux2005
2025-01-30, 02:24:26
Bin gespannt was Coreteks zu sagen hat

YaA9vCEc8Xk

Am besten finde ich wie MLID jetzt genau das gleiche in seinem Video sagt. ;D;D;D

Alles über 599 USD MSRP wäre IMHO kein Mainstream Preis mehr. Wobei das eigentlich auch keiner mehr ist.

800€ für einer 7er Karte? Nie im Leben.
Die 7700XT kam damals mit einer UVP von 489€ auf den Markt. Und wie wir alle wissen, war der Preis zu hoch, da es die 7800XT für 549€ UVP gab.
Wie will man die Erhöhung um 310€ rechtfertigen?

Ich denke die 9070 XT wird teurer als 549€ UVP. Inflation, dazu RT Leistung + FSR4.

dargo
2025-01-30, 06:26:46
529$ + 1.04 €/$ + Mwst (1.19) ~ 650 €
599$ + 1.04 €/$ + Mwst (1.19) ~ 740 €

=> 649 € / 749 €.

Für mich immer noch zu teuer, aber vermutlich nicht unrealistisch.

Diese ganze Rumrechnerei führt doch eh zu nichts, verschwendete Lebensenergie. :) Es war bisher nicht selten so, dass die UVP in Dollar in Europa recht zügig 1:1 auf den Euro übertragen wurde. Sprich... liegt die UVP bei 599$ lag der Straßenpreis bei 599€ oder knapp drüber. Das hängt alles auch vom Angebot und Nachfrage ab. ;) Natürlich tritt sowas nicht sofort auf... am Anfang gibts immer den "Deppenaufschlag" der Händler für die ganz Ungeduldigen. Um gute Straßenpreise zu bekommen muss AMD einfach genug N48 produzieren damit es zu keinen Engpässen kommt. Im besten Fall mehr als die Nachfrage.

AMD hat auf der CES selber gesagt das die alten Namen falsch gewählt wurden und man sich Nvidia anpasst damit Kunden besser vergleichen können.
Der Name 7800XT machte weder gegen AMDs eigene RDNA2 noch Nvidias Lovelace Karten Sinn


https://youtu.be/2p7UxldYYZM
Das ist zwar richtig. Nur wusste AMD zu diesem Zeitpunkt noch gar nicht, dass Blackwell so failed, insbesondere unterhalb des Topdogs. Deshalb finde ich die neue Namensgebung auch recht bescheuert.

GerryB
2025-01-30, 06:39:15
Ich denke die 9070 XT wird teurer als 549€ UVP. Inflation, dazu RT Leistung + FSR4.

9070 nonXT = 549€ bei mindestens 10% mehr Fps als die 7800xt schafft, sonst
hat man denselben P/L-Murks wie grün und kann mehr Marktanteile vergessen.

9060xt@192bit auch als Salvage vom N48 wäre u.U. für 429€ auch ne Kampfansage.

Beides bekommt man u.U. aber erst ein paar Monate nach Launch.
Bei Launch eher upselling Preise, wo nur die 9070xt nen realen Preis hat.
699...799€ ???, ... je nachdem wie nah man an der Ti dran ist.

mboeller
2025-01-30, 06:39:38
529$ + 1.04 €/$ + Mwst (1.19) ~ 650 €
599$ + 1.04 €/$ + Mwst (1.19) ~ 740 €


komische Rechnung

$529/1,04 = 509 Euro x 1,19 = 605,- Euro incl. 19% Steuer... also eher 599,-

Pirx
2025-01-30, 07:14:30
Es wird Zeit für einen Spekumeter, für das die ganzen "Prognosen" auf Eintreffen geprüft werden, so könnte man Trolle und ernsthafte Diskutanten besser trennen.:rolleyes:

MSABK
2025-01-30, 07:17:03
Ich tippe auf 649€ und 749€.

Altehardware
2025-01-30, 07:27:23
4096 alu sollen also etwa 36-43tf schlagen dann mal viel glück
Wie komme ich zu der Diskrepanz nun das liegt blackwell arch Änderung da nvida voll auf software gegangen ist.
36tf eher wenn traditionell raster in dx11 und dx12_1 genutzt wird 43tf wenn explizit dx12_2 vulkan genutzt wird. abzüglich cpu limit
Das ist nvidia auch Angegangen was erfreulich ist beim gb203 chip
amd müsste bei rdna4 schon 3 Operationen per clock machen um diese sku zu erreichen faktisch 39tf bei 3,2ghz
Das ist höchst unwahrscheinlich eine dual issue Verdoppelung ist wahrscheinlicher und das bei 3,4ghz was das maxed wäre mit dem n4 node das wäre in etwa das gleiche Resultat mit entsprechender tbp von 360w

ich denke eher das man noch schnell versucht hat die Preise anzuheben da man gemerkt hat das nvidia nix an perf. zulegt. vermutlich ursprünglich 499$ und 549$ jetzt denkt man über 549-649$ nach
Meine Prognose bleibt den die knapp 32tf für die rx9070xt (rx7900xt +10%)
Und knapp 28tf für die 9070 (rx7900gre)

Die Preiseinordnung ist jetzt das schwierige der ursprüngliche preis war gut diesen auf die alten gen zu ersetzen wäre fatal der markt will bezahlbare gpu nicht noch mehr vom gleichen schlechten P/L die es derzeit schon gibt.

nvidia setzt ne Wette auf ai Optimierung bei content Produktion (spiele Grafik Erstellung) und auf eine ai Optimierung bei der gpu load.
Das geht nur bedingt.

Diese Wette wird nvidia aber verlieren. nix ersetzt Hubraum und das geht auch in effizient
wenn man will.
amd hat hier ein so großes Scheunentor an Gelegenheit nvidia einfach komplett vom mid range zu verbannen in dxr und raster und nutzt diese chance nicht das ist typsich amd marketing.

dargo
2025-01-30, 08:21:33
Ich tippe auf 649€ und 749€.
Auf welcher Grundlage? :tongue:

Dieses ganze tippen bringt doch nichts ohne sonstige Angaben. ;) Wir wissen noch nicht sicher wo N48 Fullchip landet. Landet das Ding bei Raster nur bei der RX7900XT oder gar drunter wären die 749€ für den Gamingmarkt komplett meh. Landet das Teil knapp unter der 7900XTX (mit weiter optimierten Treibern bis Ende März gar bei der 7900XTX) wären 750€ dann schon ganz ok. Kein wow, aber relativ ok-isch. Ich fände 650-700€ dennoch nochmal wesentlich besser für den Gamingmarkt.

dildo4u
2025-01-30, 10:48:24
Das ist zwar richtig. Nur wusste AMD zu diesem Zeitpunkt noch gar nicht, dass Blackwell so failed, insbesondere unterhalb des Topdogs. Deshalb finde ich die neue Namensgebung auch recht bescheuert.
Kommt drauf an was man Bencht?

Angebliche Raytracing Performance in Cyberpunk(Kein Path Tracing)

https://i.ibb.co/6ckdhfXb/Screenshot-2025-01-30-104914.png (https://ibb.co/bjkfh8bL)


https://youtu.be/udG8y64A8eo?si=rBPdWjMVjCUlTSlQ&t=538

HOT
2025-01-30, 11:09:35
Ich glaube, man kann das jetzt recht gut vorhersagen mit den ganzen Leaks:

- 4080S-Performance in Raster
- 4070TiS-Performance bei RT

für die 9070XT und

- 4070TiS-Performance in Raster
- 4070S-Performance bei RT

für die 9070

Hakim
2025-01-30, 11:17:33
Die Namensgebung ist so oder so und wenn ich mich wiederhole bescheuert mMn. Das vermittelt iwie Zweifel am eigenen Produkt. 9700 oder 9800 und gut ist. Hat sich doch damals auch gut verkauft als man gute Karten hatte (9700 und 9800 Pro Zeiten)

][immy
2025-01-30, 11:18:37
Kommt drauf an was man Bencht?

Angebliche Raytracing Performance in Cyberpunk(Kein Path Tracing)

https://i.ibb.co/6ckdhfXb/Screenshot-2025-01-30-104914.png (https://ibb.co/bjkfh8bL)


https://youtu.be/udG8y64A8eo?si=rBPdWjMVjCUlTSlQ&t=538

Nun so riesig ist der Abstand zu Nvidia eigentlich nicht. Die große Diskrepanz tritt erst mit dlss auf. Das wäre zwar ein Schritt in die richtige Richtung, dennoch etwas enttäuschend nach all der Zeit.
Ray tracing ist halt ohne tricks in 4k quasi ungenießbar, egal auch welcher Karte. Aber so langsam bewegt sich der Markt ja eh wieder weg von 4k in Richtung höherer frameraten (1440p scheint das neue Optimum zu sein).

dildo4u
2025-01-30, 11:22:52
Die Werte sind in diesem Fall brauchbar da man nativ und keine Upscaler Vergleicht.

Ich selber zocke mit meiner 4070S 4k Performance DLSS mit FG ca 100fps von 60fps Baseline mit RT Ultra GI und Reflektionen.

][immy
2025-01-30, 11:26:40
Die Werte sind in diesem Fall brauchbar da man nativ und keine Upscaler Vergleicht.

Ich selber zocke mit meiner 4070S 4k Performance DLSS mit FG ca 100fps von 60fps Baseline mit RT Ultra GI und Reflektionen.

Ja, aber dann muss sich fsr4 erst mal behaupten können, und es muss erst mal eingebaut sein.

Zossel
2025-01-30, 11:29:52
[immy;13696265']Nun so riesig ist der Abstand zu Nvidia eigentlich nicht. Die große Diskrepanz tritt erst mit dlss auf. Das wäre zwar ein Schritt in die richtige Richtung, dennoch etwas enttäuschend nach all der Zeit.

Unterschiedliche Implementierungen haben halt unterschiedliche Charakteristiken bei der Performance. Den Top Dog schlechthin gibt es in so einem Umfeld halt nicht.

Isso.

Badesalz
2025-01-30, 11:39:10
9700 oder 9800 und gut ist.Mein Reden. Vielleicht gibt es auch eine 9800 Pro :uup:

HOT
2025-01-30, 12:17:52
Wieso hängt ihr euch so sinnlos an den Namen auf? Die UDNA-Iteration wird eh wieder ein komplett neues Namensschema bekommen, das hier ist ja nur eine Übergangslösung sozusagen.
Auch bei Ryzen ist bei 9000 schluss, die Medusa Ridge werden sicherlich das Ryzen AI 500 Branding bekommen.

dargo
2025-01-30, 12:30:56
Wieso hängt ihr euch so sinnlos an den Namen auf?
Weil AMD damit für noch mehr Verwirrung gesorgt hat. ;D AMD sieht mit dieser Namensänderung die 9070XT bei der 7900XT oder der später kommenden 5070 von NV. Dabei zeigten die geleakten Benchmarks von Dezember 2024 ein anderes Bild. Natürlich könnten diese Benchmarks auch Fake sein.

why_me
2025-01-30, 13:17:43
AMD sieht die 9070XT als Nachfolger der 7900XT, die AMD damals gegen die 4070 ti positioniert hatte. Die 9070 XT muss sich mit der 5070 ti messen.
Man kann von einer Neuen Generation schon etwas Mehrleistung erwarten. Gut bei der 5070 ti wird es voraussichtlich nicht ganz so viel sein wie man vorher dachte, Chance für AMD.

Und der neue Name für die Vergleichbarkeit passt doch eigentlich. Ist doch einfacher xx70 XT einer xx70 ti zuzuordnen als eine 7900 XT. Nur etwas doof, dass nach 9000 nicht mehr so viel luft ist. Evtl geht es nächste Generation ja auch mit Buchstaben weiter?

DrFreaK666
2025-01-30, 14:00:15
Wurde das hier schon erwähnt?
https://i.ibb.co/PG2MtSNm/Screenshot-20250130-135804-You-Tube.jpg (https://ibb.co/pjHQnmx0)
udG8y64A8eo

Sollte das wirklich so kommen, dann dürften die Preise nicht niedrig sein

Badesalz
2025-01-30, 14:06:07
. Nur etwas doof, dass nach 9000 nicht mehr so viel luft ist. Evtl geht es nächste Generation ja auch mit Buchstaben weiter?YT und YTY? Ich weiß nicht...

MSABK
2025-01-30, 14:06:17
Ist mir gerade bissi zu viel Hypetrain.:D

why_me
2025-01-30, 14:23:20
YT und YTY? Ich weiß nicht...

:confused: hab eigentlich an A070, B070 gedacht, oder 10070. Aber das sieht ziemlich doof aus.

Ist mir gerade bissi zu viel Hypetrain.:D

Noch ein guter Monat, da muss er schön Fahrt aufnehmen, sonst kann er doch nicht entgleisen. Ist doch jedes mal das gleiche.

Dino-Fossil
2025-01-30, 15:05:46
Ich denke wir bekommen 4090 Performance ohne MFG für 499$ . :ugly:

Zossel
2025-01-30, 15:12:13
Es wird Zeit für einen Spekumeter, für das die ganzen "Prognosen" auf Eintreffen geprüft werden, so könnte man Trolle und ernsthafte Diskutanten besser trennen.:rolleyes:

So was ist nur für Buchhalter interessant.

dargo
2025-01-30, 15:37:37
Ich denke wir bekommen 4090 Performance ohne MFG für 499$ . :ugly:
Müssen diese völlig wirren Übertreibungen wirklich sein?

raffa
2025-01-30, 15:50:33
bisschen was mit Inhalt:
https://www.phoronix.com/news/Mesa-25.0-RADV-RDNA4-State

"Mesa 25.0 is working its way toward a stable release hopefully by the end of February, thus should be out ahead of the Radeon RX 9070 series graphics cards expected to ship in March. The RadeonSI Gallium3D (OpenGL) driver support should be in good shape too given that it's worked on by AMD engineers. It's nice knowing the RADV support for RDNA4 should also be in "good enough" shape for launch day. Over in kernel space, it's likely Linux 6.13~6.14 as the baseline for the necessary AMDGPU kernel graphics driver support. We'll see when the Radeon RX 9070 series graphics cards ship with our Linux testing."

Oranje7
2025-01-30, 17:57:28
Müssen diese völlig wirren Übertreibungen wirklich sein?
Mein letzter Kommentar zu den Wirren und komplett Hanbüchenen "Spekus" wurde leider gelöscht und dann den Thread für eine kleine Weile gesperrt. Keine Ahnung obs danach hier völlig Eskaliert ist ;D

Man könnte gerade meinen das Trolle (und nein! ich meine nichtmal Grüne Trolle) AMD Threads mit übertriebenen Vorstellungen fluten damit man am Ende dann behaupten kann "Die Drecksbude hat mal wieder nicht geliefert"

bisschen was mit Inhalt:
https://www.phoronix.com/news/Mesa-25.0-RADV-RDNA4-State

Klingt nach meiner Laienübersetzung tatsächlich danach als ob die Hardware längst fertig war die Software aber nicht und deshalb die 3! Monate verschiebung

why_me
2025-01-30, 17:59:32
the same procedure as every year

Oranje7
2025-01-30, 18:02:58
Nö sonst wurde Hardware released mit "Software is coming soon" aka "Fine Wine"

dargo
2025-01-30, 18:07:32
the same procedure as every year
Wenn das Gerücht mit der Software stimmt dürfte das einmalig in der Geschichte sein. Was ich auch sehr begrüße anstatt unfertige Software auszuliefern. Und das Affen-Theater von einem überstürzten Launch darfst du gerade bei GB202 und GB203 bestaunen.

why_me
2025-01-30, 18:18:16
Wenn der Post 3 Minuten nach meinem noch editiert wird, dann ist meiner komplett aus dem Kontext.
Das war eigentlich auf den hype bezogen, nicht die SW.

The_Invisible
2025-01-30, 18:33:13
Nö sonst wurde Hardware released mit "Software is coming soon" aka "Fine Wine"

Wieso kann ja noch immer failen. In 2 Monaten bügelt man jetzt auch keine großen Sachen mehr aus, wenn man im Finetuning ist, ist ok

Prinzenrolle
2025-01-30, 18:52:33
Ich denke wir bekommen 4090 Performance ohne MFG für 499$ . :ugly:

Ja, das denke ich auch. AMD hat einfach alle gefoppt.:redface:

Man könnte gerade meinen das Trolle (und nein! ich meine nichtmal Grüne Trolle) AMD Threads mit übertriebenen Vorstellungen fluten damit man am Ende dann behaupten kann "Die Drecksbude hat mal wieder nicht geliefert"

Das passiert von ganz alleine vor jedem AMD Launch, da muss man nichts dazu tun.:biggrin:

GerryB
2025-01-30, 19:07:41
schlechter als mit RDNA3 kanns net laufen
diesmal sind hoffentlich die MBA-Kühler o.B., bzw. auch schon die Customs verfügbar
und
Verkaufstart in ausreichender Menge scheint diesmal kein Problem zu sein.
(hoffentlich auch nonOC ala Reaper)

Da braucht man nicht auf andere Marken neidisch sein, wo die Deppen sich noch rühmen, wenn man
an Tag 1 eine überteuerte Custom erwischt.
Schon krass wie Manche für ne 5080 gleich mal 500 Tacken mehr hinblättern als für ne 4080S.
(da bekommt man u.U. für diese irrsinnige Differenz schon ne 9070)

Hoffentlich sind die 9070(xt) leiser als der "andere" Schrott.
Meine Fresse, = Ohrensausen inclusive.

Prinzenrolle
2025-01-30, 19:46:18
(da bekommt man u.U. für diese irrsinnige Differenz schon ne 9070)

Wozu wird diese clowneske Preiserwartung eigentlich überall so vehement vertreten? Rechen besser mal mit 700 Euro.:redface:

Dino-Fossil
2025-01-30, 20:08:06
Klingt nach meiner Laienübersetzung tatsächlich danach als ob die Hardware längst fertig war die Software aber nicht und deshalb die 3! Monate verschiebung

Vorsicht, hier gehts um linux! Da ist amd zwar inzwischen recht gut dabei, aber man kann trotzdem nicht immer erwarten das zum Release neuer Hardware die vom linux Kernel und den Treibern auch sofort 100% unterstützt werden. 1-2 Kernel Versionen abzuwarten kann da schon mal nötig sein.

GerryB
2025-01-30, 20:11:30
Wozu wird diese clowneske Preiserwartung eigentlich überall so vehement vertreten? Rechen besser mal mit 700 Euro.
Denk einfach mal nach, ... 7800xt lange Zeit 479€, warum sollte dann ne nonXT jetzt viiiiiel teuerer sein.
mal angenommen, die neuen Namen haben auch irgendwas zu bedeuten im internen Vgl.

10% mehr Performance darf bei ner neuen Gen erstmal nicht mehr kosten.
und
Die Herstellungskosten dürften sogar niedriger sein.

Poweraderrainer
2025-01-30, 20:18:36
Das mit der Software (unabhängig ob Linux oder Windows) war ja auch meine Vermutung - was anders kann es nicht sein. Ob es zu Preismaximierung gemacht wird oder um Bugs auszubügeln weiß ich natürlich genauso wenig wie jeder andere hier.

An den Karten selbst wird nichts mehr geändert, die sind ja schon in guten Stückzahlen in den Händlerlagern - die werden mit Sicherheit nicht zurückbeordert um was zu ändern.

Zossel
2025-01-30, 20:20:06
Vorsicht, hier gehts um linux! Da ist amd zwar inzwischen recht gut dabei, aber man kann trotzdem nicht immer erwarten das zum Release neuer Hardware die vom linux Kernel und den Treibern auch sofort 100% unterstützt werden. 1-2 Kernel Versionen abzuwarten kann da schon mal nötig sein.

Mesa gehört nicht zum Kernel, das ist Userspace.

Schau dir mal dieses Bild an: (Nicht mehr ganz taufrisch)

https://upload.wikimedia.org/wikipedia/commons/thumb/f/ff/Linux_AMD_graphics_stack.svg/1280px-Linux_AMD_graphics_stack.svg.png

via:

https://en.wikipedia.org/wiki/AMDgpu_%28Linux_kernel_module%29

gedi
2025-01-30, 20:31:02
Habe gerade gelesen, dass das Ding 3% laut AMD-interner Messungen schneller als eine 48080s sein soll. Ob jetzt nur Raster, oder mixed, ging aus dem Artikel nicht hervor.

Wenn dies stimmen sollte, dann ist mit Preisen ~900€ zu rechnen!

War glaube ich eine Zusammenfassung von einem MLID Video. Also eigentlich wenig wert. Das Video habe ich mir nicht angetan, da viel Gequatsche um nix...

Palpatin
2025-01-30, 20:41:02
Konnt keine 5080 für unter 1200 ergattern, hoffe AMD geht nicht zu billig in den Markt, so das man die beim Release auch wirklich kaufen kann. Auf die 5070 ti habe ich irgendwie 0 Bock.

Der_Korken
2025-01-30, 20:44:04
Habe gerade gelesen, dass das Ding 3% laut AMD-interner Messungen schneller als eine 48080s sein soll. Ob jetzt nur Raster, oder mixed, ging aus dem Artikel nicht hervor.

Wenn dies stimmen sollte, dann ist mit Preisen ~900€ zu rechnen!

War glaube ich eine Zusammenfassung von einem MLID Video. Also eigentlich wenig wert. Das Video habe ich mir nicht angetan, da viel Gequatsche um nix...

lol, jetzt wird die Leistung der 9070 bis zum Release immer weiter steigen und am Releasetag abstürzen. So wie letzten Frühsommer die Gerüchte um Zen 5%.

Achill
2025-01-30, 20:44:27
Wenn wir am hoffen sind, dann hoffe auf eine hohe Verfügbarkeit und die XT dann um die 650€ ..

raffa
2025-01-30, 20:59:13
Erste Kernel Patches für RDNA4 hat AMD schon vor etwa 7 Monaten eingereicht und seit 6.11 (Sept. 24) kennt der Kernel RDNA4. Wenig wies von dieser Seite auf einen so späten Release hin. Die Hardware ist schon lange "fertig".

Es wirkt schon so, als hätte hat sich kurzfristig entschieden, den Launch der 50er Serie abzuwarten und diesmal lieber einen leicht angereiften Wine zu bringen.
Wahrscheinlich kein Fehler, die Ersteindrücke prägen doch entscheidend das Bild.

gedi
2025-01-30, 21:07:44
lol, jetzt wird die Leistung der 9070 bis zum Release immer weiter steigen und am Releasetag abstürzen. So wie letzten Frühsommer die Gerüchte um Zen 5%.

Wenn die 9070(xt) so rauskommt wie Zen5 nun performt, dann können sich die Käufer glücklich schätzen. Das letzte Update von BIOS und Treiber brachte hier immerhin ~7 % an Mehrleistung. Zen5 zum Release war wohl eine Zumutung, aber aktuell ist es die beste Plattform, welche man sich derzeit geben kann! BTW. bin ich von einem 7950x3d zu einem 9950 gewechselt und bereue den Sidegrade keine Sekunde!

Zossel
2025-01-30, 21:37:37
Erste Kernel Patches für RDNA4 hat AMD schon vor etwa 7 Monaten eingereicht und seit 6.11 (Sept. 24) kennt der Kernel RDNA4. Wenig wies von dieser Seite auf einen so späten Release hin. Die Hardware ist schon lange "fertig".

Frühe Treiber werden bereits auf HW-Simulatoren noch vor dem Tapeout entwickelt und getestet, wie willst du sonst das Design testen ohne teure Maskensätze zu verbraten und ewig lange Turnaround Zeiten zu haben?

https://www.cadence.com/en_US/home/company/newsroom/press-releases/pr/2024/cadence-unveils-palladium-z3-and-protium-x3-systems-to-usher-in.html
https://www.cadence.com/en_US/home/tools/system-design-and-verification/emulation-and-prototyping/protium.html

Hatten wir hier schon mal mit viel Heckmeck diskutiert, weil ein User darauf bestanden hat das so was nicht geht.

crux2005
2025-01-30, 23:48:53
Wenn wir am hoffen sind, dann hoffe auf eine hohe Verfügbarkeit und die XT dann um die 650€ ..

+1 :)

Wiseman
2025-01-31, 00:32:12
Wurde das hier schon erwähnt?

https://i.ibb.co/PG2MtSNm/Screenshot-20250130-135804-You-Tube.jpg (https://ibb.co/pjHQnmx0)
https://youtu.be/udG8y64A8eo

Sollte das wirklich so kommen, dann dürften die Preise nicht niedrig sein.



Nein, wurde hier noch nicht erwähnt. Falls es wirklich so kommen sollte wie dieser Internet-Heini meint, nämlich dass die 9070XT die 5070Ti um 15% überflügelt und dass die 9070 die 5070 um 12% überflügelt, dann werden die Preise sicher nicht so niedrig sein wie von vielen erhofft.

Und trotzdem finde ich, es ist keine Panik angesagt.

Wer eine potente Grafikkarte mit 16 GB haben will, gibt entweder 750 Euro * für eine 9070XT oder 550 Euro * für eine 9070 aus.

Wer weniger als 550 Euro ausgeben will und auch mit weniger als 16 GB VRAM leben kann, wartet auf die 9060.

Wer überhaupt nichts ausgeben will, der behält seine derzeitige Karte. :biggrin:

* geschätzt

GerryB
2025-01-31, 07:43:24
Falls es sich für Deepseek lohnt, die großen 7900er wg. des Vrams gebraucht aufzukaufen, dann ...
würde sich evtl. ein Querwechsel auch von selbst bezahlen.

mal schauen, wie sich der AI-Hype auf den Gebrauchtmarkt auswirkt


btw.
MLID ist nach m.E. nur ein Dummschwätzer ohne echte Connections.
Ärgerlich, das so ein Schwachsinn hier im Forum auftaucht.
Dann hat man tatsächlich Overhype vs Reality = keinen guten Launch.

dargo
2025-01-31, 07:47:29
Wer eine potente Grafikkarte mit 16 GB haben will, gibt entweder 750 Euro * für eine 9070XT oder 550 Euro * für eine 9070 aus.

Ähm... 200€ Differenz zwichen 9070XT und non XT wird es zu 99,x% nicht geben. ;)

Ganon
2025-01-31, 08:14:09
Vorsicht, hier gehts um linux! Da ist amd zwar inzwischen recht gut dabei, aber man kann trotzdem nicht immer erwarten das zum Release neuer Hardware die vom linux Kernel und den Treibern auch sofort 100% unterstützt werden. 1-2 Kernel Versionen abzuwarten kann da schon mal nötig sein.

Ein weiteres Vorsicht sei hier auch noch erwähnt: RADV ist der "Community-Vulkan-Treiber" und AMD hat damit eigentlich nichts zu tun. Die verlinkte News bezieht sich z.B. auf Änderungen durch einen Valve Mitarbeiter.

Zossel
2025-01-31, 08:35:01
Ein weiteres Vorsicht sei hier auch noch erwähnt: RADV ist der "Community-Vulkan-Treiber" und AMD hat damit eigentlich nichts zu tun. Die verlinkte News bezieht sich z.B. auf Änderungen durch einen Valve Mitarbeiter.

Und um die Verwirrung noch zu steigern weise ich noch darauf hin das verschiedene Prozesse gleichzeitig auf der selben Maschine unterschiedliche Versionen oder Implementierungen der Userspace Komponenten nutzen können.

Badesalz
2025-01-31, 08:37:28
:confused: hab eigentlich an A070, B070 gedacht, oder 10070. Aber das sieht ziemlich doof aus.Stimme ich zu =)

dildo4u
2025-01-31, 08:40:54
Wenn wir am hoffen sind, dann hoffe auf eine hohe Verfügbarkeit und die XT dann um die 650€ ..
Das ist doch gegeben wenn angeblich schon ausgeleiert wird außerdem brauchen die Karten kein GDDR7.

Oranje7
2025-01-31, 09:50:04
Nur etwas doof, dass nach 9000 nicht mehr so viel luft ist. Evtl geht es nächste Generation ja auch mit Buchstaben weiter?

Würde man das Namenschema weiterführen wäre jetzt RC an der Reihe :cool:
Denn Früher nur R xxxx
Dann Anstatt 10000er nummern hat man Römisch 10 also X eingefügt
Und nur wäre theoretisch Römisch 100 also C fällig.
Auf der anderen gab es auch die R5/6/7 200er und 300er serie wobei das Schema auch nur kurz gehalten hat.

basix
2025-01-31, 10:12:41
Falls es sich für Deepseek lohnt, die großen 7900er wg. des Vrams gebraucht aufzukaufen, dann ...
würde sich evtl. ein Querwechsel auch von selbst bezahlen.

mal schauen, wie sich der AI-Hype auf den Gebrauchtmarkt auswirkt.

Es gibt quantisierte DeepSeek R1 Modelle. 2, 3, 4, 5, 6, 7bit, FP8. Ob 16GB oder 20GB macht da keinen grossen Unterschied. Nimmt man halt das 4bit anstatt 5bit Modell. Qwen-14B-DeepSeek-R1 sollte man auch in FP8 auf einer 16GB Karte betreiben können. Für Qwen-32B-DeepSeek-R1 reicht es auch mit 24GB nicht, ausser man nimmt eines der quantisierten Modelle (Qualität könnte allerdings under der Quantisierung leiden).

16GB sollte also gut passen. Wenn die AMD Tools noch mit der Quantisierung auf <FP8 klar kommen, könnte eine 7900er einen leichten Vorteil haben, da das 32B Modell mit einer besseren Quantisierung (=mehr Bit) reinpasst. Dafür hat RDNA4 FP8 support und entsprechend mehr Throughput / Token/s. Ich glaube langfristig hat man mit RDNA4 mehr davon, da native FP8-Unterstützung und aktuellere SW-Optimierungen. Die grösseren Modelle sind zwar besser, aber die Modelle entwickeln sich weiter. 14B könnte in ein paar Monaten bereits besser performen wie 32B heute.

GerryB
2025-01-31, 20:37:09
btw.
Noch ein letztes Mal ein Post von mir zur Preisbildung.

Gestern gelernt, dieselbe Hardware/einfachstes Modell/Kühler+PCB mit OC-Sticker kann man erheblich teurer verkaufen.
(wenn man bei den Besten abschaut)
Ob sowas nur bei arg limitierter Stückzahl/Paperlaunch funzt, who knows.
(Hauptsache professionelles Marketing, um die Leute richtig abzuziehen)


Kein Wunder das AMD ins Grübeln kommt, ob man Sowas nicht auch versuchen sollte.
(hoffentlich nicht, ... dann lieber etwas länger beim Marketing warten und faire Angebote+Verfügbarkeit)

crux2005
2025-01-31, 21:18:58
Wenn die Leaks bzgl. Leistung stimmen sehe ich auch nicht wieso AMD die 9070 XT nicht für $799 ohne MwStd. verkaufen sollte. Würde dann eh gescalped. Dank NV könnten sie aktuell sogar mit $850 MSRP durchkommen.

gedi
2025-01-31, 21:38:34
Wenn die Leaks bzgl. Leistung stimmen sehe ich auch nicht wieso AMD die 9070 XT nicht für $799 ohne MwStd. verkaufen sollte. Würde dann eh gescalped. Dank NV könnten sie aktuell sogar mit $850 MSRP durchkommen.

Niemand weiß, ob an den Benchmarks etwas wahres dran ist. Zudem: Erst dachten alle 549$ für ne 5070, müssen wir unsere Preisgestaltung weiter nach unten korrigieren, oder aber: Blackwell :biggrin: Wir warten erst mal ab, ob die Dinger wirklich so scheiße performen. Ich tendiere zu Option 2, da auf einmal der neue FG-Schrott auch auf Ada kommt!

GerryB
2025-02-01, 07:44:47
Während Asus insbesondere für einige UVP-Modelle eine Verfügbarkeit irgendwann im ersten Quartal 2025 in Aussicht stellt,
hat auch beispielsweise der britische Einzelhändler Scan UK darauf hingewiesen, dass einige Custom-Designs voraussichtlich erst
am 30. Mai wieder auf Lager sein werden.

Da ist ja SummaSummarum der 9070xt Verkaufstart sogar noch rechtzeitig, vgl. mit der Konkurrenz.

dargo
2025-02-01, 07:51:16
Erstmal abwarten was Ende März passiert. Wenn sich AMD bei der Nachfrage auch verkalkuliert kann ähnliches RDNA4 passieren. Alles schnell ausverkauft und Straßenpreise schießen nach oben.

Zossel
2025-02-01, 08:37:35
Erstmal abwarten was Ende März passiert. Wenn sich AMD bei der Nachfrage auch verkalkuliert kann ähnliches RDNA4 passieren. Alles schnell ausverkauft und Straßenpreise schießen nach oben.
Intel ist schuld:
"Wir wussten, dass wir ein großartiges Teil gebaut haben. Wir wussten aber nicht, dass der Wettbewerber ein so schreckliches gebaut hat", antwortet AMD-Manager Frank Azor. Als Wettbewerber ist Intel gemeint.
https://www.golem.de/news/lieferknappheit-bei-ryzen-7-9800x3d-amd-gibt-intels-schrecklickem-produkt-die-schuld-2501-192308.html

dildo4u
2025-02-01, 08:42:17
Da geht es um Arrow Lake.

Die Absurden Nvidia Preise führen nur dazu das AMD höhere Preise verlangen kann.
Man sollte hoffen das Tonnen 5070Ti produziert wurden damit 9700XT unter 800€ kommt.

dargo
2025-02-01, 08:50:34
Meinst du AMD macht jetzt einen auf Scalper? :freak: Warum hat AMD das nicht zum Miningboom gemacht?

OgrEGT
2025-02-01, 08:50:35
Dazu gehört aber gut funktionierendes FSR4 Upscaling... da muss AMD konkurrenzfähig sein zur 5070ti... MFG ist da nicht so wichtig da das nur wirklich was in den wenigen PT Showcases bringt sofern die Basis FPS hoch genug sind...

basix
2025-02-01, 09:50:07
Hinsichtlich 5070 Ti schaut es laut Gerüchten ja ziemlich gut aus. Bestätigt sich das muss dann noch FSR4 liefern, das ist richtig.

Im Digital Foundry Podcast haben sie noch einen interessanten Punkt besprochen:
Nvidia leitet via Treiber DLSS aufs neue DLSS4 um. Könnte AMD das nicht auch für DLSS vs. FSR anbieten? FSR4 <-> FSR 3.1 ist klar, das funktioniert. Doch es gibt viel mehr DLSS Spiele. Könnte AMD das ebenfalls patchen (DLSS -> FSR4) wäre das mMn ein riesen Gewinn für AMD-GPU-Besitzer. Klar, ist nicht so die "feine" Art sich auf die Arbeit des Konkurrenten zu stützen. Für die User/Gamer wäre das aber ein Gewinn. Und dieses Toolkit bitte auf GPUOpen veröffentlichen, sodass Leute ein DLSS -> FSR4 Swapper auch für Nvidia Karten bauen können :D

horn 12
2025-02-01, 10:06:27
CPU s´ 9950 X3D und 9070 (XT) kommen Ende März
So wohl um den 27 März Herum

fondness
2025-02-01, 10:12:15
CPU s´ 9950 X3D und 9070 (XT) kommen Ende März
So wohl um den 27 März Herum

Ja überrascht nicht. Die launcht man wohl zusammen um das Momentum mitzunehmen. Es gab ja auch schon damals, als man hörte, dass sich der Launch der 9950X3D auf März verschiebt, Gerüchte, dass sich auch die Radeons verschieben werden. Beides Gaming-Produkte, selbe Zielgruppe.

AlterSack
2025-02-01, 10:37:34
Wenn die Leaks bzgl. Leistung stimmen sehe ich auch nicht wieso AMD die 9070 XT nicht für $799 ohne MwStd. verkaufen sollte. Würde dann eh gescalped. Dank NV könnten sie aktuell sogar mit $850 MSRP durchkommen.

ist die frage, ob amd damit viele kunden gewinnen könnte.
in diesem preisbereich wird zum einen eher nvidia gekauft,
zum anderen ist der kundenkreis bei solchen preisen eher begrenzt.
was soll dann die non-xt kosten? ...700€? NEIN DANKE!

will man eine fiktive 9060xt für 550€ verkaufen?
das führte, glaube ich, in eine sackgasse.

wobei sich mir der eindruck aufdrängt,
dass die aktuelle technologie eh in einer solchen
steckt. seit 7nm "explodieren" die waferpreise.
man kann nicht mehr einfach die zahl der shader
mit jeder generation verdoppeln, zumal der zugewinn
an fps im vergleich zum aufwand nichtmehr dastellbar ist.
an der drehzahlschraube lässt sich auch nicht so drehen
wie gewünscht, der energieumsatz ginge durch die decke.
sieht man alles sehr gut anhand von rdna3 und 4,
oder auch an rtx 5000. dort behilft man sich fleissig mit
fake-frames.

GerryB
2025-02-01, 10:37:47
Man sollte hoffen das Tonnen 5070Ti produziert wurden damit 9700XT unter 800€ kommt.
erstmal werden diese Chips auf Custom 5080ern@1350€ verbaut, damit die Marge passt

ausreichende Mengen Ti´s zum UVP=897€, glaub ich erst, wenns tatsächlich eintritt(Yieldprobleme?)
eher
ist der Markt groß genug für 5070(Ti) und 9070(xt)

Der Preis wird hoffentlich nicht nach Verfügbarkeit sondern Performance gemacht.
4070TiS@RT als Messlatte in CP2077 fand ich bisher ganz brauchbar, von den Leaks her.
Hoffen wir mal, das es tatsächlich so kommt.

prinz_valium_2
2025-02-01, 11:36:32
Haha vor 10 Tage wurde im AMD subreddit noch über $599 für die 9070XT geweint, dass das viel zu hoch ist um Marktanteile zu gewinnen.


Die Vorstellungen von den Leuten liegen einfach zu weit auseinander.

robbitop
2025-02-01, 12:10:52
Jetzt hat AMD tatsächlich die Chance wenn sie genug Chips bestellt haben Marktanteile zu holen. Richtig aggressive Preise und viele GPUs verticken. Aber wenn man nur abschöpfen will und Nvidia minus 50 USD macht oder so ähnlich wird das nichts.

Wenn man langfristig nach vorn wöllte müsste man damit anfangen. Jetzt mit Kampfpreisen viel Marktanteil holen (aber auch richtig gute Produkte mit gepolishter Software liefern! so dass die Käufer zufrieden sind) und ab jetzt dann aber auch abliefern. Weil nur low price und mediocre funktioniert auch nicht. Ab dann die Initiative in die Hand nehmen und mal eigene Softwarefeatures machen und keine nur me-too Sachen. Dann könnte man auch nach vorn kommen. Dann müsste man aber wahrscheinlich auch in die RTG Sparte mehr investieren. Oder man lässt es einfach weiter rumdümpeln auf Sparflamme - aber dann besteht die Gefahr, dass man irgendwann in der Grafik Sparte in die Bedeutungslosigkeit rutscht und man nicht mal mehr Konsolen bekommt. Will sagen: Marktanteile sammeln allein reicht nicht für nachhaltigen Erfolg. Wenn man nicht aufstocken will zumindest.
Ich hoffe aber ehrlicherweise darauf, dass man da endlich mal nachschiebt damit dieser kaputte Markt sich wieder erholt.

dildo4u
2025-02-01, 12:13:05
Du weißt noch nicht wie die Lieferungen für 5070 TI aussehen.
Der Chip ist deutlich beschnitten was besser Yields als für die 5080 erlaubt.

fondness
2025-02-01, 12:21:34
Also aktuell gibt es mal von beiden keine Karten. Wie das im März aussieht wird man sehen. Von daher kann man dazu noch gar nichts sagen. Man sollte schon davon ausgehen, dass Nvidia bis März auch liefern kann. AMD wollte halt keinen paper launch wie Nvidia.

GerryB
2025-02-01, 12:25:08
Ab dann die Initiative in die Hand nehmen und mal eigene Softwarefeatures machen und keine nur me-too Sachen.
momentan sehe ich me-too nur bei NV@AFMF

nur wegen PT die Anderen zu feiern ist wohl noch 1-2 Gens zu früh für den Mainstream-Käufer <500-600€
Das ist ne ganz dumme Angewohnheit, das kleine grüne Mainstreamkäufer sich besser fühlen, nur weil ne 5090@3k€
sowas kann.

basix
2025-02-01, 12:26:48
Problem von Smooth Motion: RTX50 exklusiv. Das kann AMD besser ;)

robbitop
2025-02-01, 12:27:46
momentan sehe ich me too nur bei NV@AFMF

nur wegen PT die Anderen zu feiern ist wohl noch 1-2 Gens zu früh für den Mainstream-Käufer <500-600€
AFMF war seit langem wieder mal ein eigenes Feature. FSR/2 und Frame Generation waren alles me too. Und jeweils „too little too late“. Und mit RT sind sie IMO auch zu lange nicht aus dem Quark gekommen. Mit RDNA3 hätte man da schon mehr machen müssen.
Der ganze Kram den NV jetzt zu Blackwell gebracht müssen sie jetzt auch hinterherhecheln. Da kam bis dato einfach zu wenig.

fondness
2025-02-01, 12:31:13
Frame Generation war selbst laut so manchen NV Usern besser wie bei nVidia und kam nur wenig später. Und vor allem war es nicht vendor locked. Too little too late lol. Sie müssen FSR mit vergleichbarer Qualität abliefern, thats it. RT wird eh mit RDNA4 adressiert, außerdem wird das nach wie vor überschätzt wenn man mal nüchtern auf die Spiele schaut.

GerryB
2025-02-01, 12:31:19
AFMF war seit langem wieder mal ein eigenes Feature.

vergiss nicht SAM

Schalte mal Beides ab, und Du wirst sehen, was AMD da geleistet hat.

btw.
Chill fand ich auch nice, gerade im Hochsommer
dito nutze ich den Regler für Tesselation, brauche nicht 32-64fachen Schmarrn, der sinnlos die Watt hochtreibt
8-fach sollte reichen, sehe da in 4k kaum noch Unterschiede

edit:
Die 9070(xt) mit 16GB wird wohl in einigen Games@4k die spar mich zu Tode 12GB-Modelle abhängen.(5070 etc.)
z.Bsp. siehe Anhang, minFps beachten

edit2:
übrigens kann AMD mit FG viiiiel besser skalieren als NV, also man me-too_ed nicht einfach nur Murks, sondern kanns
deutlich besser in mooore Fps umsetzen, ... siehe Anhang3+4

robbitop
2025-02-01, 14:34:34
Frame Generation war selbst laut so manchen NV Usern besser wie bei nVidia und kam nur wenig später. Und vor allem war es nicht vendor locked. Too little too late lol. Sie müssen FSR mit vergleichbarer Qualität abliefern, thats it. RT wird eh mit RDNA4 adressiert, außerdem wird das nach wie vor überschätzt wenn man mal nüchtern auf die Spiele schaut.
DLSS 3 FG kam im Oktober 2022. FSR 3 FG kam August 2023 und zwar in kaputter Form. Die erste halbwegs funktionierende Implementierung war in Avatar die iirc 2-3 Monate später kam. Und doch war sie Implementierung je nach Spiel damals noch stark durchwachsen. Richtig rund und konsistent in allen Spielen lief es dann überall durchgängig iirc erst mit FSR3.1. Das kam Sommer 2024. Ein funktionierendes Latenzredktionsverfahren (was sehr wichtig für FG ist) was nicht gehookt war (also Anticheat und Co getriggert hat) kam erst mit Antilag 2.0. Und das kam IIRC auch erst Mitte 2024. FG ohne Latenzreduktion ist nicht so toll.
DLSS FG hatte all das ab Anfang. Das Einzige was FSR3 FG besser konnte war die Skalierung der fps.

basix
2025-02-01, 14:39:47
Das Thema Skalierung hat sich mit DLSS4 mittlerweile massiv verbessert und ist auf FSR3 FG Niveau (bei ungefähr ähnlich schneller GPU).

GerryB
2025-02-01, 14:43:23
Das Thema Skalierung hat sich mit DLSS4 mittlerweile massiv verbessert und ist auf FSR3 FG Niveau (bei ungefähr ähnlich schneller GPU).
Haste mal ein paar Beispiele in Reviews oder ist Das nur Hören-Sagen?

4080 und 5080 skalieren jetzt also gleich gut mit DLSS4@quality + FG 1x ?
vs 7900xtx mit FSR@quality + FG

robbitop
2025-02-01, 14:44:23
vergiss nicht SAM

Schalte mal Beides ab, und Du wirst sehen, was AMD da geleistet hat.

btw.
Chill fand ich auch nice, gerade im Hochsommer
dito nutze ich den Regler für Tesselation, brauche nicht 32-64fachen Schmarrn, der sinnlos die Watt hochtreibt
8-fach sollte reichen, sehe da in 4k kaum noch Unterschiede

edit:
Die 9070(xt) mit 16GB wird wohl in einigen Games@4k die spar mich zu Tode 12GB-Modelle abhängen.(5070 etc.)
z.Bsp. siehe Anhang, minFps beachten

edit2:
übrigens kann AMD mit FG viiiiel besser skalieren als NV, also man me-too_ed nicht einfach nur Murks, sondern kanns
deutlich besser in mooore Fps umsetzen, ... siehe Anhang3+4
SAM hat AMD afaik nicht erfunden. Das ist nur deren branding für einen PCIe Standard „resizeble bar“.

Das mit der Skalierung stimmt - aber es kam leider sehr spät in nutzbarer Form (in jedem Spiel mit gutem Framepacing) und die Latenzreduktion AL2 kam auch erst sehr spät und ist kaum verbreitet.

Der Skalierungsvorteil ist jetzt mit DLSS4 FG auch eingeschmolzen.

Außerdem war der Punkt ja nicht dass AMDs feature nicht gut sind sondern dass sie die Initiative nicht übernommen haben sondern hauptsächlich hinterher laufen. Aus verständlichen Gründen (RTG ist klein). Aber die Frage ist ob es nicht Sinn macht, das zu ändern. AMDs HW Enginieers sind super. Man müsste mit dem AI Geld einfach investieren in mehr SW Leute für die RTG und dann das Heft in die Hand nehmen.
Damit das dann auch geht und man Studios überzeugen kann ihre Sachen zu implementieren braucht es aber zunächst mal Marktanteil. Insofern wäre das Schritt 1 wenn man ein richtiges Comeback wie im CPU Sektor will. Und dann wie gesagt Schritt 2: langer Atem und jede Generation mehr abliefern. Und immer schön polishen.
Kurzfristig gesehen: wozu? Epyc, Ryzen und KI machen Geld. Langfristig wäre es schon sinnvoll mehr starke Standbeine zu haben für mehr Stabilität.

Alles eine IMO. :) Kann gern jeder anders sehen

fondness
2025-02-01, 14:45:56
DLSS 3 FG kam im November 2022. FSR 3 FG kam August 2023 und zwar in kaputter Form. Die erste halbwegs funktionierende Implementierung war in Avatar die iirc 2-3 Monate später kam. Und doch war sie Imolementierung je nach Spiel damals noch stark durchwachsen. Richtig rund und konsistent in allen Spielen lief es dann überall durchgängig iirc erst mit FSR3.1. Das kam Sommer 2024. Ein funktionierendes Latenzredktionsverfahren (was sehr wichtig für FG ist) was nicht gehookt war (also Anticheat und Co getriggert hat) kam erst mit Antilag 2.0. Und das kam IIRC auch erst Mitte 2024. FG ohne Latenzreduktion ist nicht so toll.
DLSS FG hatte all das ab Anfang. Das Einzige was FSR3 FG besser konnte war die Skalierung der fps.

"Das einzige". So als ob das nicht das Entscheidende wäre und alles inkl. Latenz beeinflusst. Zumal es auf Radeons schon deutlich früher gut lief. Leute die mit Geforces davon berichten sind immer besonders witzig.

robbitop
2025-02-01, 14:51:13
Die Latenz von FSR3 ohne Antilag 2 was ja erst viel viel später kam und in noch kaum Spielen ist, ist sicherlich nicht vergleichbar mit der von DLSS3 FG mit reflex. Auch wenn bei FSR3 mehr frames rauskamen.
Und auch bei AMD Karten dauerte es (ich hab mir jeden Test von ancientgameplays dazu reingezogen der dazu Radeons nutzt und der auch noch eine gewisse Affinität für AMD hat - meint wenn er da Schwächen aufzeigt sind die auch da) eine ganze Weile bis die Frame Generation Titel dann wirklich konsistent funktionierten. Meint: konsistent über die releases. Entweder dauerte es eine Weile bis die Devs da durchgesehen haben oder FSR3.1 FG hat da noch etwas gebracht was Robustheit gebracht hat.

So oder so ist das doch alles nur eine Nebendiskussion. Der Punkt war: Es ist und bleibt ein me-too feature was leider viel zu lange zum Reifen beim Kunden gebraucht hat (adding insult to injury).

Wenn AMD nach vorn will, müssen sie investieren damit sie selbst die Initiative ergreifen können. Das was sie abliefern ist für die Größe und das budget der RTG beachtlich. Aber IMO reicht es langfristig nicht um wieder richtig zurück zu kommen.

fondness
2025-02-01, 14:52:15
FSR FG hat eine eingebaute Latenzreduktion die zumindest auf Radeons sehr gut funktioniert. zB:

At the same time, latency decreased due to AMD's built-in latency reducing tech that is applied when frame generation is enabled. So with FSR 3 on, we ended up seeing a 23ms drop to latency, noting that the muzzle flash we were testing in Aveum isn't instant on mouse click hence the high overall numbers.

On a GeForce RTX 4090, there was no latency improvement between frame generation on or off.

https://www.techspot.com/article/2747-amd-fsr-3-tech/

robbitop
2025-02-01, 15:04:54
Das stimmt aber wenn man sich im gleichen Artikel anschaut wie viel mehr Latenzreduktion Reflex bringt, ist das schon ein Unterschied.
Anscheinend ist die eingebaute Latenzreduktion ein anderer Mechanismus um Latenz zu reduzieren oder schafft nur eine Teil des Effekts. AL+ bringt diese großen Sprünge dort auch ohne FG - mit FG schien das damals nicht zu funktionieren- tut es aber jetzt mit AL2 soweit ich weiß. Also ja FSR3 FG war auf radeons besser in Bezug auf Latenz aber noch nicht so wie heute mit dem Reflex Pendant Antilag 2.

Linmoum
2025-02-01, 15:07:41
FSR FG hat eine eingebaute Latenzreduktion die zumindest auf Radeons sehr gut funktioniert. zB:



https://www.techspot.com/article/2747-amd-fsr-3-tech/"Sehr gut funktioniert"?. Aus deinem Link:

DLSS3 Quality + Reflex: 87,3 ms
DLSS3 Q + FG + Reflex: 90,4 ms (+3.5% durch FG)

FSR3 Quality + AL+: 89,2 ms
FSR3 Q + FG + AL+: 107,3 ms (+20% durch FG)

Das verdeutlicht nur umso mehr das, worauf robbi mit Latenzreduktion hinauswill. Und das ist ja das große Problem. Wie gut funktioniert denn AL2 mittlerweile? Bzw. in wie vielen Spielen funkioniert das mittlerweile überhaupt?

robbitop
2025-02-01, 15:23:22
IMO: hat man es mit einer Radeon mittlerweile auch sehr gut. Dank Optiscaler kannst du FSR3.1 überall nutzen und auch XeSS und FSR3.1 Frame Generation und afaik auch Reflex in AL2 umleiten.
Die 7900XT gibt es auch schon eine ganze Weile (Mitte 2023 ish?) immer mal wieder für 650eur. (die XTX fand ich immer zu teuer)
Schade, dass sie N31 von der TDP Einstellbarkeit so zugenagelt haben. Das Ding mit ner schönen Custom Wakü und 500-600W auf 3,2 GHz prügeln hätte man 2023 ein nettes Kärtchen für das Geld gehabt IMO.
Wenn N48XT für 600€ käme wäre das schon eine sehr sehr geile Karte. Dank FSR und grundsätzlich Optiscaler und jetzt wo mehr RT Spiele kommen auch ordentlicher RT Leistung. ^^

Wiseman
2025-02-01, 15:28:27
momentan sehe ich me-too nur bei NV@AFMF

nur wegen PT die Anderen zu feiern ist wohl noch 1-2 Gens zu früh für den Mainstream-Käufer <500-600€

Das ist ne ganz dumme Angewohnheit, dass kleine grüne Mainstreamkäufer sich besser fühlen, nur weil ne 5090@3k € sowas kann.

+1

Danke, GerryB. Weiter so. Du bist einer der Wenigen, die diesen Thread einigermaßen erträglich machen.

GerryB
2025-02-01, 17:05:16
Thanks@Basix

btw.
NV@AFMF
bringt keine Verdopplung, ... nur ca. 60% in KCD2

Das kann AMD mindestens genauso gut seit AFMF2.
(meistens sind in den Games fast doppelt soviel fps drin)

Lurtz
2025-02-01, 18:53:05
DLSS 3 FG kam im Oktober 2022. FSR 3 FG kam August 2023 und zwar in kaputter Form. Die erste halbwegs funktionierende Implementierung war in Avatar die iirc 2-3 Monate später kam. Und doch war sie Implementierung je nach Spiel damals noch stark durchwachsen. Richtig rund und konsistent in allen Spielen lief es dann überall durchgängig iirc erst mit FSR3.1. Das kam Sommer 2024. Ein funktionierendes Latenzredktionsverfahren (was sehr wichtig für FG ist) was nicht gehookt war (also Anticheat und Co getriggert hat) kam erst mit Antilag 2.0. Und das kam IIRC auch erst Mitte 2024. FG ohne Latenzreduktion ist nicht so toll.
DLSS FG hatte all das ab Anfang. Das Einzige was FSR3 FG besser konnte war die Skalierung der fps.
Halbwechs funktionierend ist gut. Avatar macht bis heute Probleme wenn zB ein Overlay an ist.
Wie gut funktioniert denn AL2 mittlerweile? Bzw. in wie vielen Spielen funkioniert das mittlerweile überhaupt?
In ein paar Multiplayerspielen, die man eh nicht mit FG spielt? :ugly:

basix
2025-02-01, 21:07:44
Wieso wurde eigentlich mein Post mit FSR3 FG vs. DLSS4 FG Vergleich gelöscht?

Es wurde damit ja nichts schlimmes beabsichtigt und ein Vergleich auf bestehenden Tatsachen angestellt. Und falls man wir Nvidia Bias unterstellen will: Ich wünsche mir nichts lieber, dass RDNA4 als auch FSR4 sehr gut werden und am besten sogar besser als Blackwell und DLSS4 werden.

GerryB
2025-02-01, 23:09:21
Wieso wurde eigentlich mein Post mit FSR3 FG vs. DLSS4 FG Vergleich gelöscht?
Mach Dir nichts draus, ich hab Deinen Post gelesen und kann Dir Neutralität bescheinigen.

Das Ergebnis deckt sich übrigens mit meinem Post#6202.(Anhang)
Dort hat der Reviewer auch geschrieben das DLSS3 momentan noch ein mue schneller ist als DLSS4,
und deswegen DLSS3 verwendet wurde.

btw.
bezgl. AL2
wenn in Competition AL2 ohne FG verwendet wird, hat das doch Ursachen
Latenz rules, not max FakeFps
(meist nur ne Handvoll Games, wo in Profi-Ligen@TV um viel Geld gespielt wird, ... ob 0815 User daheim
auch schon die Unterschiede merken, who knows)

Ich fand damals das Gezeter mit AntiCheat vs. AL+ vollkommen überzogen!
(may be, in ner ProfiLiga helfen da 3ms, aber doch nicht für die Allgemeinheit in MP-Games per Web,
wo evtl. Standort vs Server die Pingzeit wesentlich stärker beeinflusst)

robbitop
2025-02-01, 23:28:26
Das Gezeter war nicht weil AL+ Latenzvorteile schafft sondern es kollidiert mit Anticheat weil es sich in das Spiel reinhookt so wie es auch Cheats machen. Und dann schlägt der Alarm an. So implementiert man das halt nicht. Das ist Jank.

DR.DEATH
2025-02-01, 23:51:47
Das Gezeter war nicht weil AL+ Latenzvorteile schafft sondern es kollidiert mit Anticheat weil es sich in das Spiel reinhookt so wie es auch Cheats machen. Und dann schlägt der Alarm an. So implementiert man das halt nicht. Das ist Jank.

Cool, wie implementiert man das denn Spielagnostisch?

Der_Korken
2025-02-02, 00:26:11
Cool, wie implementiert man das denn Spielagnostisch?

Gar nicht, genauso wie weder FSR, DLSS oder Reflex per Treiber "erzwungen" werden können.

DR.DEATH
2025-02-02, 01:29:03
Ja eben, die Hook Methode würde dann aber funktionieren.
Gefühlt wird alle 3 Seiten rumgejammert dass AMD keine der kriegsentscheidenden Features von NVidia hat und hastenichtgesehen. Dabei brauchst bei den ganzen proprietären Geraffel immer noch den goodwill des Spieleentwicklers. Ich weiß nicht mal ob ich überhaupt auch nur ein einziges Spiel habe was Reflex unterstützt... Warum ist das nicht Teil der RenderAPI? Rumgefrickel im Spiel mit irgendwelchen proprietären APIs und immer muss das Rad 3 mal erfunden werden. Scheinbar ist der goldene Käfige zu verlockend wenn man dabei "aber works for me" ruft.

Prinzenrolle
2025-02-02, 07:28:07
Der ganze Kram den NV jetzt zu Blackwell gebracht müssen sie jetzt auch hinterherhecheln. Da kam bis dato einfach zu wenig.

Vor allem der ganze neurale Kram. Alan Wake 2 läuft mit Mega Geometry nun mit wesentlich weniger Speicherverbrauch und mehr FPS, auch auf der alten 40er Generation. Wobei da nicht ganz so schnell als auf der 50er mit den angepassten RT Cores.
Frame Generation war selbst laut so manchen NV Usern besser wie bei nVidia und kam nur wenig später.
Wenig später. Ca 1-1,5 Jahre und dann vorerst ohne gute Latenzreduktion und Geruckel. Bis heute hat man mehr Probleme mit Framepacing und spielinternen overlays. Es brachte mehr Performance.

nur wegen PT die Anderen zu feiern ist wohl noch 1-2 Gens zu früh für den Mainstream-Käufer <500-600€

Wenn AMD die Strategie verfolgt erst nachzuziehen, wenn das Nest mit RT gebaut ist, können sie auch gleich Insolvenz anmelden.
Aus der Sicht des Mainstream Käufers neu eingeführte Technologien zu betrachten, damit man sich das irgendwie noch schönargumentieren kann, ist auch längst überholt. Immer zu sagen, man brauche es noch nicht, hat schon ein gewisses Geschmäckle.
Pathtracing kann ich auch auf einer kleinen GeForce nutzen, dazu braucht es keine 5090.

dargo
2025-02-02, 07:33:35
Wie gut funktioniert denn AL2 mittlerweile?
In GoT ganz gut... FSR 3.1 Native-AA.

AL2 Off vs. AL2 On
https://www2.pic-upload.de/thumb/37462192/AL_Off_FG_Off.jpg (https://www.pic-upload.de/view-37462192/AL_Off_FG_Off.jpg.html) https://www2.pic-upload.de/thumb/37462193/AL_On_FG_Off.jpg (https://www.pic-upload.de/view-37462193/AL_On_FG_Off.jpg.html)

AL2 Off + FG vs. AL2 On + FG
https://www2.pic-upload.de/thumb/37462191/AL_Off_FG_On.jpg (https://www.pic-upload.de/view-37462191/AL_Off_FG_On.jpg.html) https://www2.pic-upload.de/thumb/37462194/AL_On_FG_On.jpg (https://www.pic-upload.de/view-37462194/AL_On_FG_On.jpg.html)

Weiß = Latenz

robbitop
2025-02-02, 08:20:12
Cool, wie implementiert man das denn Spielagnostisch?

Die Zeit der spielagnostischen Features ist bis auf wenige Ausnahmen vorbei. Die Renderpipelines sind schon lange zu komplex. Und hooks macht man nunmal nicht. Ja braucht goodwill - deshalb ist es so wichtig Marktanteil zu holen. Und deshalb ist AMD die open source Schiene gefahren. Wenn ihre Features auf jeder HW laufen lohnt es für die Studios dann doch. Aber: wenn die natürlich deutlich schlechter laufen wackelt der Vorteil wieder. Und es scheint auch so zu sein, dass HW agnostik dann auch Nachteile mit sich bringen.

GerryB
2025-02-02, 13:59:49
Pathtracing kann ich auch auf einer kleinen GeForce nutzen, dazu braucht es keine 5090.

really ?
Wenn die Fps@nativ zu niedrig sind, nützt auch MFG nichts, ... siehe kleine 5080

Die MainstreamGamer werden nicht wg. solchem Humbug Grakas >1350€ kaufen,
dann doch lieber nur normales RT mit ner preiswerten 5070/9070.
(warten Wir mal ab, wie HardwareLumen auf N48 läuft)

dargo
2025-02-02, 14:05:36
Bitte nicht den Troll @Prinzenrolle füttern, danke. :smile:

The_Invisible
2025-02-02, 14:45:50
really ?
Wenn die Fps@nativ zu niedrig sind, nützt auch MFG nichts, ... siehe kleine 5080

Die MainstreamGamer werden nicht wg. solchem Humbug Grakas >1350€ kaufen,
dann doch lieber nur normales RT mit ner preiswerten 5070/9070.
(warten Wir mal ab, wie HardwareLumen auf N48 läuft)

Da aktivierst jetzt einfach DLSS-P@DLSS4 mit Transformer und sieht sogar noch besser aus als FSR3-Q.

GerryB
2025-02-02, 15:03:58
Wenn Du 720 Pixel in der vertikalen Achse geil findest, dann bist Du hier im falschen Thread.
Wieviel Ray´s sind das dann?
Da man kann den Quatsch auch ganz weglassen.

basix
2025-02-02, 16:53:41
4K DLSS-P sieht sehr gut aus und 1440p DLSS-P immer noch erstaunlich gut. Zumindest mit dem neuen DLSS4.

Hoffe, das kriegt AMD mit FSR4 ebenfalls hin. Ich würde da definitiv auf die 9070 warten. Die dürfte nur kurz nach der 5070 released werden, hat 16GB und vermutlich einen guten Ticken mehr Performance (RT und PT sehen wir noch).

Hakim
2025-02-02, 16:58:40
Das gute wäre auch, da man seit Januar liefern kann, hat sich hoffentlich was aufgestaut womit die Verfügbarkeit besser wäre. Zumindest hoffe ich das

dargo
2025-02-02, 17:56:13
Neue Laberstunde...

dmT7qA9UcWM

Angeblich 599$ für die RX 9070XT, einige AIBs sicherlich drüber.

ChaosTM
2025-02-02, 18:00:07
Ich hoffe wirklich, dass RDNA 4 gut wird.
NV brauch Konkurrenz - selbst wenn man nur 4080er Leistung erreicht

Der_Korken
2025-02-02, 19:23:17
NV brauch Konkurrenz - selbst wenn man nur 4080er Leistung erreicht

Selbst dieses "nur" halte ich für alles andere als selbstverständlich. Ein Preis von 599$ spricht für mich eher dafür, dass die Karte eine gute Ecke langsamer ist als die Gerüchte mit 4080-Level-Performance. Wenn die 5070Ti genauso ein MSRP-Reinfall ist wie die beiden großen Karten, dann könnte AMD auch einfach selber auf 749$ gehen ohne schneller als die 5070Ti zu sein (also knapp unterhalb der 4080). Auf dem Papier wäre P/L zwar nur gleich, aber wenn es die AMD-Modelle auch tatsächlich für 749$ zu kaufen gibt, eben trotzdem ein Vorteil.

gedi
2025-02-02, 21:06:11
Neue Laberstunde...

https://youtu.be/dmT7qA9UcWM

Angeblich 599$ für die RX 9070XT, einige AIBs sicherlich drüber.

Im Leben nicht!

Hatstick
2025-02-02, 21:53:16
4080 Leistung wäre meiner Meinung nach richtig gut, lass sie für 700€ kommen.
Wäre meiner Meinung nach fast schon ein Kracher, wenn man sich das nVidia Portfolio anschaut.

Prinzenrolle
2025-02-02, 21:57:50
really?

Ja. Really, stell dir vor.
Das wird auf einer 9070XT auch klappen, Gesetz dem Fall die RT Leistung steigt deutlich.


Angeblich 599$ für die RX 9070XT, einige AIBs sicherlich drüber.

Mehr als Gelaber ist das nicht. Der Preis ist niemals bei 599 Dollar, wenn er zuvor bei 849 Dollar war.

DR.DEATH
2025-02-02, 22:30:54
Die Zeit der spielagnostischen Features ist bis auf wenige Ausnahmen vorbei. Die Renderpipelines sind schon lange zu komplex. Und hooks macht man nunmal nicht. Ja braucht goodwill - deshalb ist es so wichtig Marktanteil zu holen. Und deshalb ist AMD die open source Schiene gefahren. Wenn ihre Features auf jeder HW laufen lohnt es für die Studios dann doch. Aber: wenn die natürlich deutlich schlechter laufen wackelt der Vorteil wieder. Und es scheint auch so zu sein, dass HW agnostik dann auch Nachteile mit sich bringen.

Das ist aber als Kunde/Konsument einfach nervig. Dann wird's nur halbarschig umgesetzt und/oder nur eine alte Version bzw. bleibt auf einer Version und es ändert sich nichts mehr. Das alles dann bitte für NV/AMD/Intel noch mal von vorn, maximal unbefriedigend.

Warum oder weswegen soll AMD eine Open Source Schiene gefahren sein? Das machen die schon 'ne ganze Ecke länger und limitieren nicht künstlich die Software oder Fertigungsmethoden / RAM Standards usw...

Klar bring HW Agnostik irgendwann auch mal Nachteile und ggf. ist doch mal ein Cut notwendig. Hängt aber auch von der Umsetzung und geforderten Rechenleistung bzw. Datentypen ab. Mittlerweile geht NV ja auch den Weg von FixedFunction zu Shader/Compute. Das exkludierende OpticalFlow braucht wohl niemand mehr.

Raff
2025-02-02, 23:21:51
Im Leben nicht!

Klingt aber recht plausibel. Der MSRP der RTX 5070 beträgt 549 US-Dollar (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-5080-5070-Ti-5070-offiziell-vorgestellt-1462981/galerie/3962079/). Dann liegt man bei der Performance wohl deutlich darüber.

MfG
Raff

][immy
2025-02-02, 23:33:02
Nvidia Preislich unter Druck zu setzen, wäre zwar für uns Konsumenten gut, aber definitiv nicht für AMD. Nvidia hat ja angeblich eine hohe Marge. Die können also jederzeit auch preislich gegen steuern.
Also wäre es für AMD wohl taktisch klüger lieber eine höhere Marge zu haben und Nvidia nicht zu sehr unter Druck zu setzen, es sein denn der nächste viel größere Chip kommt sehr zügig und kann es auch mit dem top dogs von Nvidia aufnehmen. Und selbst dann würde sich wohl auch AMD für die größere Marge entscheiden.

Überzeugen muss AMD besonders auf der Software Seite, denn selbst wenn sie im klassischen Rendering schneller wären und bei RT (wobei ich das nach wie vor für nicht reif halten werde, wenn man nicht gerade um einige Faktoren an Geschwindigkeit zu legt) hätte Nvidia immer noch dlss (halte ich auch nix von, genauso wie von fsr & von) was insgesamt deutlich besser unterstützt wird, mit dem Nvidia wieder davon zieht.

Chancen auf günstigere Preise sehe ich erst, wenn Intel eine größere GPU raus bringen würde, mit der man dann bis zum Mittelfeld alles angreift. Dann käme vielleicht auch endlich wieder Bewegung in den Markt, was tatsächlich nutzbare Features auf lower budget Produkten (damit meine ich die Preisbereiche 200-500€) angeht.

Raff
2025-02-02, 23:37:42
Der große Battlemage ist nach wie vor für die Jahresmitte im Gespräch. Eventuell sehen wir das Ding ja auf der Computex ... oder Gamescom.

MfG
Raff

robbitop
2025-02-03, 07:05:37
Das ist aber als Kunde/Konsument einfach nervig. Dann wird's nur halbarschig umgesetzt und/oder nur eine alte Version bzw. bleibt auf einer Version und es ändert sich nichts mehr. Das alles dann bitte für NV/AMD/Intel noch mal von vorn, maximal unbefriedigend.

Warum oder weswegen soll AMD eine Open Source Schiene gefahren sein? Das machen die schon 'ne ganze Ecke länger und limitieren nicht künstlich die Software oder Fertigungsmethoden / RAM Standards usw...

Klar bring HW Agnostik irgendwann auch mal Nachteile und ggf. ist doch mal ein Cut notwendig. Hängt aber auch von der Umsetzung und geforderten Rechenleistung bzw. Datentypen ab. Mittlerweile geht NV ja auch den Weg von FixedFunction zu Shader/Compute. Das exkludierende OpticalFlow braucht wohl niemand mehr.

AMD hat schon sehr lange relativ wenig Marktanteil. So schlimm wie jetzt ist es zwar noch nicht lange aber dass sie eine deutliche Minderheit ggü. NV sind ist schon ewig her. Und die Zeit des Überstülpens ist seit gut 10-15 Jahren vorbei.

Ich gebe dir Recht - nervig ist das. Ggf hätte man solche Hook Features anders nutzen sollen. Als option im Panel mit dem Hinweis an den User dass das bei Online MP Spielern zu Problemen und Bans führen kann und auf eigene Gefahr geschieht.

basix
2025-02-03, 08:06:55
AMD sollte für FSR4 einen Hook auf die DLSS-DLL machen :D

Armaq
2025-02-03, 10:10:33
[immy;13699547']Nvidia Preislich unter Druck zu setzen, wäre zwar für uns Konsumenten gut, aber definitiv nicht für AMD. Nvidia hat ja angeblich eine hohe Marge. Die können also jederzeit auch preislich gegen steuern.
Also wäre es für AMD wohl taktisch klüger lieber eine höhere Marge zu haben und Nvidia nicht zu sehr unter Druck zu setzen, es sein denn der nächste viel größere Chip kommt sehr zügig und kann es auch mit dem top dogs von Nvidia aufnehmen. Und selbst dann würde sich wohl auch AMD für die größere Marge entscheiden.

Überzeugen muss AMD besonders auf der Software Seite, denn selbst wenn sie im klassischen Rendering schneller wären und bei RT (wobei ich das nach wie vor für nicht reif halten werde, wenn man nicht gerade um einige Faktoren an Geschwindigkeit zu legt) hätte Nvidia immer noch dlss (halte ich auch nix von, genauso wie von fsr & von) was insgesamt deutlich besser unterstützt wird, mit dem Nvidia wieder davon zieht.

Chancen auf günstigere Preise sehe ich erst, wenn Intel eine größere GPU raus bringen würde, mit der man dann bis zum Mittelfeld alles angreift. Dann käme vielleicht auch endlich wieder Bewegung in den Markt, was tatsächlich nutzbare Features auf lower budget Produkten (damit meine ich die Preisbereiche 200-500€) angeht.
Das sehe ich so nicht. AMD hat ein Stückzahlenproblem. Die Marktaufteilung ist relativ harsch und nvidia kann zwar sagen easy die Preise hochhalten, aber AMD ist eben der Challenger. Schau einfach 8 Jahre zurück was AMD da gemacht hat im Vergleich zu Intel. Die Karte muss natürlich eine Rendite abwerfen, aber imho sind sie zu Volumen verdammt.

Der_Korken
2025-02-03, 10:24:58
Das sehe ich so nicht. AMD hat ein Stückzahlenproblem. Die Marktaufteilung ist relativ harsch und nvidia kann zwar sagen easy die Preise hochhalten, aber AMD ist eben der Challenger. Schau einfach 8 Jahre zurück was AMD da gemacht hat im Vergleich zu Intel. Die Karte muss natürlich eine Rendite abwerfen, aber imho sind sie zu Volumen verdammt.

Würde ich ähnlich sehen, denn bei einer zu geringen Stückzahl hauen zum Einen die Entwicklungskosten stärker rein pro Einheit und zum anderen verlieren sie bei der Inegration ihrer Software-Features in Spiele weiter an Boden. Dadurch muss die nächste Generation noch billiger verkauft werden, weil sie selbst bei gleichwertiger Hardware gegenüber Nvidia das objektiv schlechtere Produkt haben. Ein Teufelskreis. Ich bin nur skeptisch, ob AMD soweit denkt oder ob sie überhaupt noch langfristiges Interesse am Gaming-Markt haben.

G3cko
2025-02-03, 10:42:17
Ich bin nur skeptisch, ob AMD soweit denkt oder ob sie überhaupt noch langfristiges Interesse am Gaming-Markt haben.

AMD ist der Marktführer wenn man die Konsolen mit einbezieht. Ihre Architektur bezogen auf den Konsolenzyklus muss abwärtskompatibel sein (siehe PS5 Pro mit RDNA3.5). Erst mit einer komplett neuen Konsolengeneration gibt es auch einen größeren Architekturbruch. Siehe UDNA, RDNA oder GCN.

Die Konsole Deals haben Vorteile aber eben auch Nachteile.

Wenn ein Mitbewerber etwas neues in HW umsetzt, egal ob bei CPUs oder GPUs, dauert es mit unter Jahre bis sowas ebenfalls im Produkt landet. Wie lange hat Intel für einen Chipletansatz benötigt. Wie lange braucht AMD für eine eigene KI Implementierung? Wenn die RX7000 eine halbherzige Umsetzung hatte, dann ebenfalls Jahre.

robbitop
2025-02-03, 11:14:04
Würde ich ähnlich sehen, denn bei einer zu geringen Stückzahl hauen zum Einen die Entwicklungskosten stärker rein pro Einheit und zum anderen verlieren sie bei der Inegration ihrer Software-Features in Spiele weiter an Boden. Dadurch muss die nächste Generation noch billiger verkauft werden, weil sie selbst bei gleichwertiger Hardware gegenüber Nvidia das objektiv schlechtere Produkt haben. Ein Teufelskreis. Ich bin nur skeptisch, ob AMD soweit denkt oder ob sie überhaupt noch langfristiges Interesse am Gaming-Markt haben.
Kurzfristig gesehen müsste AMD die Gaming GPU Sparte zumachen und das Silizium auf Epyc und Instinct umlenken und würde mehr Gewinn machen. Aber langfristig ist mehr Diversifikation immer wichtig. Wenn ein Standbein umkippt, ist es gut andere zu haben. Die GPU Sparte hat ihnen mit Xbox und Playstation sicherlich den Hintern gerettet in den schlechten Zeiten. Jetzt tut es Zen. Aber es kommen andere die im CPU Bereich (ARM) eine langfristige Bedrohung darstellen können und bei AI ist auch nichts ausgeschlossen.
Die jetzige gute Wirtschaftssituation sollte man IMO nutzen, RTG zu "renovieren" / wieder aufzubauen. Dazu muss man sicherlich Investitionen tätigen und Leute einstellen. Und dann wäre der erste Schritt (alles IMO hier) erstmal GPUs möglichst günstig zu verkaufen um die Installationsbasis zu vergrößern. Und sicherstellen, dass die Ware richtig gut ist. Und wenn man dann immer besser wird und immer mehr Marktanteile hat, kann man sicherlich analog Ryzen langsam die Preise heben. Aber solange man in dieser Teufelsspirale gefangen ist, wird nichts helfen und man strudelt irgendwann potenziell in die Bedeutungslosigkeit.
Wäre auf jeden Fall super, wenn RDNA4 den Wendepunkt dafür markiert. Für alle Endkunden.

AMD ist der Marktführer wenn man die Konsolen mit einbezieht. Ihre Architektur bezogen auf den Konsolenzyklus muss abwärtskompatibel sein (siehe PS5 Pro mit RDNA3.5). Erst mit einer komplett neuen Konsolengeneration gibt es auch einen größeren Architekturbruch. Siehe UDNA, RDNA oder GCN.

Die Konsole Deals haben Vorteile aber eben auch Nachteile.

Wenn ein Mitbewerber etwas neues in HW umsetzt, egal ob bei CPUs oder GPUs, dauert es mit unter Jahre bis sowas ebenfalls im Produkt landet. Wie lange hat Intel für einen Chipletansatz benötigt. Wie lange braucht AMD für eine eigene KI Implementierung? Wenn die RX7000 eine halbherzige Umsetzung hatte, dann ebenfalls Jahre.
Die Konsolen haben AMD sicherlich sehr geholfen. Aber der positive Einfluss auf Spiele für PCs hat sich bis dato relativ in Grenzen gehalten. Daraus schließe ich, dass man auch bei dGPU stark bleiben muss. Und irgendwie bedingt sich das auch gegenseitig. Ohne starke Grafik IP gibt es auch die Gefahr, die Konsolendeals irgendwann zu verlieren. Man sollte RTG nicht weiter absaufen lassen.

G3cko
2025-02-03, 11:23:57
Ich denke ohne die Konsolen-Deals sähe es noch viel düster aus.

prinz_valium_2
2025-02-03, 11:29:03
AMD hat das Ding halt 9070/XT genannt.
Also warum sollte die Karte nicht bei $599 liegen. Nämlich da, wo eine 70er Karte hingehört. (mittlerweile - früher wäre es eher $349 - 499 gewesen)

Die 5070 liegt ja auch bei $549


Im besten Fall wird die 9070XT $599 kosten.
Im Schlechtesten Fall wird die 9070 $599 kosten.

basix
2025-02-03, 11:32:16
Die Konsolen haben AMD sicherlich sehr geholfen. Aber der positive Einfluss auf Spiele für PCs hat sich bis dato relativ in Grenzen gehalten. Daraus schließe ich, dass man auch bei dGPU stark bleiben muss. Und irgendwie bedingt sich das auch gegenseitig. Ohne starke Grafik IP gibt es auch die Gefahr, die Konsolendeals irgendwann zu verlieren. Man sollte RTG nicht weiter absaufen lassen.

AMD hat insgesamt fünf Märkte für GPUs:
- Mobile SoCs (Samsung? Handhelds)
- APUs
- dGPUs
- Konsolen
- ML/AI

Es gibt also genug Gründe, dass man GPU IP als wichtig erachtet und entsprechend weiterentwickelt. Wenn AMD hier noch via UDNA die HPC-Accelerators und Consumer/Prosumer Chips näher zusammenbringt, hat man zusätzliche Synergien (ergo GPU-IP R&D besser amortisiert).

robbitop
2025-02-03, 11:47:53
ML/AI setzt aber anderen Fokus. Das kann man nur partiell mitzählen. Konsolen, APUs und dGPUs hingegen hängen alle mit in einem Boot und bedingen sich IMO gegenseitig. Auf das kann man die Entwicklung abschreiben. Je größer das Boot desto mehr kann man investieren.
Und dGPUs sind oftmals schon der Innovationstreiber für 3D Grafik (RT, Upsampling, Frame Generation und der ganze Kram den NV zB jetzt rausgebracht hat zu jüngster Zeit), die dann langsam in APUs und Konsolen runtertrickeln. Wenn das fehlt, wird man bei APUs und Konsolen auch immer weiter zurückrutschen.
Eher müsste man den Innovationsmotor IMO aufmotzen. Mehr Marktanteil, dann Leute einstellen mit denen man die Featureinitiative wieder in die Hand nehmen kann und mit dem Marktanteil diese dann auch sukzessive umsetzen. Was die dGPU Sparte stärker macht, macht dann auch die IP in den Konsolen und APUs stärker.

Altehardware
2025-02-03, 12:37:58
Soweit der Gedanke
Sofern udna in Software in hybrid wird dürfte das aufgehen wenn es aber wie gcn ein eher hpc Beschleuniger ist und es auf 64bit basiert kommt wieder das problem der Auslastung der alu.
Der aktuelle Pfad mit dual issue ist gut und sollte forciert werden aber ich ahne das udna 64bit wird und nur noch 0,75 vom cu genutzt werden kann .
Da muss amd schon 256 alu per cu bereitstellen das dies klappt.
optimistisch wie ich bin sehe ich eher dual issue mit doppelten alu per cu aus.
Realistisch sehe ich es so kommen das amd alle dgpu abseits dem high end auf apu auslagern wird. Womit amd ganz von alleine starke Marktanteile gewinnt ab 2027
Das erklärt auch warum man big rdna4 cancelt hatte, es macht keinen Sinn auf die krone zu schielen wenn man darunter kaum was verkauft also bekommen alle entry und mid class das per apu aufgedrückt.
Daneben die rdna4 sku für bestehende am5 Systeme und man hat ne Perfekte Marktabdeckung und dann am ende mit a16 node in high end klare ansagen machen kann.

udna kommt erst 2027 und wird alle überraschen vermutlich 128alu per cu und grob 3,4ghz 8 Se a24cu = 192cu
Egal ob 64bit und nur 75% Auslastung oder volle Auslastung beides bringt die krone zurück.
darauf hat nvidia keine Antwort.
Das wie, nun 2 gcd mit aktiven interposer wo das Si und alu Anteil getrennt sind neben einer npu. 512bit Si da braucht es nicht mal hbm
Das design gibt es als patent

Zossel
2025-02-03, 13:09:58
ML/AI setzt aber anderen Fokus. Das kann man nur partiell mitzählen. Konsolen, APUs und dGPUs hingegen hängen alle mit in einem Boot und bedingen sich IMO gegenseitig. Auf das kann man die Entwicklung abschreiben. Je größer das Boot desto mehr kann man investieren.
Und dGPUs sind oftmals schon der Innovationstreiber für 3D Grafik (RT, Upsampling, Frame Generation und der ganze Kram den NV zB jetzt rausgebracht hat zu jüngster Zeit), die dann langsam in APUs und Konsolen runtertrickeln. Wenn das fehlt, wird man bei APUs und Konsolen auch immer weiter zurückrutschen.
Eher müsste man den Innovationsmotor IMO aufmotzen. Mehr Marktanteil, dann Leute einstellen mit denen man die Featureinitiative wieder in die Hand nehmen kann und mit dem Marktanteil diese dann auch sukzessive umsetzen. Was die dGPU Sparte stärker macht, macht dann auch die IP in den Konsolen und APUs stärker.

Vorvorgestern war die Konzentration aufs Kerngeschäft gerade hip.
Vorgestern war das heben von Synergien hip.
Gestern war die Konzentration aufs Kerngeschäft gerade hip.
Heute ist das heben von Synergien hip.
Morgen wird die Konzentration aufs Kerngeschäft hip werden.
Übermorgen wird wieder das heben von Synergien hip sein.
Blabla.

basix
2025-02-03, 13:45:24
ML/AI setzt aber anderen Fokus. Das kann man nur partiell mitzählen. Konsolen, APUs und dGPUs hingegen hängen alle mit in einem Boot und bedingen sich IMO gegenseitig. Auf das kann man die Entwicklung abschreiben. Je größer das Boot desto mehr kann man investieren.
Und dGPUs sind oftmals schon der Innovationstreiber für 3D Grafik (RT, Upsampling, Frame Generation und der ganze Kram den NV zB jetzt rausgebracht hat zu jüngster Zeit), die dann langsam in APUs und Konsolen runtertrickeln. Wenn das fehlt, wird man bei APUs und Konsolen auch immer weiter zurückrutschen.

Dem angestrichenen Teil kann ich nicht zustimmen. Turing verbaut seit 2018 Tensor Cores und immer mehr Gaming relevante Dingen verwenden ML und DNN. Jetzt so Themen wie Neural Shading und der Cerny, der hinsichtlich Playstation 6 auch sehr stark in Richtung DNN denkt. Und da ist noch Nvidias Push zu "reinem Neural Rendering". Matrix Cores werden also immer wichtiger werden und dort hat man eine sehr grosse Synergiewirkung zwischen HPC-Accelerators und Gaming-GPUs. Das sieht man ja auch an den GPUs von Nvidia. Unterschiede gibt es da primär bei FP64 Support auf der einen Seite und Raster/RT/Display-HW auf der anderen Seite. Und natürlich Stacking/Packaging, was aber die Core GPU-IP nicht sonderlich beeinflusst sondern primär den Interconnect. Selbst so Sachen wie Video-Encoder/Decoder sind sehr wichtig für ML/AI Anwendungszwecke.

Mir ist schon klar, das dGPU Innovationstreiber sind. Das bezieht sich ausserhalb von RT aber mittlerweile eher auf SW-Features. Raster wird immer unwichtiger (RT und z.B. Nanite). Und Matrix/Video-Engines benötigt man bei Datacenter/HPC auch. Und da deutlich mehr Kohle im Datacenter/HPC Bereich zu holen ist, wird man sich hinsichtlich Innovation deutlich stärker an den Bedürfnissen dieses Marktes ausrichten. dGPUs können das dann mitnehmen (Matrix-Engines, Video-Engines, SW-Support/Frameworks). Bei dGPUs wird noch ein wenig Raster gepimpt und der Rest wird RT sein. Die Core-Shader (Vektor) sollten bei HPC und dGPU wohl auch fast identisch sein (sind sie bei AMD momentan nicht, deswegen UDNA).