PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: AMD stellt Radeon RX 9070 & 9070 XT für Listenpreise von 549 bzw. ...


Leonidas
2025-02-28, 15:08:31
Link zur News:
https://www.3dcenter.org/news/amd-stellt-radeon-rx-9070-9070-xt-fuer-listenpreise-von-549-bzw-599-dollar-vor

Raff
2025-02-28, 15:20:46
Ich würde mir um die RX 9070 keine Sorgen machen, das ist der eigentliche Star. Keine neue Nano, aber zumindest schön effizient. Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben. Vermutlich hängt’s auch etwas am Margenstreben, das ist ja quasi die gleiche Hardware wie bei der XT.

MfG
Raff

aceCrasher
2025-02-28, 15:22:45
Am Ende werden sich die Straßenpreise so einpendeln, dass der Abstand zwischen den Karten größer ist. Das Drama hatten wir bein der 7900XT vs 7900XTX doch auch schon.

Gast
2025-02-28, 15:34:54
Die Hardware sieht sehr gut aus, aber ohne DLSS4 leider uninteressant.

Raff
2025-02-28, 15:54:54
Die Hardware sieht sehr gut aus, aber ohne DLSS4 leider uninteressant.

Einige von uns haben 30 Jahre ohne DLSS gespielt und leben noch. :D

MfG
Raff

wandermann
2025-02-28, 16:11:26
Die 9070 ist halt trotzdem die günstigste 16 GB-Karte der neuen Generation, vermutlich ist auch der Ausschuss der Chips für die 9070 XT nicht so hoch, sodass man gar nicht so viel davon verkaufen möchte. Bei nur 50$ Unterschied werde ich mir wohl eine 9070 XT kaufen, wenn die Preise dann abgeklungen sind (Mondpreise werde ich nicht bezahlen).

Ich hoffe nur, dass auch die TDP-Werte im Dualmonitor, Idle- und Browser-Betrieb vernünftig werden.

Gast 145
2025-02-28, 16:50:22
Ich würde mir um die RX 9070 keine Sorgen machen, das ist der eigentliche Star. Keine neue Nano, aber zumindest schön effizient. Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben. Vermutlich hängt’s auch etwas am Margenstreben, das ist ja quasi die gleiche Hardware wie bei der XT.

MfG
Raff

Haben die Tester denn schon alles zur Verfügung? Bei dem geringen Preisunterschied scheint mir die xt dennoch attraktiver - man kann sie ja UV/ein wenig heruntertakten.

redpanther
2025-02-28, 17:38:05
Einige von uns haben 30 Jahre ohne DLSS gespielt und leben noch. :D

MfG
Raff

Einige von uns haben auch viele Jahre Autos ohne Airbag, ABS, etc gefahren.
Ich möchte auf vieles davon nicht mehr verzichten, auch wenn man diese Zeiten überlebt hat.

Gast
2025-02-28, 17:38:22
Einige von uns haben 30 Jahre ohne DLSS gespielt und leben noch. :D



Weil es keines gegeben hat, man gewöhnt sich schnell an Verbesserungen, aber nur sehr langsam an Verschlechterungen. Das Bessere ist eben des Guten Feind.

ChaosTM
2025-02-28, 17:53:39
Einige von uns haben auch viele Jahre Autos ohne Airbag, ABS, etc gefahren.
Ich möchte auf vieles davon nicht mehr verzichten, auch wenn man diese Zeiten überlebt hat.


Schlechter Vergleich. Grafikkarten töten eher selten - höchstens die 600 Watt Dinger mit 12 Pin Stecker.
Würde eher Bluetooth, Mp3 Player oder Handys nehmen. Driving ohne Texting war super fad.

+

Karte schaut ok aus. Hoffentlich auch so richtig kaufbar..

Buddy Casino
2025-02-28, 17:55:44
Die 9070 ist halt trotzdem die günstigste 16 GB-Karte der neuen Generation
Denke das ist für viele mit der wichtigste Faktor. Alles unter 16GB hat den Geruch der Eintagsfliegen.

G3cko
2025-02-28, 18:09:12
Ich würde mir um die RX 9070 keine Sorgen machen, das ist der eigentliche Star. Keine neue Nano, aber zumindest schön effizient. Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben. Vermutlich hängt’s auch etwas am Margenstreben, das ist ja quasi die gleiche Hardware wie bei der XT.

MfG
Raff


Der Takt ist ja auch ein ganzes Stück niedriger ich denke, wenn Jemand händisch optimiert, dann ist mittels OC die 9070 non XT eine sehr spannende Karte

user77
2025-02-28, 18:17:15
Ich würde mir um die RX 9070 keine Sorgen machen, das ist der eigentliche Star. Keine neue Nano, aber zumindest schön effizient. Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben. Vermutlich hängt’s auch etwas am Margenstreben, das ist ja quasi die gleiche Hardware wie bei der XT.

MfG
Raff

ne neue ITX Nano wäre geil, 2/3 der TDP, klein, leise und nur 15% langsamer :cool:

VfBFan
2025-02-28, 18:37:32
Ich hoffe nur, dass auch die TDP-Werte im Dualmonitor, Idle- und Browser-Betrieb vernünftig werden.

Das wurde ja extra beworben, sollte also (deutlich) besser sein als in den Generationen davor.

Gast
2025-02-28, 19:37:14
Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben. Vermutlich hängt’s auch etwas am Margenstreben, das ist ja quasi die gleiche Hardware wie bei der XT.



Ich denke eher man wollte auf die XT 649-699 dranschreiben.

Birdman
2025-02-28, 20:21:32
Das wurde ja extra beworben, sollte also (deutlich) besser sein als in den Generationen davor.
Davon habe ich nirgends was gesehen oder gelesen.
Ich gehe daher eher davon aus dass dieser Punkt mal wieder vergessen/vernachlässigt wurde und wir eine weitere Gen mit einem Rückschritt oder Stillstand diesbezüglich sehen werden

Gast
2025-02-28, 21:33:44
@Birdman
Ich zitiere Computerbase:
"Die neue Display-Engine soll darüber hinaus effizienter im Dual-Monitor-Betrieb funktionieren, wenn diese über FreeSync verfügen. Darüber hinaus unterstützt RDNA 4 wie Nvidia Blackwell Hardware Flip Queue, so dass die Displayausgabe nicht mehr von der CPU, sondern von der GPU gesteuert wird, auch wenn AMD das Feature nur für eine geringere Leistungsaufnahme bei der Videowiedergabe nutzt."

GraphikkartusLongus
2025-02-28, 21:34:30
Ich würde mir um die RX 9070 keine Sorgen machen, das ist der eigentliche Star. Keine neue Nano, aber zumindest schön effizient. Leider scheint das auch AMD so zu sehen, ansonsten hätte man direkt 499 drangeschrieben.

Ohne Reference Modell sind diese 50,- relativ unbedeutend.
Sobald sie in den Onlineshops auftauchen, werden es eher um die 150€ Unterschied sein (5070Ti erstmal knapp unterbieten und danach weiter runter)
9070: ab 699€; Überbleibsel ab 879€; spekuliert: 749€ Ende März
9070XT: ab 849€; Überbleibsel ab 999€; spekuliert: 899€ Ende März

5070Ti: Lagerstände füllen sich bald; Preise sinken teilweise bereits:
spekuliert: -50€ ab März, weitere 50-75€ Reduktion bis Ende März;
die Inno3d 5070Ti X3 OC ist heute schon den ganzen Tag für 1079€ verfügbar - keiner will se. Ende März liegt sie wahrscheinlich bei 949€ (die nonOC dann ggf. gar UNTER UVP mit 869€ ?!?) Muss aber zugeben, dass meine Glaskugel etwas dreckig war, als ich das rausgelesen habe.... Also ohne Gewähr :freak::freak::freak:

Gast
2025-02-28, 22:08:04
Ich bin wirklich gespannt wie viel Leistung die 9070XT überhaupt verliert, wenn man ihr die Stromsauferei einhegt. Sie hat schließlich immerhin 14,2% mehr CUs und so unglaublich viel größer ist der Abstand zur nicht-XT dann auch nicht mehr.

wandermann
2025-02-28, 22:53:08
Wir haben durch die aufgeschobenen Grafikkarten-Launches und eingestellten Alt-Serien eine breite Grafikkarten-Armut im Markt - das wird sich erst zunehmend lösen wenn auch die 5060 und die 9060 den Markt erreichen und es wieder genug für alle zu kaufen gibt.

Die Vorräte an 9070 könnten aber gut sein - immerhin hat man den Release ja künstlich aufgeschoben und währenddessen weiter produziert - das wird auch den Preis der RTX 5070Ti senken.

Im Sommer wird es wieder genügend Grafikkarten geben.

Platos
2025-03-01, 09:07:40
Einige von uns haben 30 Jahre ohne DLSS gespielt und leben noch. :D

MfG
Raff

Was für ein schlechtes Argument bitte :D

Es geht doch ums P/L. Wenn man bei nvidia mit Perfomance bessere Optik hat, wie bei AMD FSR Quality, dann müsste das Teil eben noch günstiger sein.

Gäbe es ein DLSS 4 Konter (der was taugt), wäre die Karte natürlich auch nicht so günstig.

Dumm ist eben langsam, dass RT immer wichtiger wird (und AMD da anscheinend immer noch zurückliegen wird) und gleichzeitig aber nvidia beim Upscaler immer besser wird und AMD immer weiter abhängt. Also genau dort, wo man quasi noch punkten könnte (Raster), versagt der Upscaler. Früher war das noch so, dass RT zwar massiv hinterher hinkt, dafür aber DLSS sowieso noch viele Fehler hatte (konnte man irgendwie noch so halbwegs argumentieren). Heute ist mit DLSS4 aber wirklich langsam was brauchbares entstanden und AMD ist nun quasi bei beidem total am abstinken.

Aber hoffen wir mal, dass AMD was gleichgutes liefert mit FSR 4 (glaube ich zwar nicht, aber hoffen kann man ja). Und hoffen wir mal, das unabhängige Benches die RT Perfomance auch in solchen Spielen wie Cyberpunk Pathtracing bestätigen können (dann wäre AMD ja tatsächlich mal gut dabei).

ChaosTM
2025-03-01, 09:45:15
Du hast die versteckte Ironie wohl übersehen. Raff ist glühender RT/PT Befürworter. :)

Und selbst wenn AMD ein qualitativ absolut gleichwertiges Produkt liefern könnte, was seehr schwer sein wird, muss man preislich unter NV bleiben. Mindestens 50€ ^^

Gast
2025-03-01, 18:35:42
Es geht doch ums P/L. Wenn man bei nvidia mit Perfomance bessere Optik hat, wie bei AMD FSR Quality, dann müsste das Teil eben noch günstiger sein.

Gäbe es ein DLSS 4 Konter (der was taugt), wäre die Karte natürlich auch nicht so günstig.
Woher genau weißt du, wie FSR4 aussieht und wie es performed? Ich habe bisher nur eine Preiview in genau einem Spiel gesehen, das ist viel zu wenig, um etwas zu sagen.
Und selbst wenn AMD ein qualitativ absolut gleichwertiges Produkt liefern könnte, was seehr schwer sein wird, muss man preislich unter NV bleiben. Mindestens 50€ ^^
Du meinst mindestens 300€, oder? Gibt ja schon genügend Kommentare in den Foren, die sagen, dass die 9070XT viel zu teuer ist und mindestens noch einmal 150$ billiger sein müsste (also insgesamt dann 300$ billiger als die 5070Ti), eher mehr. Niemand weiß, wie gut/schlecht die Karte ist, aber sie wird jetzt schon verrissen...
Sorry, aber bei solchen Kunden kann NVidia vermutlich auch das doppelte bis dreifache verlangen und die finden noch irgendwelche Argumente, um NVidia zu kaufen.

Platos
2025-03-02, 10:11:28
Ganz einfach, weil AMD bisher (seit es DLSS/RT und co. gibt) es nicht einmal auf die Reihe gebracht hat, mit nvidia gleichzuziehen.

Und dann kommt noch der Preis, der darauf hinweist, dass es ein schwächeres Produkt wird (denn die Rohleistung ist gemessen an nvidia viel höher pro Dollar). Auch hier hat AMD nicht gerade geglänzt in den letzten Jahren (P/L).

Es gibt viele Hinweise, dass AMD nicht gleichziehen wird. Aber trotzdem habe ich ja darauf hingewiesen, dass es ja auch möglich ist, dass AMD gleichzieht.

ChaosTM
2025-03-02, 10:34:03
Woher genau weißt du, wie FSR4 aussieht und wie es performed? Ich habe bisher nur eine Preiview in genau einem Spiel gesehen, das ist viel zu wenig, um etwas zu sagen.

Du meinst mindestens 300€, oder? Gibt ja schon genügend Kommentare in den Foren, die sagen, dass die 9070XT viel zu teuer ist und mindestens noch einmal 150$ billiger sein müsste (also insgesamt dann 300$ billiger als die 5070Ti), eher mehr. Niemand weiß, wie gut/schlecht die Karte ist, aber sie wird jetzt schon verrissen...
Sorry, aber bei solchen Kunden kann NVidia vermutlich auch das doppelte bis dreifache verlangen und die finden noch irgendwelche Argumente, um NVidia zu kaufen.


Fanboys jeder Farbe gehören halt nicht zur klügsten Sorte, aber das ist bekannt.

Gast
2025-03-02, 10:51:50
Woher genau weißt du, wie FSR4 aussieht und wie es performed? Ich habe bisher nur eine Preiview in genau einem Spiel gesehen, das ist viel zu wenig, um etwas zu sagen.



Man muss das nicht genau wissen, aber man kann es mit den vorhandenen Informationen mit sehr hoher Wahrscheinlichkeit abschätzen.

AMD selbst sagt dass man mit Project Amethyst seit über 1 Jahr mit Sony daran arbeitet, man kann also davon ausgehen, dass man mit PSSR schon quasi ein Preview von FSR4 gesehen hat, und PSSR ist aktuell ganz klar eine Klasse unter DLSS3 anzusiedeln, maximal vergleichbar mit XeSS, eher sogar etwas schlechter.

AMD selbst spricht von FSR4-P „near native quality“, DLSS4-P ist besser als nativ. Also nicht mal AMD selbst traut FSR4 die Qualität von DLSS4 zu.

Auffällig auch, während sich in den Marketing-Slides in den letzten 2 Monaten durchaus Performancevergleiche mit der 5070Ti verirrt haben, gibt es keine Vergleiche mit DLSS4. Man geht also bewusst dem Vergleich aus dem Weg, warum kann man sich ja denken.

Die Annahme dass FSR4 mit DLSS3 gleichzieht ist schon eine für AMD sehr positive Annahme. Die Wahrscheinlichkeit dass man DLSS3 Qualität gar nicht erreicht ist nicht mal so gering. Die Wahrscheinlichkeit doch DLSS4 Qualität zu erreichen dagegen verschwindend gering.

FSR2/3–>FSR4 ist zweifellos ein großer Schritt.
DLSS3–>DLSS4 aber genauso.

Und die Wahrscheinlichkeit ist sehr hoch, dass sich am Abstand nicht viel geändert hat, beide haben eine großen Schritt nach vorne gemacht.

Nvidia hat aber 2 große Vorteile, Verfügbarkeit auf allen RTX-Karten und Verfügbarkeit auf allen DLSS Spielen. AMD ist die Verfügbarkeit auf RNDA4 beschränkt, und auf FSR3-Spiele von denen es deutlich weniger gibt.

Badesalz
2025-03-02, 11:34:18
Es geht doch ums P/L. Wenn man bei nvidia mit Perfomance bessere Optik hat, wie bei AMD FSR Quality, dann müsste das Teil eben noch günstiger sein.Des guten Umgangs wegen will ich jetzt nicht fragen, ob du Lack gesoffen hast, aber was war es dann? Irgendwas von Head&Shoulder?
Was soll die XT denn kosten?! :uconf3:
Kriegst du die 5700ti irgendwo unter 1.1xx€? Am fairsten bepreist wäre die XT, wenn man sie einer special edition von Assassin's Creed Shadows beilegen würde ja? :freak:

@Der nächste Maulwurf
Von 26 Titeln, sahen mit DLSS4-Q 10 Spiele schlechter aus, 4 Spiele waren gleich auf und 10 sahen bisschen besser aus. Und das variert in der Menge SEHR WOHL je nach durchsuchtem Frame. Das kann man also mit dem ausgesuchten Frame super beeinflussen, ob es besser oder schlechter aussieht.

Mit DLSS4-Q, also. Hört daher auf zu halluzinieren und den anderen diesen Müll zu erzählen, "DLSS4-P sieht besser aus als nativ."

Wenn du nach 3DC kommst, musst du warm angezogen sein, unbedarfter Werbeträger.

Linmoum
2025-03-02, 14:24:45
Hört daher auf zu halluzinieren und den anderen diesen Müll zu erzählen, "DLSS4-P sieht besser aus als nativ."Also hast du eine GeForce und sammelst eigene Erfahrung mit DLSS4 im P-Mode (Preset K)? Wenn nicht, ist die Vehemenz ("Müll erzählen"), die du an den Tag legst, nicht nur völlig daneben, sondern halt schlicht und ergreifend falsch. Und andere dann als Werbeträger nach solchen Zeilen zu bezeichnen ist schon ein starkes Stück.

GraphikkartusLongus
2025-03-02, 16:44:02
DOPPLPOSCHT * SRY

GraphikkartusLongus
2025-03-02, 16:45:24
Mit DLSS4-Q, also. Hört daher auf zu halluzinieren und den anderen diesen Müll zu erzählen, "DLSS4-P sieht besser aus als nativ."
Wenn du nach 3DC kommst, musst du warm angezogen sein, unbedarfter Werbeträger.

Besser als nativ ist subjektiv... Besser als DLLS3-Q aber real. Und FSR4-Q wird NICHT signifikant (+5% wenn überhaupt) besser als DLSS3-Q abliefern können.
Somit bleibt derwegen: DLSS-P > FSR-Q in jedem erdenklichen Fall.

Badesalz
2025-03-02, 19:28:01
Also hast du Dein gewohnt penetrantes pseudo Ks kenn ich. Im Westen nichts neues... Eigentlich also alles ok, aber diesmal gehst du mir damit tatsächlich auf den Keks.

@GraphikkartusLongus
Das könnte sein (4-P besser als 3-Q). Das war bis dahin aber auch dürftig - DAS war übrigens auch nie die Meinung des Typen oben :usweet: - und wird nun langsam annehmbar. Ok. Da gab es auch einiges an Potenzial...

Aber 4-P ist nicht besser als nativ. Das ist absoluter Fanboy-Müll an ausgesuchten Frames. KP wie man entweder so benagelt sein kann oder die anderen für so benagelt hält, daß die ihm das glauben. Und das auf 3DC... Was ein mieser Joke :uup:

Gast
2025-03-02, 22:27:28
Und das variert in der Menge SEHR WOHL je nach durchsuchtem Frame.


Richtig, es kommt aber nicht auf das Pixelpeeping einzelner Frames an, die kann man sich immer so aussuchen um das Ergebnis zu zeigen was man erreichen will.

Es geht um den Gesamteindruck, und die Verbesserungen die DLSS-P gegenüber Nativ zeigt überwiegen die Bildbereiche die besser aussehen gegenüber denen die weniger gut aussehen bei weitem.

Leonidas
2025-03-03, 03:17:55
... überwiegen die Bildbereiche die besser aussehen gegenüber denen die weniger gut aussehen bei weitem.

Dies ist aber nicht der alleinige Maßstab. Wenn DLSS/FSR/XeSS irgendwelche Elemente komplett falsch darstellt, hilft es auch nicht weiter, an anderer Stelle besser zu sein als das Original. Und auch dies passiert leider. Stellen viele nur nicht fest, da denkt man eher "schlechtes Asset der Spieleentwickler".

tekcld
2025-03-03, 07:09:06
Die Aussage "besser als original/nativ" laesst mich immer erschaudern. Nativ ist das optimum denen die bilderfinder sich bestenfalls annaehrend koennen.

Gast
2025-03-03, 08:01:16
Dies ist aber nicht der alleinige Maßstab. Wenn DLSS/FSR/XeSS irgendwelche Elemente komplett falsch darstellt, hilft es auch nicht weiter, an anderer Stelle besser zu sein als das Original.


Wenn es in 90% der Fälle besser und nur in 10% schlechter ist, ist es in Summe immer noch besser.


Und auch dies passiert leider. Stellen viele nur nicht fest, da denkt man eher "schlechtes Asset der Spieleentwickler".

Kannst du mal eruieren was du damit meinst? Dass Upsampling mal schlechter aussieht was Bildschärfe generell Aliasing oder Ghosting angeht kommt schon mal vor, aber dass ein Asset komplett anders aussieht wäre mir noch nie untergekommen.

Gast
2025-03-03, 08:02:40
Nativ ist das optimum denen die bilderfinder sich bestenfalls annaehrend koennen.

Nativ ist nicht mal Ansatzweise das Optimum, das ist sogar weit davon entfernt.

Näher würde man dem Optimum kommen mit 64xSSAA, und ja die "Bilderfinder" können diesem Optimum näher kommen als natives Rendering.

Leonidas
2025-03-03, 09:34:39
Wenn es in 90% der Fälle besser und nur in 10% schlechter ist, ist es in Summe immer noch besser.

Das ist korrekt. Dafür reicht auch 50/50. Ich redete aber von Fällen, wo die Bilderfindung Bildelemente echt zerstört, sprich wo nicht mehr das dargestellt wird, was der Spieleentwickler dort sehen wollte. Natürlich sind das dann korrigierbare Fails, nicht der Normalzustand.



Dass Upsampling mal schlechter aussieht was Bildschärfe generell Aliasing oder Ghosting angeht kommt schon mal vor, aber dass ein Asset komplett anders aussieht wäre mir noch nie untergekommen.

Komplett anders jetzt nicht. Aber zumindest nicht mehr so, wie es der Spieleentwickler sich gedacht hat. Passiert hier und da schon einmal, besonders bei übergelagerten Effekten wie Rauch, Strahlung etc. Damit kann die KI manchmal nicht gut zurechtkommen.

Exxtreme
2025-03-03, 09:40:58
Die Aussage "besser als original/nativ" laesst mich immer erschaudern. Nativ ist das optimum denen die bilderfinder sich bestenfalls annaehrend koennen.

Die Problematik ist leider da, dass nativ schlechter aussehen kann als mit DLSS & Co. Das liegt in aller Regel an komplett unfähigen Entwicklern, die nicht in der Lage sind nicht flimmrigen Content zu generieren. Nur leider ist das so, dass diese unfähigen Entwickler bereits so eine Masse erreicht haben, dass man das auch nur noch schwer ignorieren kann. Oft kann man es gar nicht mehr ignorieren da man ein Zwangs-TAA/DLSS/FSR etc. bekommt. Bei sowas kann man das Spiel nur noch boykottieren.

aufkrawall
2025-03-03, 10:16:56
Es wird immer Aliasing sowohl an Polygonkanten als auch innerhalb von Polygonen geben, das ist ohne zusätzliche Samples einfach unvermeidlich. Unglaublich, was im 3DCenter im Jahr 2025 für ein Stuss geschrieben wird.
Und DLSS-Samples > TAA-Samples, also = besser als nativ. Muss man nur verstehen, hat aber gewisse mentale Voraussetzungen.

Exxtreme
2025-03-03, 10:31:45
Kanten flimmern, ja. Aber es geht mir eher um Kontent, der massiv flimmert obwohl das keine Kanten sind. OK, hätte ich eventuell besser präzisieren sollen, sorry. :)

aufkrawall
2025-03-03, 10:36:32
Angeblich weniger flimmernder Content ist ein Mythos. Man muss sich nur Alphatests anschauen, die meist die größte temporale Instabilität von allem Content haben. Sie waren ohne AA schon immer ein kompletter Ameisenhaufen und werden es auch immer bleiben. Bzw. hat sich mit Nanite das Aliasing noch potenziert. Und auch genau da klatscht DLSS alles andere komplett an die Wand.

Gast
2025-03-03, 11:42:27
Kanten flimmern, ja. Aber es geht mir eher um Kontent, der massiv flimmert obwohl das keine Kanten sind.

Polygonkanten und "Kanten" innerhalb von Polygonen unterscheiden sich im Screenspace nicht, das sind alles einfach Pixel.

Innerhalb von Polygonen hat(te) man lediglich den Vorteil, das der Texturfilter schon eine Antialiasing-Methode ist. Das hat man aber nur bei Texturen, und je mehr man mit Compute macht desto weniger kann hier der Texturfilter das Antialiasing vorwegnehmen.

Damit braucht es eine Fullscreen-AA-Methode um Aliasingfreie Bilder darstellen zu können.

aths
2025-03-04, 00:09:52
Die Hardware sieht sehr gut aus, aber ohne DLSS4 leider uninteressant.
dafür 16 GB VRAM. Bei dem Preis! Rasterleistung bis zum Abwinken UND Graka-RAM? Klingt gut.

aths
2025-03-04, 00:28:26
AMD selbst spricht von FSR4-P „near native quality“, DLSS4-P ist besser als nativ. Also nicht mal AMD selbst traut FSR4 die Qualität von DLSS4 zu. DLSS4-Performance ist natürlich nicht besser als nativ. Ja, es lassen sich Standbilder finden wo dieser Modus echt geil aussieht, aber das kann man nicht pars pro toto nehmen.

Das neue Transformer-Modell ist schon krass, die Convolutional-Neural-Network-Methode die bereits in Teilen wie Magie wirkt, wird insgesamt übertroffen. Aber nur Szenen in denen viel Textur und wenig Geometrie vorkommt, profitieren vom neuen Modell. Man kann schon rein mathematisch mit Upsampling nicht besser sein als mit nativem Rendering, weil man nur Fake-Details reinrechnen kann aber nicht das wiedergibt, was der Künstler erstellt hat.

Gast
2025-03-04, 01:27:49
Man kann schon rein mathematisch mit Upsampling nicht besser sein als mit nativem Rendering, weil man nur Fake-Details reinrechnen kann aber nicht das wiedergibt, was der Künstler erstellt hat.

Doch kann man, wenn man insgesamt mehr Samples/Pixel akkumulieren als Native-TAA.

Badesalz
2025-03-04, 06:59:23
DLSS4-Performance ist natürlich nicht besser als nativ. Ja, es lassen sich Standbilder finden wo dieser Modus echt geil aussieht, aber das kann man nicht pars pro toto nehmen.Hast du eigentlich schon eine Erklärung dafür warum die Opfer ihrer Selbst sich nicht über die langsame Annehmbarkeit von DLSS4-Q freuen, sondern fortlaufend über "DLSS4-P = nativ oder besser" labern? Das ist zwar so klassisch Geringverdiener, aber ich dachte solche kaufen nicht vom oberen Regal bei NVidia (?)

Wenn es in 90% der Fälle besser und nur in 10% schlechter ist, ist es in Summe immer noch besser.s.u.

Kannst du mal eruieren was du damit meinst? Kannst DU das bitte beim Obigen tun? Diese Art von Rhetorik funktioniert auf 3DC nicht. Zahlen und Fakten aus der Luft herbeifantasieren und andere auf exakte Erklärungen festnageln wollen... Du bist moralisch ziemlich flexibel oder?

aths
2025-03-14, 22:17:22
Hast du eigentlich schon eine Erklärung dafür warum die Opfer ihrer Selbst sich nicht über die langsame Annehmbarkeit von DLSS4-Q freuen, sondern fortlaufend über "DLSS4-P = nativ oder besser" labern? Das ist zwar so klassisch Geringverdiener, aber ich dachte solche kaufen nicht vom oberen Regal bei NVidia (?)
Mein Problem ist hier grundsätzlicherer Natur. Kurz zu FG/MFG, Performance in fsp zu messen ist nicht mehr realistisch, es geht beim Zocken um Eingabe-Latenz. Da wird es, NV Reflex hin oder her, logischerweise schlechter. Es ist ein fps-Glätten, keine Leistungssteigerung. Es ist Augenwischerei da man mit der Methode leider nicht aus einer Ruckelorgie ein brauchbares Spielgefühl bekommt, in meinen Augen ist es überwiegend Unsinn um Fake-Benchmarkwerte zu erzeugen. Bei Echtzeitgerenderten-Zwischensequenzen wäre es brauchbar, zum eigentlichen Zocken weniger.

Beim Upsamling habe ich etwas weniger Bauchschmerzen, zu Voodoo-Zeiten fiel allgemein schon auf dass geringere Auflösung mehr fps-Vorteile bringt als Qualitäts-Nachteile. Ich hatte überlegt dass man ein Verfahren bräuchte, die 3D-Szene in geringerer Auflösung zu rendern und dann bilinear oder besser bikubisch aufzublasen und dann die Interface-Elemente, das HUD praktisch, in nativer Auflösung drüberlegt. DLSS funktioniert da erheblich besser, das neue Transformer-Modell wirkt auf mich nun fast wie Zauberei. Wie selbst Maschendrahtzaun-Gitter stabil gehalten werden, laut den Videos die ich dazu sah!

AMD hat anscheinend nachgelegt. Mit älterem AMD-FSR hatte ich mich nur kurz beschäftigt (Baldur's Gate 3 auf einem Mac), das war dank gemächlicher Grafik gerade so okay. Bisher ist es mir nicht gelungen, DLSS 4 bei meinen Titeln auf der 4070 Super zum Laufen zu bekommen, was ich hier an Videos sah, war schon geil, ab Q schon geil. Was bei P teils geboten wird, finde ich angesichts der geringen internen Auflösung gut, ob das auf 27" 1440p dauerhaft funktioniert, ist mir unklar. Jedenfalls, selbst wenn Texturen knackiger aussehen als nativ, dann wurde etwas beim nativen Renderer verkackt oder das bessere Bild wirkt "besser" wie ein digital überschärftes Foto ("chön charf!").