Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel Xe Super Sampling (XeSS)
aufkrawall
2023-04-14, 01:05:39
Hab den Eindruck, seit 1.1 ist auch beim Software-Fallback, wie schon mit 1.0 leider noch ausgeprägter beim MC-Pfad, nun immer ein erzwungenes Sharpen mit geringer Intensität an. War mir in CP77 aufgefallen und nun auch mit der Mod in Skyrim. Sieht dann leider unsauber aus, wenn man die Intensität in CP77 erhöht oder CAS drüber legt. Bin ich kein Fan von...
DrFreaK666
2023-04-14, 03:14:04
Das sollte man sich in Bewegung ansehen. Wo siehst du ein Auto rechts unten im XeSS Bild? Apropos Ghosting, hier ein Vergleich mit einer GTX 1060 zwischen XeSS 1.1 und FSR 2.2: https://youtu.be/jm9ravck79s?t=70
Starkes ghosting mit FSR 2.2!
Und hier noch ein Vergleichsfazit, allerdings die XMX-Version von XeSS gegen FSR 2.1: https://youtu.be/MiflmhJ63R0?t=416
XeSS XMX sieht viel besser aus als FSR 2.1, das ist das Fazit vom Tester.
Wenn ihr CP2077 habt: wieso braucht ihr Youtuber als Beweis, wenn ihr selbst Beweis-Screenshots machen könnt?
dargo
2023-04-14, 05:58:56
Schaust immer gen Himmel oder was? Man muss das generell gesamt betrachten, nicht nur bestimmte Stellen rauspicken und damit argumentieren.
Ist das dein ernst? Am besten du machst beide Augen zu dann wird sogar ultra Performance brauchbar. X-D
dildo4u
2023-04-14, 07:08:36
Das sollte man sich in Bewegung ansehen. Wo siehst du ein Auto rechts unten im XeSS Bild? Apropos Ghosting, hier ein Vergleich mit einer GTX 1060 zwischen XeSS 1.1 und FSR 2.2: https://youtu.be/jm9ravck79s?t=70
Starkes ghosting mit FSR 2.2!
Und hier noch ein Vergleichsfazit, allerdings die XMX-Version von XeSS gegen FSR 2.1: https://youtu.be/MiflmhJ63R0?t=416
XeSS XMX sieht viel besser aus als FSR 2.1, das ist das Fazit vom Tester.
Wunder mich das 4k Performance keine 60 schafft ist die Basis nicht 1080p?
Das ist ja ohne RT.
Achill
2023-04-14, 14:01:29
Weil die Artefakte/das Ghosting von der Engine kommt. Das passiert auch mit FSR und insbesondere auch nativ.
Das ist kein Problem der "Engine" sondern ein generelles Problem von TAA seit dessen Geburtsstunde (~2013) und entsprechend bekannt + es existieren Lösungen dafür. Wenn dies in CP2077 im Jahre 2022/23 auftritt, dann sagt dies m.E. viel aus ...
---
Edit:
Das sollte man sich in Bewegung ansehen. Wo siehst du ein Auto rechts unten im XeSS Bild? Apropos Ghosting, hier ein Vergleich mit einer GTX 1060 zwischen XeSS 1.1 und FSR 2.2: https://youtu.be/jm9ravck79s?t=70
Starkes ghosting mit FSR 2.1!
[..]
Das Video ist von "Gaming Optimized", in den den Kommentaren ist zu finden:
FSR didn't use to have that weird ghosting, if i could i would just revert to 1.61 where that's a non issue. XeSS is actually kinda good, but i notice FSR to be slightly better and provide better performance when it's working, right now it isn't. In the meantime i'm using RSR.
I am actually surprised too, FSR 2.1 in Patch 1.61 does not have ghosting
Wir kann man jetzt FSR2 mit XeSS vergleichen wollen, wenn anscheinend etwas in v1.62 kaputt gegangen ist. Btw ist das schon die ganze Zeit mein Grundtenor => Wir wissen nie, ob gleich viel Arbeit und Qualitätskontrolle in die verschiedenen Lösungen geflossen sind ... die Umsetzung von FSR2 (und auch TAA wenn es da auftritt) ist so gesehen in CP2077 kaputt.
--
Edit2 - Das Auto versteckt sich hier ...
https://i.imgur.com/vpEJswl.png
TheAntitheist
2023-04-14, 15:09:00
Auch wenn wir das Ghrosting von FSR ausblenden, sieht es überall deutlich schlechter aus als XeSS sorry.
dargo
2023-04-14, 15:13:33
Auch wenn wir das Ghrosting von FSR ausblenden, sieht es überall deutlich schlechter aus als XeSS sorry.
Brille Fielmann? Dann schau dir nochmal den Zaun in Bezug auf Aliasing genauer an.
Dino-Fossil
2023-04-14, 15:42:22
Ich hatte nur gestern mal kurz in CP77 getestet, aber während die Bildruhe mit XeSS besser erschien, war das Ghosting massiv.
Muss man wohl nach persönlichen Präferenzen entscheiden, aber 100% überzeugend waren beide nicht unbedingt.
TheAntitheist
2023-04-14, 20:40:37
Brille Fielmann? Dann schau dir nochmal den Zaun in Bezug auf Aliasing genauer an.
Ja dann guck dir bitte nochmal mit deiner Brille den Zaun an, der fehlt bei FSR ja teilweise komplett, auch andere Objekte. Da sind ja extra große rote Pfeile drauf...
DrFreaK666
2023-04-14, 20:51:25
FSR Performance ist nicht der Burner. Das weiß man doch
dargo
2023-04-14, 21:08:32
Ja dann guck dir bitte nochmal mit deiner Brille den Zaun an, der fehlt bei FSR ja teilweise komplett, auch andere Objekte. Da sind ja extra große rote Pfeile drauf...
Bist du in der Lage beim Thema zu bleiben oder ist es zu hoch für dich? Das Thema war Aliasing beim Zaun. Und nicht was dir besser gefällt.
Hier ein Vergleich https://www.tommti-systems.de/main-Dateien/reviews/DlssXessFsr/index.html von DLSS 2.x, 3,x, AMD FSR und Intel XeSS - halt nur in Videos, alles andere macht kaum Sinn.
Brille Fielmann? Dann schau dir nochmal den Zaun in Bezug auf Aliasing genauer an.
Welchen Zaun, der was mit FSR gar nicht mehr vorhanden ist?
Hier ein Vergleich https://www.tommti-systems.de/main-Dateien/reviews/DlssXessFsr/index.html von DLSS 2.x, 3,x, AMD FSR und Intel XeSS - halt nur in Videos, alles andere macht kaum Sinn.
Rein vom Fazit ohne die Videos gesehen zu haben, ist XeSS gegenüber FSR auch in dem Test die bessere Alternative - trotz schwächerem dp4a auf einer non Arc.
For the current RTX 4090 hardware at 4K, the best compromise seems to be XeSS or DLSS + DLSS Frame Generation, this gives acceptable performance (above 30 fps!) and great image quality without too many artifacts.
Welchen Zaun, der was mit FSR gar nicht mehr vorhanden ist?
;D
Er will es nicht sehen....
dargo
2023-04-15, 17:18:02
Welchen Zaun, der was mit FSR gar nicht mehr vorhanden ist?
Nur noch Blindfische hier. *kopfschüttel*
83500
Und lese dir noch paar Mal den Text von Achill durch damit auch du raffst worum es überhaupt geht bevor mir der nächste Honk um die Ecke hier kommt. Mimimi... da fehlt aber beim Zaun rechts was mit FSR.
Nur noch Blindfische hier. *kopfschüttel*
83500
Du versuchst jetzt aber nicht ernsthaft zu erklären, dass das:
https://i.imgur.com/k05kzXu.png
besser als das sein soll?
https://i.imgur.com/tt1SNaq.png
und ignorierst dann auch noch, dass hier
https://i.imgur.com/7MyETuC.png
und hier
https://i.imgur.com/yNkSju1.png
und hier
https://i.imgur.com/T01fExP.png
komplette Strukturen einfach vollkommen fehlen.
Edit2 - Das Auto versteckt sich hier ...
https://i.imgur.com/vpEJswl.png
Aja, eindeutig unten rechts.
Lurtz
2023-04-19, 17:47:39
Death Stranding DC hat ein Update auf XeSS 1.1 erhalten und verspricht "Reduced ghosting, moire and flickering".
Von MxBenchmarkPC in Cyberpunk 2077 mit einer RTX 4080:
The comparisons in image quality however show a big difference and the Intel XeSS 1.1 technology completely destroys AMD's FSR 2.1 which is unable to produce a sharp image and has more visible blue than the rest of the two technologies. AMD's FSR 2.1 implementation in Cyberpunk 2077 in the quality mode also shows much visual artifcating and shimmering versus the Intel XeSS and NVIDIA DLSS 3 tech. The YouTuber himself goes on to say that XeSS 1.1 was very close to DLSS 3.1 in terms of image quality.
https://wccftech.com/intel-xess-destroys-amd-fsr-2-in-cyberpunk-2077-close-to-nvidia-dlss-3-in-image-quality/
FSR 2.1 hat enorme Problem bei Vegetation, deutlich zu sehen an den Sträuchern im ersten Vergleich. XeSS hat gelegentliche Schwächen bei Moire Bildung (0:58).
FSR 2.1 hat enorme Problem bei Vegetation, deutlich zu sehen an den Sträuchern im ersten Vergleich. XeSS hat gelegentliche Schwächen bei Moire Bildung (0:58).
AMDs Vorgaben bezüglich LOD sind viel zu aggressiv für das was die Technik hergibt. Das geht bei gutmütigem Content noch gut, rächt sich aber spätestens bei Vegetation und dergleichen.
Offenbar will AMD auf den Screenshots unbedingt als die "schärfste" Upscalinglösung rauskommen, und nimmt dafür auch eine ansonsten schlechtere BQ in kauf.
dildo4u
2023-04-24, 07:01:38
Wäre interessant zu wissen ob 1.1 mit ARC immer noch besser aussieht oder ob es kein Vorteil mher gibt.
Wäre interessant zu wissen ob 1.1 mit ARC immer noch besser aussieht oder ob es kein Vorteil mher gibt.
Natürlich wird es einen Vorteil geben.
Man wäre ja nicht so blöd sich die Arbeit anzutun 2 Modelle zu erzeugen, wenn eines gleichzeitig schneller und schöner wäre.
dargo
2023-04-24, 17:18:55
Diese Lobhudeleien von XeSS 1.1 sind mal wieder zum fremdschämen hier. :down:
R2JJNMHwi_E
Die Bildstabilität mit XeSS 1.1 ist völlig für den Arsch bei feinen Strukturen.
Ich würde mich sogar aus dem Fenster lehnen und behaupten FSR 2.1 ist in dieser Szene minimal stabiler. Ändert nur nichts daran, dass natives 1440p mit dem spieleigenen TAA beide Upscalingtechnologien völlig zersägt. Und der Witz an XeSS 1.1 ist sogar, dass es @Quality gleich schnell wie nativ ist. Ultra Quality noch langsamer als nativ und kein Stück bei der Bildstabilität besser. Da haben wieder offenbar so manche "Fanboys" riesen große Tomaten auf den Augen. Auch die Lampen sehen mit XeSS 1.1 in Bewegung furchtbar aus in CP77 in Bezug auf Bildstabilität.
btw.
Von dem lächerlichen LoD reden wir am besten nicht, ganz andere Baustelle @CP77. X-D
Edit:
The Power of XeSS 1.1. :lol:
Kurzversion
fdoSfI5skXo
Langversion
e_D9io3ZnTk
Nur noch lächerlich mit was für scheiße heute im Internet Hypes generiert werden! Dabei nicht vergessen, dass das in echt noch einen Tick schlimmer aussieht da Ingame höhere Kontraste herrschen. Videos werden etwas weichgespült.
Diese Lobhudeleien von XeSS 1.1 sind mal wieder zum fremdschämen hier. :down:
https://youtu.be/R2JJNMHwi_E
Da haben wieder offenbar so manche "Fanboys" riesen große Tomaten auf den Augen.
Du verfällst schon wieder in deinen Verteidigungsmodus. Das Wort Fanboy solltest du als Fanliebhaber der roten Marke nicht unbedingt verwenden, das steht dir nicht gut zu Gesicht. Dir schmeckt es nicht, dass FSR schlechter weggkommt, es ärgert dich regelrecht. Du betreibst wieder einmal cherry picking und blendest alles andere aus. In fast jeden Cyberpunk Vergleich kommt XeSS 1.1 besser weg, was natürlich von Leuten wie dir ignoriert wird.
Hast du etwa Tomaten auf den Augen?
https://youtu.be/mX6hdIszkgI?t=26
Was nun? Jetzt wirst du wahrscheinlich predigen, dass FSR in dem Beispiel stabiler aussieht, es würde mich nicht wundern. Ignoriere das mal schön weiter. Es sind die gleichen Leute, die sich nie eingestehen konnten, dass DLSS besser wegkommt.
Wer cherry picking betreiben will, kann auch DLSS schlecht aussehen lassen. Jeder hat Stärken und Schwächen. Die Frage ist nur, bei welchen Stärken oder Schwächen ausgeprägter sind.
Deswegen immer mehr als eine Szene testen. Dein Rosinentest ist daher Müll, es gibt bessere Vergleiche. Die verwendete GPU sollte auch nicht fehlen.
Es ist überaus beeindruckend, dass Intel jetzt schon so gut dabei ist. FSR und DLSS haben mehrere Iterationen hinter sich. Das kann man ruhig mal loben, auch als AMD Liebhaber. Aber nein der Frust sitzt bei dir zu tief, es darf einfach nicht sein.
DrFreaK666
2023-04-25, 06:40:40
Laut einem Entwickler, der bei MLID war : DLSS>FSR>TSR>XeSS, wenn ich es richtig verstanden habe. Fraglich allerdings welches XeSS er gemeint hat
dargo
2023-04-25, 08:37:40
@ryan
Du laberst wieder einen Schwachsinn, dass sich die Balken biegen. Du raffst es immer noch nicht oder? Sowohl XeSS 1.1 als auch FSR2.1 sind in CP77 absoluter Müll! Zudem wurde FSR 2.1 von CDPR in Bezug auf Ghosting noch kaputt gepatcht, das muss man auch erstmal schaffen. Habe mir nämlich neben XeSS 1.1 noch FSR 2.1 in Bewegung angesehen. Fahrzeuge ghosten jetzt mit FSR 2.1 übelst.
Deswegen immer mehr als eine Szene testen.
:facepalm:
Ich bin sogar durch die Stadt gefahren.
Hast du etwa Tomaten auf den Augen?
https://youtu.be/mX6hdIszkgI?t=26
Was nun? Jetzt wirst du wahrscheinlich predigen, dass FSR in dem Beispiel stabiler aussieht, es würde mich nicht wundern. Ignoriere das mal schön weiter.
Zeig mir mal wo ich gesagt habe in diesem Video würde FSR 2.1 besser weg kommen.
btw.
Ich bin mir nicht mal 100% sicher ob eine Geforce bei FSR2.1 exakt das gleiche darstellt wie eine Radeon (gleiches würde ich auch bei XeSS 1.1 für Geforce vs. Radeon in Frage stellen). Diese Szene hier macht mich sehr stutzig.
https://youtu.be/mX6hdIszkgI?t=45
So ein extremes Flimmern bei den Palmen und den Lampen habe ich mit FSR 2.1 noch nicht angetroffen. Das muss aber nichts heißen. Denn erstens spiele ich das Game schon lange nicht mehr. Und zweitens hatte ich es in nativen 1440p damals durchgespielt. Jedenfalls ist mir so ein extremes Flimmern bei dem kurzen Ausflug in der Stadt wo ich da paar Minuten gefahren bin nicht aufgefallen. Um das nachzustellen müsste ich schon ein passendes Savegame aus dieser Szene haben. Denn die Sonne muss exakt so stehen wie im Video.
PS: auch wird mir nicht ganz klar warum die Geforce mit FSR 2.1 nur unwesentlich schneller ist als mit XeSS 1.1. Meine RX 6800XT ist mit FSR 2.1 einiges schneller als mit XeSS 1.1. Weitere Akte X... im Video steht ganz fett was von DLSS3.1 und dann bekommt der Typ die gleichen Frames wie mit FSR 2.1? :| Oder misst der DLSS 2.x und schreibt DLSS3.1 hin? Man, was ein Chaos mit den Youtubern.
Holundermann
2023-04-25, 15:14:57
Ich finde den Vergleich in CP2077 etwas eigenartig - man sollte da schon nach performance normieren - dann schlägt sich XeSS gleich nicht mehr so gut. Bei gleicher Qualitätsstufe frisst XeSS ~10% mehr Leistung als FSR. Beide haben schwächen - FSR das furchtbare Ghosting - mit XeSS flickering - mit PT flickern die lampen hart mit XeSS.
Wenn ichs mir aussuchen könnte würde ich auch mit XeSS spielen - mit PT gibts aber die Leistung nicht her weil jedes frame zählt - also doch wieder FSR Balanced weil XeSS performance schlechter aussieht.
So ein extremes Flimmern bei den Palmen und den Lampen habe ich mit FSR 2.1 noch nicht angetroffen. Das muss aber nichts heißen. Denn erstens spiele ich das Game schon lange nicht mehr. Und zweitens hatte ich es in nativen 1440p damals durchgespielt. Jedenfalls ist mir so ein extremes Flimmern bei dem kurzen Ausflug in der Stadt wo ich da paar Minuten gefahren bin nicht aufgefallen. Um das nachzustellen müsste ich schon ein passendes Savegame aus dieser Szene haben. Denn die Sonne muss exakt so stehen wie im Video.
So extremes Flimmern kommt vor bei FSR2 in CP - da steigt die technik aus und es wird das Original stellenweise gezeigt - ist aber die Ausnahme als die Regel. Ähnliche Aussetzer kann man auch mit XeSS beobachten.
Ich wechsel oft je nach Szene - je nachdem was gerade die Leistung hergibt. Alles in allem ein Gewinn das Intel XeSS macht - bringt auf jedenfall Konkurrenz beim Upsampling - gewinnen wir alle dadurch. CP ist auch das erste spiel wo ich XeSS in betracht ziehe - das Bild ist um einiges knackiger als mit FSR 2 - denke deswegen kommt es auch so überragend bei Screenshotvergleichen rüber - in Bewegung ändert sich aber der Eindruck ein wenig.
aufkrawall
2023-04-25, 15:22:06
das Bild ist um einiges knackiger als mit FSR 2
Wenn man Überschärfungsartefakte nicht abkann, ist das leider kein Vorteil, sondern ein Ausschlusskriterium.
Btw. ist das extreme Trailing von XeSS auch eine Art von Ghosting.
dargo
2023-04-25, 16:18:43
So extremes Flimmern kommt vor bei FSR2 in CP - da steigt die technik aus und es wird das Original stellenweise gezeigt - ist aber die Ausnahme als die Regel. Ähnliche Aussetzer kann man auch mit XeSS beobachten.
Ich bin heute nochmal einiges durch die Stadt mit FSR 2.1 gefahren und konnte so ein extremes Flimmern wie in dem Video nirgends erkennen. Kann es sein, dass PT in Verbindung mit FSR 2.1 völlig kaputt ist? Ich teste nämlich ohne RT/PT.
Ich wechsel oft je nach Szene - je nachdem was gerade die Leistung hergibt. Alles in allem ein Gewinn das Intel XeSS macht - bringt auf jedenfall Konkurrenz beim Upsampling - gewinnen wir alle dadurch. CP ist auch das erste spiel wo ich XeSS in betracht ziehe - das Bild ist um einiges knackiger als mit FSR 2 - denke deswegen kommt es auch so überragend bei Screenshotvergleichen rüber - in Bewegung ändert sich aber der Eindruck ein wenig.
Schärft eventuell intern CDPR bei XeSS 1.1 nach? Ich empfinde FSR 2.1 mit Schärfung Null Ingame auch als unschärfer vs. XeSS 1.1 ebenfalls Ingame Null. Das ist aber für mich kein Problem, da nehme ich einfach etwas CAS dazu.
blaidd
2023-04-25, 16:59:17
Sind die Videos mit XeSS samt Hardware-Beschleunigung? Hab das länger nicht mehr getestet, aber die macht(e) definitiv einen größeren Unterschied. Gerade bei sowas wie Artefakten.
DLSS ist da tendenziell immer noch besser (oder war, vor ein paar Monaten), aber allzu schlecht sah es damit eigentlich nicht aus (auch bezüglich Performance deutlich besser).
Die Non-Hardware-Version sieht ein wenig krümelig aus und zeigt(e) bisweilen sehr auffällige Artefakte (insbesondere Moiré).
Death Stranding DC hat ein Update auf XeSS 1.1 erhalten und verspricht "Reduced ghosting, moire and flickering".
Hab das noch nicht ausprobiert, aber das gilt, glaube ich, auch nur (oder zumindest auf einen Großteil dieser Verbesserungen) für die beschleunigte Variante, also Intel-Arc-befeuert.
dargo
2023-04-25, 17:02:08
Sind die Videos mit XeSS samt Hardware-Beschleunigung?
Das Video was ryan verlinkt hat nein. Dort kam eine RTX 4080 zum Einsatz.
robbitop
2023-04-25, 17:04:13
Ist bei Intel leider suboptimal. Der Marktanteil der GPU HW ist nahe null und entsprechend sind die Ergebnisse, die >99% der Leute sehen von der dp4a Variante. Und die kann, wenn sie deutlich schlechter als die beschleunigte XMX Variante, die Reputation des Verfahrens beschädigen. IMO täten sie gut daran, die dp4a Variante so zu optimieren, dass die Lücke kleiner wird.
dargo
2023-04-25, 17:06:49
Ich befürchte nur das wird nichts, denn dann werden die Kosten nochmals ansteigen. Und jetzt schon ist XeSS 1.1 @dp4a einiges teurer als FSR2.x. Zumindest bei einer Radeon.
robbitop
2023-04-25, 17:11:05
Deswegen schrieb ich "optimieren". Also nicht stumpf die Nodes des NNs hochdrehen sondern ein separates kleineres NN trainieren (bzw das Training verbessern) was optimiert auf die geringere Anzahl der Nodes ist. Das jetzige kleine wirkt so als hätten sie einfach das große genommen und einfach nur die nodes reduziert aber kein dediziertes optimiertes separates.
dargo
2023-04-25, 17:13:02
Das schreib Overheadkosten senken dann versteht das auch jeder auf Anhieb. ;) Optimieren heißt bei mir auch Qualität verbessern. :)
robbitop
2023-04-25, 17:14:51
Man kann alle möglichen Kriterien optimieren. ;)
Aber ja das Kriterium BQ/FLOP compute muss optimiert werden. Idealerweise gleiche Kosten aber mehr BQ.
blaidd
2023-04-25, 20:46:23
Das Video was ryan verlinkt hat nein. Dort kam eine RTX 4080 zum Einsatz.
Okay. Dann würde ich das tendenziell auch bestätigen. XeSS macht da nicht direkt einen guten Eindruck. Es ist definitiv besser als FSR 1.0 oder NIS (quasi das gleiche in Grün, nur mit schlechterem Nvidia-Sharpening-Filter), aber es verliert tendenziell sowohl gegen FSR 2.x als auch DLSS 2.x.
Wobei es hardware-unterstützt hier und da auch besser aussehen kann als beide Verfahren (weniger Krümeln als bei FSR und weniger Smearing als bei Nvidia). Aber halt nur auf Intel-GPUs, die aktuell wenig weit verbreitet sind. Wenn man eine hat, ist das aber nicht direkt eine schlechte Alternative - jedenfalls auf meine (schon etwas älteren) Erfahrungen beschränkt.
Weiß allerdings auch nicht, wie sinnvoll es ist, eine im Grunde kinda proprietäre GPU-Technik anzubieten, wenn man eine gefühlte Marktverbreitung von 3 Grafikkarten hat. ;)
Vielleicht tut sich da noch was - sowohl AMD als auch Intel müssten Nvidia Feature-seitig eigentlich langsam mal kontern. Möglichst breit und zugänglich, wenn sie clever sind. Jedenfalls aus meiner Sicht. Sonst kommt nachher irgendwann doch noch Epic mit einem stark verbesserten TSR-KI-FG vorbei und lumpt sie alle^^
Deswegen schrieb ich "optimieren".
"Optimieren" heißt immer Berechnungen reduzieren, idealerweise natürlich so dass man davon möglichst wenig mitbekommt.
Wenn die Qualität aber schon nicht optimal ist (Achtung Wortspiel) wird es schwierig werden weiter zu "optimieren" ohne die Qualität zusätzlich zu verschlechtern.
Was Intel IMO tun sollte wäre eine CUDA-Implementierung über die Tensorcores. Dann hätte man mit einem Schlag die Werbefläche für das eigene Verfahren vervielfacht.
Holundermann
2023-04-26, 11:00:57
Schärft eventuell intern CDPR bei XeSS 1.1 nach? Ich empfinde FSR 2.1 mit Schärfung Null Ingame auch als unschärfer vs. XeSS 1.1 ebenfalls Ingame Null. Das ist aber für mich kein Problem, da nehme ich einfach etwas CAS dazu.
Cool - danke für den Hinweis. Ich hab gestern auch mit Reshade CAS dazugeschalten und jetzt gefällt mir FSR eigentlich durchgehend besser als XeSS. Ich hab bei FSR sogar ingame schärferegler auf 1 und dazu noch CAS und empfinde es in WQHD in FSR Balanced nicht als überschärft. Klar - das eine oder andere Flickern tritt auf aber ich muss halt mit kompromissen leben.
Hätte mir nicht gedacht dass das einen unterschied macht weil CAS kommt doch mit FSR mit? Evtl. ein weiterer Indikator für die schleissige Implementierung von FSR in Cyberpunk.
dargo
2023-04-26, 11:16:44
Du kommst echt mit WQHD + FSR 2.1_B in CP77 klar? So unterschiedlich kann die Wahrnehmung sein. Mir ist selbst WQHD + FSR 2.1_Q noch einiges zu schlecht. Speziell was Bildstabilität angeht.
Holundermann
2023-04-26, 11:44:49
Du kommst echt mit WQHD + FSR 2.1_B in CP77 klar? So unterschiedlich kann die Wahrnehmung sein. Mir ist selbst WQHD + FSR 2.1_Q noch einiges zu schlecht. Speziell was Bildstabilität angeht.
Ja - ich kann damit gut leben. Spiel ja mit PT und diversen Mods damit ich über 30 FPS komme. So will ich das spiel spielen.
Hier ein vergleichsbild - im Stand ist der Unterschied noch geringer als in Bewegung:
https://imgsli.com/MTczNjI3
Edit: Beschriftung ist falsch - ich spiele mit 2B1R :) der Vollständigkeit halber...
Klar wärs schöner anders aber geht halt nicht - wenn man nicht auf PT verzichten will :).
dargo
2023-04-26, 12:39:20
Naja... Standbilder sind für mich kein Maßstab. :)
dildo4u
2023-04-26, 13:07:52
Forza Horizon 5 hat jetzt auch XeSS.
https://support.forzamotorsport.net/hc/en-us/articles/16053488367891-FH5-Release-Notes-April-25th-2023
dargo
2023-04-26, 14:18:01
Ja und ist neben der FSR 2.2 Implementierung auch Müll. :lol:
aufkrawall
2023-05-12, 00:00:43
Matscht fies in Witcher 3 vs. FSR 2 (für FSR 2 Mip Bias-Basis auf -0.5 in Config gestellt, für XeSS wieder auf -2, weil es sonst offenbar gar nicht angepasst wird...):
https://abload.de/thumb/witcher3_2023_05_11_2qyer4.png (https://abload.de/image.php?img=witcher3_2023_05_11_2qyer4.png) https://abload.de/thumb/witcher3_2023_05_11_2n5erf.png (https://abload.de/image.php?img=witcher3_2023_05_11_2n5erf.png)
Jeweils Sharpen auf low.
Außerdem verwandelt es Vögel wieder in Meteoriten:
https://abload.de/thumb/witcher3_2023_05_11_2d6f7r.png (https://abload.de/image.php?img=witcher3_2023_05_11_2d6f7r.png)
Hat wie DLSS auch ein paar für DL-Heuristik typischen Vorteile gegenüber FSR 2, find es ohne RT aber auch hier wieder letztlich gar nicht überzeugend.
dildo4u
2023-05-12, 08:06:26
Witcher 3 XeSS vs FSR auf A770.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13303097&postcount=1436
DrFreaK666
2023-05-12, 08:14:42
Die Vögel sehen witzig aus :D
aufkrawall
2023-05-12, 08:19:48
Ach, das geht auch noch schlimmer:
https://abload.de/thumb/witcher3_2023_05_12_05ie1v.png (https://abload.de/image.php?img=witcher3_2023_05_12_05ie1v.png)
DrFreaK666
2023-05-12, 08:28:27
Verdammt. Wegen XeSS tendiere ich aktuell eher zur A770 statt zur 6700XT.
Mal schauen wie ich nach der Reha darüber denke... hab noch drei Wochen
robbitop
2023-05-12, 08:39:56
DLSS wäre doch noch besser? Würde eine Ampere nicht noch eher Sinn machen? Ggf. eher gebraucht, wenn das Budget hakt?
Ich würde DLSS nicht mehr missen wollen (auch wenn ich stark gegen propertäre Verfahren bin - so ist die Qualität spätestens nach etwas dll tuning so gut, dass es meist keine gleichwertige Alternative gibt).
DrFreaK666
2023-05-12, 11:41:15
Will Nvidia nicht schon wieder unterstützen. Und in dem Preisbereich gibt es eine 3060 Ti mit 8GB
robbitop
2023-05-12, 13:17:40
Mit 2nd hand unterstützt du keinen OEM. :)
DrFreaK666
2023-05-12, 13:41:48
Was hab ich dann? Eine 3070 8GB? :D
Ich will nicht nur mehr Leistung ;)
robbitop
2023-05-12, 16:39:44
Dann musst du etwas mehr Geld in die Hand nehmen. Ich würde dlss jedenfalls nicht mehr missen wollen.
Die 600€ für die gebrauchte 3080 im Dezember bereue ich jedenfalls nicht.
DrFreaK666
2023-05-13, 05:35:17
Ich will einfach keine Geforce :D
Die haben zu wenig VRAM.
Auch mit einer 3080 wäre ich unzufrieden. 2GB mehr als jetzt? WTF...
dargo
2023-05-13, 06:54:17
Für dich wäre das hier immer noch das beste was du fürs Geld bekommen kannst und ein ordentliches Upgrade vs. der RX 5500XT.
https://www.mindfactory.de/product_info.php/12GB-Sapphire-Radeon-RX-6700-XT-PULSE-HDMI-3xDP-Retail_1402365.html
Selbst wenn du die Karte auf 175W als Beispiel drosselst bist du immer noch ca. Faktor 2,5+ schneller. Ergo ein sehr ordentliches und auch gut spürbares Upgrade.
aufkrawall
2023-05-13, 07:04:16
Hab ich schon vor Wochen gesagt, dass nur die 3060 12GB und 6700 (XT) hier wirklich kaufbare Karten wären. Bei den aktuellen Preissenkungen für die 6700 XT ist die eigentlich ein Nobrainer und hat real einen Bruchteil so viele Treiberausfälle in einzelnen Spielen vs. die Intel-Karten.
Außerdem sieht auch FSR 2 auf Intel wegen der schlechten Texturfilterung schlechter als auf AMD & Nvidia aus.
DrFreaK666
2023-05-13, 08:43:25
Ich tendiere schon zur 6700XT. Vom P-L-Verhältnis her in dem Preisbereich aktuell das beste.
Wusste nicht dass Intels Texturfilterung schlecht ist. Dachte sowas gehöre der Vergangenheit an
aufkrawall
2023-05-13, 08:47:26
Ist wie Polaris: Ohne negatives Mip Bias gewisse Flimmerbänder (mit gescheitem TAA/U weitestgehend egal), mit negativem Bias fiese Flimmerneigung (mit FSR 2/XeSS nicht egal, mehr Moirés etc.).
Allerdings werden es die meisten Leute niemals merken. Selbst FSR 1 fand ja seine Abnehmer.
dargo
2023-05-13, 09:27:12
Ich tendiere schon zur 6700XT. Vom P-L-Verhältnis her in dem Preisbereich aktuell das beste.
Wenn du noch etwas pokern willst dann warte noch ein wenig. In den USA wird die Pulse 6700XT für 280€ angeboten. Insofern halte ich ~300€ bald bei uns für realistisch.
dildo4u
2023-07-26, 19:45:09
Upscaling Test Remnamt 2 XESS 1.1 performt hier selbst auf AMD/Nvidia wie FSR 2.2 mit weniger Artefakten.
https://www.techpowerup.com/review/remnant-2-xess-vs-fsr-vs-dlss-comparison/
In Ratchet & Clank kommt eventuell XeSS 1.2 zum Einsatz, libxess.dll jedenfalls meldet 1.2. Mehr Xess files gibt es im Ordner nicht, in Version 1.1 gab es mehr Xess files im Ordner. Gleichzeitig ist libxess.dll 1.2 deutlich größer als zuvor, von 15MB auf 66 MB gewachsen. In Remnant 2 ist die libxess.dll noch von Version 1.1.
TheAntitheist
2023-07-26, 21:36:11
Upscaling Test Remnamt 2 XESS 1.1 performt hier selbst auf AMD/Nvidia wie FSR 2.2 mit weniger Artefakten.
https://www.techpowerup.com/review/remnant-2-xess-vs-fsr-vs-dlss-comparison/
weniger Artefakte ALS FSR oder genauso viele WIE FSR. ist jetzt nicht soo schwer.
Und ja FSR ist nicht geil. sogar TSR hat es schon lange überholt.
DLSS sieht aber auch richtig schlecht aus in dem Titel, also warten wir mal ein paar updates ab.
€dit: FSR überschärft ja komplett krank... also da überzeugen mich alle 3 nicht wirklich.
€dit: FSR überschärft ja komplett krank... also da überzeugen mich alle 3 nicht wirklich.
Die Screenshots sind auch untauglich, das meiste was man sieht sind Kompressionsartefakte.
TheAntitheist
2023-07-29, 02:43:36
Die Screenshots sind auch untauglich, das meiste was man sieht sind Kompressionsartefakte.
nicht optimal aber weit entfernt von unbrauchbar... man sieht schon gut die Probleme
aufkrawall
2023-07-29, 06:50:10
FSR 2 Q selbst überschärft gar nicht, da wird höchstens irgendein Sharpen-Effekt durch das Spiel oder den User nicht richtig auf 0 gedreht. Das Spiel knallt btw. standardmäßig sein eigenes Sharpen auf Stufe 10 rein.
FSR 2 hat aber natürlich einige Aliasing/Disocclusion-Probleme. Dafür gibts direkt in der ersten Szene mit XeSS diverses Ekel-Smearing. Kann mit dem Blur aber auch teilweise die offenbar kaputten SSR etwas unterdrücken etc.
In Remnant 2 sieht FSR wirklich arg überschärft aus, deutlich überschärfter als XeSS. Das ist aber eher vom Spiel abhängig, eine generelle Überschärfung gibt es eigentlich nicht. Das große Problem ist die temporale Stabilität von FSR, hier spielt XeSS in einer anderen Liga. Das ist in fast jedem Spiel so, welches auf 1.1 setzt.
2 Videos von Ratchet & Clank:
https://youtu.be/nPQgEQ5GlTM
https://youtu.be/itm8OtYIaQ8?t=9
In Ratchet & Clank kommt XeSS etwas unscharf daher, auch im Vergleich zu FSR. Mit dezenter Schärfeanpassung im Spiel auf 2-5 lässt sich das verbessern.
aufkrawall
2023-07-30, 12:49:23
Das ist in fast jedem Spiel so, welches auf 1.1 setzt.
Leider genau wie das Smearing, was man auch bei deinem zweiten Link sieht.
Die temporale Stabilität dünner Strukturen immer freiliegender Bereiche ist mit XeSS DP4a auch ziemlich mittelmäßig. Dann kommt da noch das Xfache an Kamera-Bewegungsunschärfe gegenüber FSR 2 dazu.
Leider genau wie das Smearing, was man auch bei deinem zweiten Link sieht.
Die temporale Stabilität dünner Strukturen immer freiliegender Bereiche ist mit XeSS DP4a auch ziemlich mittelmäßig. Dann kommt da noch das Xfache an Kamera-Bewegungsunschärfe gegenüber FSR 2 dazu.
Also findest Du FSR besser, du würdest FSR 2 bevorzugen? Interessant, wie unterschiedlich die Wahrnehmungen sein können. Für mich sieht FSR im Vergleich zu XeSS nach Schrott aus.
aufkrawall
2023-07-30, 17:10:34
Also findest Du FSR besser, du würdest FSR 2 bevorzugen?
Immer, XeSS ist wie eine extrem schlechte DLSS-Version. Keine Ahnung, wie man massives Trailing nicht als unverzeihlichen Grafikfehler wahrnehmen kann. Wahrscheinlich macht es mit DP4a auch immer noch zusätzliches Banding. :freak:
Exxtreme
2023-07-30, 17:31:15
Also das Trailing fällt mir bei Xess auch auf. Wobei ich das jetzt nicht als so megastörend empfinde. Da bin ich wohl unempfindlich was das angeht. Da gibt es andere Upscaler-Artefakte, auf die ich empfindlicher reagiere.
robbitop
2023-07-30, 17:38:04
Schade, dass es da zwei Qualitätsstufen gibt wobei die gute Stufe 99% des Marktes verborgen bleibt. IMO sollte Intel daran arbeiten, ihr Verfahren so zu optimieren, dass die bessere Qualitätsstufe sinnvoll HW agnostisch läuft. Mangels installierter HW Basis ist die Arc Version eher etwas von theoretischer Natur. Das kann man machen wenn man einen großen Marktanteil hat (siehe Nvidia). (Klarstellung: wobei ich das nicht gut finde)
Immer, XeSS ist wie eine extrem schlechte DLSS-Version. Keine Ahnung, wie man massives Trailing nicht als unverzeihlichen Grafikfehler wahrnehmen kann. Wahrscheinlich macht es mit DP4a auch immer noch zusätzliches Banding. :freak:
Ok überrascht mich jetzt nicht. Du bist ja generell immer sehr negativ eingestellt wenn Intel beteiligt ist. Schwächen von AMD verschweigst du sehr gerne. Du kannst ja nichtmal eingestehen, dass FSR das unruhigere Bild erzeugt. Kein Wort lese ich von dir davon, es wird einfach ignoriert.
Es kommt mir immer so vor, als wenn das sehr ungerne zugegeben wird, weil FSR von AMD kommt und AMD ja doch gerne "verteidigt" wird. Das ist in den ganzen Vergleichen mit DLSS deutlich geworden, gegen DLSS ist da ja noch deutlicher. Und selbst da wollten es auch viele nicht wahrhaben wollen.
robbitop
2023-07-30, 18:59:47
Aufkrawall hat FSR in der Vergangenheit in vielen Spielen stark kritisiert. Es kommt bei jedem ein Stück weit darauf an, welche Artefakte er stärker bewertet / ihn stört. Und dann kommt auch noch das spielspezifische Ergebnis dazu (was ja stark streut).
Am Ende gilt: je mehr Wettbewerb desto besser. Denn das pusht die Innovation. (wobei bei FSR seit November 2022 nichts mehr passiert ist…)
Aufkrawall hat FSR in der Vergangenheit in vielen Spielen stark kritisiert. Es kommt bei jedem ein Stück weit darauf an, welche Artefakte er stärker bewertet / ihn stört. Und dann kommt auch noch das spielspezifische Ergebnis dazu (was ja stark streut).
Am Ende gilt: je mehr Wettbewerb desto besser. Denn das pusht die Innovation. (wobei bei FSR seit November 2022 nichts mehr passiert ist…)
FSR saugt in nahezu jedem PC-Spiel, viel mehr braucht man darüber nicht diskutieren. XeSS ist da wesentlich weiter.
aufkrawall
2023-07-30, 19:22:50
Kein Wort lese ich von dir davon, es wird einfach ignoriert.
Suche Posts von aufkrawall mit "fsr disocclusion" und laber keinen Stuss. Oder nutze dafür wenigstens deinen regulären Account (Ach, hast du in dem Fall ja schon)...
Edit: Banding ist mit XeSS 1.1 DP4a allerdings wohl gefixt worden, scheint in der Skybox in Hitman 3 keine nennenswerten Unterschiede mehr zu FSR 2 zu geben.
Edit 2: In Bewegung fällt es allerdings weiterhin stärker auf...
Im Bangkok-Level sieht es auch im Standbild sichtbar etwas aus wie JPEG-Artefakte :freak: :
https://abload.de/thumb/hitman3_2023_07_30_19ejent.png (https://abload.de/image.php?img=hitman3_2023_07_30_19ejent.png) https://abload.de/thumb/hitman3_2023_07_30_19ykelz.png (https://abload.de/image.php?img=hitman3_2023_07_30_19ykelz.png)
Und das mit XeSS forcierte Sharpen (gibts in Hogwarts genau so) macht auch eindeutig Ringing um die Glatze.
Nope, dann lieber ehrliches Geflimmer ala FSR 2 als anderweitige Verhunzung.
Cherry Picking kann jeder... FSR versagt schon bei statischen Inhalten völlig, in Remnant2 , RDR2 oder Dying Light 2 die Vegetation verschwimmt schon im Stillstand, wo XeSS oder DLSS noch ein nativ-like Ergebnis liefern.
Dying Light 2 als Beispiel:
https://imgsli.com/MTk1MzEz
Ich könnte zig Beispiele bringen, also XeSS ist da trotz geringe Entwicklungsstand wesentlich weiter als die AMD Lösung.
aufkrawall
2023-07-30, 20:48:01
Cherry Picking kann jeder...
Und den Beweis dafür wolltest du dann gleich selbst antreten?
Nachteile und Probleme unter den Tisch fallen zu lassen, finden auch nur Fanboy-Hirne irgendwie erstrebenswert...
Aufkrawall hat FSR in der Vergangenheit in vielen Spielen stark kritisiert. Es kommt bei jedem ein Stück weit darauf an, welche Artefakte er stärker bewertet / ihn stört. Und dann kommt auch noch das spielspezifische Ergebnis dazu (was ja stark streut).
Am Ende gilt: je mehr Wettbewerb desto besser. Denn das pusht die Innovation. (wobei bei FSR seit November 2022 nichts mehr passiert ist…)
Sein letzter Beitrag liest sich nicht sehr neutral, wie soll ich das ernst nehmen. In dem Thread gehts ihn darum zu zeigen, wie unglaublich schlecht XeSS doch ist. Deswegen nimmt er extra ein Spiel mit XeSS 1.0 Support als Beispiel für das extrem schlechte XeSS, wen wundert es. 1.0 zu 1.1 ist ein riesengroßer Unterschied. Kann man leicht testen mit den dlls. In Jagged Alliance 3 zum Beispiel großer Unterschied bei den Palmen.
Die Überschärfung hat er bei FSR noch verteidigt, weil FSR selber nicht nachschärft. Bei FSR liegts am Spiel, bei XeSS liegt es an XeSS selber.
Aufkrawall hat sich da so sehr reingesteigert, er würde nie was anderes zugeben, egal wie sich XeSS weiter entwickelt.
Relex
2023-07-30, 22:53:17
Das Aufbröseln und Flimmern von FSR ist doch viel deutlicher wahrnehmbar, als das Ghosting, welches sowieso in der Bewegungsunschärfe mehr oder weniger untergeht, sei es durch den automatisch entstehenden sample and hold blur oder auch der natürlichen Bewegungsunschärfe sich bewegender Inhalte, die man nicht mit dem Auge verfolgt.
Für mich gilt in den meisten Fällen DLSS >> XeSS / TSR >> FSR
Wobei ich auch meistens in HDR auf dem OLED Spiele. Mir ist aufgefallen, dass jegliche Artefakte in HDR sehr viel deutlicher auffallen und der Anspruch an ein möglichst sauberes/glattes Bild hier viel höher ist.
Auf meiner alten PS4, die ich noch für ein paar alte Exclusives nutze, habe ich z.B. sogar HDR deaktivieren müssen, weil das Bild mit dem verstärkten Aliasing durch das Upscaling unglaublich grob wirkt und das durch HDR sehr betont wird. In SDR sieht das dann deutlich besser aus.
Das Aufbröseln und Flimmern von FSR ist doch viel deutlicher wahrnehmbar, als das Ghosting, welches sowieso in der Bewegungsunschärfe mehr oder weniger untergeht, sei es durch den automatisch entstehenden sample and hold blur oder auch der natürlichen Bewegungsunschärfe sich bewegender Inhalte, die man nicht mit dem Auge verfolgt.
Für mich gilt in den meisten Fällen DLSS >> XeSS / TSR >> FSR
Deshalb schrieb ich ja, man braucht sich mit FSR garnicht weiter befassen, das saugt quasi immer, der "handcrafted" Algo taugt nicht und die Sample-Menge ist auch zu niedrig, da FSR jedoch Performance liefern muss, fällt die temporale Qualität deutlich ab.
FSR vs Xess (DP4) vs DLSS
Hab ein screenshot aus dem DF Video von Ratchet genommen, war in motion.
Habe markante Stellen markiert bei dem sowieso nutzlosen IGTI.
Xess ist besser als FSR2, beide sind extrem weit weg von DLSS
https://abload.de/thumb/aacomparisondf1tncv6.jpg (https://abload.de/image.php?img=aacomparisondf1tncv6.jpg)
Mit der 1.1 dll sieht Hitman 3 sogar überschärfter aus. Im balanced preset ist die Schärfe abgeschwächt. Allerdings, wenn ich mir noAA zum Vergleich ansehe, ist das vom Entwickler so beabsichtigt. Wenn man reinzoomt sind stellenweise Artefakte zu erkennen, ansonsten fällt es eigentlich kaum auf, zumindest in 1080p.
Das ist bei FSR2 nicht der Fall, aber es nimmt doch arg viele Details weg, es könnte etwas schärfer sein. Ob das jetzt besser ist, sei mal dahingestellt. In den meisten Spielen tendiert eher FSR2 zu einem schärferen Bild.
noAA https://abload.de/img/gtx1650noaasqemx.jpg
dp4a 1.1 balanced https://abload.de/img/gtx16501_1balancedfqeqk.jpg
dp4a 1.1 quality https://abload.de/img/gtx16501_1qualityfpieq.jpg
FSR2 https://abload.de/img/gtx1650fsr21yfg7.jpg
In Bewegung sieht man aber schon ein Unterschied zwischen XeSS 1.0 und 1.1, einige der feinen Gitter flimmern leicht im Stand, bei 1.1 ist Ruhe. FSR2 ist nochmal unruhiger.
Ach so die XMX Version sieht nochmal schärfer aus, wobei die Nachschärfung mit default 1.0 weniger ausgeprägt ist.
XMX 1.1 quality https://abload.de/img/arca3801_127fwe.jpg
XMX 1.0 quality https://abload.de/img/1_05gfov.jpg
Das ist definitiv nicht normal, was die Schärfe angeht, hier hat es der Entwickler ein wenig zu gut gemeint. Man kann sich natürlich immer einzelne Details rauspicken wenn man es drauf anlegt, XeSS hat seine Schwächen. Was den Gesamteindruck angeht und was fast immer sofort auffällt, ist das unruhigere Bild mit FRS2. Seit XeSS 1.1 ist das schon deutlich.
Besonders oft bei Vegetation oder Schatten. In Jagged Alliance 3 flimmern die Schatten mit FSR2 schon im Stand ohne das man scrollt. Mit XeSS sind die komplett ruhig. Das fällt doch sofort ins Auge. Aber gut was rede ich, für einige wird FSR2 immer besser ausfallen.
Keine Ahnung, wie man massives Trailing nicht als unverzeihlichen Grafikfehler wahrnehmen kann.
Etwas zusätzliches Motion-Blur stört auf jeden Fall 100x weniger als das Geflimmere von FSR.
Wobei ich auch meistens in HDR auf dem OLED Spiele. Mir ist aufgefallen, dass jegliche Artefakte in HDR sehr viel deutlicher auffallen und der Anspruch an ein möglichst sauberes/glattes Bild hier viel höher ist.
Vor allem OLED macht einen riesigen Unterschied. Auf einem LCD (ohne Backlight Strobing) geht ein großer Teil des Motionblurs im Smearing vom Monitor unter.
Mit OLED-Schaltzeiten wird das natürlich gnadenlos aufgedeckt.
aufkrawall
2023-07-31, 08:44:07
Was den Gesamteindruck angeht und was fast immer sofort auffällt, ist das unruhigere Bild mit FRS2. Seit XeSS 1.1 ist das schon deutlich.
Tja, mir ist das ohne Bewegtbildschärfe, Objektbewegungsqualität und sonstige Artefakte eine zu oberflächliche Betrachtung. Musst du nicht pissig werden, wenn man diese Punkte anspricht, nur weil du sie selbst immer außen vor lässt...
Relex
2023-07-31, 18:57:40
Vor allem OLED macht einen riesigen Unterschied. Auf einem LCD (ohne Backlight Strobing) geht ein großer Teil des Motionblurs im Smearing vom Monitor unter.
Mit OLED-Schaltzeiten wird das natürlich gnadenlos aufgedeckt.
Würde ich gar nicht so sagen. Ein Unterschied ist natürlich da, aber lange nicht so extrem wie man sich das anhand der Schaltzeiten vorstellen mag. Wie ich bereits geschrieben habe, hast du in Bewegung auch auf einem OLED immer sample and hold blur durch die "relativ" geringe Bildwiederholrate von 60-120 FPS bzw. Hz auf einem TV. Und sogar noch stärkeres Motion Blur für alle beweglichen Bildinhalte die du gerade nicht mit dem Auge verfolgst. Erst mit einem der neueren 240 Hz 1440p Monitoren wäre das wahrscheinlich deutlich besser.
Das sind beides Phänomene, die im Auge entstehen und kein wirklicher technischer Mangel. Da kann der OLED noch so perfekte Schaltzeiten haben, die Bewegungsunschärfe ist einfach prinzipbedingt.
Und genau deswegen ist ein wenig Unschärfe bei einem Temporalen Algorithmus kaum auffällig. Artefakte wie die von FSR2 dagegen machen mit Flimmern, also quasi einem "Blinken" und relativ harten Kanten deutlicher auf sich aufmerksam.
Zumal ja Bewegungsunschärfe selbst bei Filmen gang und gäbe ist und in vielen Spielen standardmäßig sogar extra noch aktiv ist. Ich hab hingegen noch keinen Film gesehen, der aliasing oder flimmerartefakte hatte.
Auch wird sich ja bei Videos immer erst über die Kompressionsartefakte beschwert und nicht über die Bildrate und der damit verbundenen Unschärfe.
Egal, ich denke ich habe meine Meinung ausreichend begründet. Ich finds ja gut, wenn man auf die Unterschiede neutral hinweist. Nur fehlt mir die rationale Begründung, wie man das flimmern und bröseln bevorzugen kann.
Persönliche Meinung schön und gut, aber zur Diskussion braucht es auch nachvollziehbare Argumente. Aber ich will das jetzt auch nicht unnötig aufbauschen. Hier kann sich ja jeder selbst ein Bild machen und dann entscheiden :tongue:
Das Beispiel das du aus Ratchet & Clank rausgesucht hast bekräftigt mich in meiner Meinung auch weiter. Finde auch, dass hier DLSS weit in Führung liegt und dann XeSS vor FSR liegt.
Interessant ist, dass sich die grundlegende Charakteristik von XeSS und DLSS stark ähneln.
Z.B. der Schuh ist mit XeSS sehr ähnlich wie DLSS gezeichnet, nur deutlich pixeliger, aber die rekonstruierten Details ähneln sich sehr. Während sich auf der anderen Seite FSR und IGTI auch sehr ähneln.
Man siehts auch gut an den schwarzen Querstreben bzw. Spalten auf Clanks Kopf (der Roboter)
DLSS und XeSS sehr ähnlich mit hohem Kontrast und ziemlich klar.
Bei FSR und IGTI dagegen Matsch, der stark an Kompressionsartefakte erinnert.
Ich finde es erstaunlich, wie gut dagegen das DLSS Bild trotz performance Modus aussieht.
Schade, dass es da zwei Qualitätsstufen gibt wobei die gute Stufe 99% des Marktes verborgen bleibt. IMO sollte Intel daran arbeiten, ihr Verfahren so zu optimieren, dass die bessere Qualitätsstufe sinnvoll HW agnostisch läuft. Mangels installierter HW Basis ist die Arc Version eher etwas von theoretischer Natur. Das kann man machen wenn man einen großen Marktanteil hat (siehe Nvidia). (Klarstellung: wobei ich das nicht gut finde)
du möchtest also das Intel die komplexität so sehr steigert, damit die Qualität der von DLSS gleicht, aber kein performance Vorteil mehr übrig bleibt, weil der Aufwand den Nutzen überwiegt?
Vielleicht ist das einfach nicht machbar was du verlangst...
Könntest du ja auch sagen "ich verstehen nicht warum Mercedes kein 1L Benziner rausbringt"
Und sogar noch stärkeres Motion Blur für alle beweglichen Bildinhalte die du gerade nicht mit dem Auge verfolgst.
Bewegte Objekte die das Auge nicht verfolgt sind generell unscharf.
Was Sample&Hold-Blur "auszeichnet" ist, dass sie auch nicht scharf werden wenn man sie mit dem Auge verfolgt.
Das kann auch OLED nicht wirklich verhindern. Bei LCD kommt noch der der Blur durch die Schaltzeiten hinzu.
Wobei nach meiner subjektiven ein 240Hz LCD in etwa auf die selbe Bewegtbildschärfe wie ein 120Hz OLED kommt. Bei 170Hz ist OLED bereits deutlich besser. Wobei OLED viel stärker von höheren Hz profitiert, der Unterschied von 120-144-240Hz ist bei OLED wesentlich stärker als bei LCD, je höher die Hz desto stärker wird der gesamt-Blur von den Pixelschaltzeiten dominiert und desto geringer der Anteil von Sample&Hold.
Erst mit einem der neueren 240 Hz 1440p Monitoren wäre das wahrscheinlich deutlich besser.
[/quote
Ja, wie eben gesagt, profitieren OLED deutlich stärker von hohen Refreshraten.
[quote]
Und genau deswegen ist ein wenig Unschärfe bei einem Temporalen Algorithmus kaum auffällig. Artefakte wie die von FSR2 dagegen machen mit Flimmern, also quasi einem "Blinken" und relativ harten Kanten deutlicher auf sich aufmerksam.
Da habe ich wohl mich schlecht ausgedrückt. Genau dieses flimmern von (nahezu) statischen Objekten wird von LCD-Schaltzeiten sehr stark kaschiert. Das Flimmern entsteht ja dadurch, dass Pixel ständig ihre Farbe ändern wenn sie nicht sollten. Und LCDs sind hier hauptsächlich in einem Transition Status, in dem das Pixel weder die eine noch die andere Farbe sondern eine Mischung aus beiden ist, Quasi eine Art TAA on top. Bei OLED ist die Transistion quasi instant und das Pixel fast immer die Farbe die übers Display-Signal gerade kommt.
Als ich von Motion-Blur bei LCD sprach meinte ich genau diesen Effekt, und nicht einen Einfluss auf die Motion-Trailing Nebenwirkung der temporalen Rekonstruktionen. Auf diese hat die Display-Technologie nicht wirklich einen nennenswerten Einfluss.
Im Nachhinein ist mir natürlich klar, dass man das leicht missverstehen konnte, bzw. ich mich einfach schlecht ausgedrückt habe.
Zumal ja Bewegungsunschärfe selbst bei Filmen gang und gäbe ist und in vielen Spielen standardmäßig sogar extra noch aktiv ist. Ich hab hingegen noch keinen Film gesehen, der aliasing oder flimmerartefakte hatte.
Genau. Und da man Objekte die sich bewegen generell unscharf wahrnimmt, sofern man sie nicht aktiv verfolgt, und dieses Motion-Trailing in der Regel Hintergrundobjekte betrifft die man typischerweise eben nicht aktiv verfolgt stört es auch kaum. Es fängt erst zum stören an wenn man diese wirklich aktiv verfolgt, was man beim realen Spielen eben kaum macht.
Dagegen sticht dieses Flimmern ständig in die Augen und zieht quasi die Aufmerksamkeit an.
Auch wird sich ja bei Videos immer erst über die Kompressionsartefakte beschwert und nicht über die Bildrate und der damit verbundenen Unschärfe.
Eine kleine Korrektur. Die Unschärfe in Videos entsteht nicht durch die Bildrate sondern durch die Verschlusszeit der Kamera. Man könnte auch mit 30FPS perfekt scharfe Einzelbilder in Videos haben wen man die Verschlusszeit entsprechend wählt. Umgekehrt führt das allerdings zu stark wahrnehmbarem Ruckeln, weshalb man typischerweise eine Verschlusszeit wählt die bei der ausgewählten Bildrate einen guten Kompromiss zwischen Flüssigkeit und Bildschärfe erzielt.
Auch ein Grund warum sich Spiele bei niedrigeren Bildraten (sofern sie kein künstliches Motion-Blur verwenden) so viel ruckeliger wirken als Videos mit den selben FPS.
Egal, ich denke ich habe meine Meinung ausreichend begründet. Ich finds ja gut, wenn man auf die Unterschiede neutral hinweist. Nur fehlt mir die rationale Begründung, wie man das flimmern und bröseln bevorzugen kann.
Da bin ich genau deiner Meinung.
aufkrawall
2023-08-01, 10:05:25
Egal, ich denke ich habe meine Meinung ausreichend begründet. Ich finds ja gut, wenn man auf die Unterschiede neutral hinweist. Nur fehlt mir die rationale Begründung, wie man das flimmern und bröseln bevorzugen kann.
Was in Szene x mit FSR 2 nervt (Geflimmer), kann in Szene y mit XeSS noch mehr nerven (Trailing).
Mir ist auch von niemandem ein Bericht bekannt, dass XeSS nerviges Banding verursachen würde. Fällt mir trotzdem innerhalb weniger Sekunden in manchen Szenen nervig auf. So viel zu unterschiedlichen Wahrnehmungen. Hoffe mal, deine Toleranz gegenüber anderen Meinungen gibt das her...
Aber immerhin war XeSS 1.1. ein großer Sprung. Wenn das mit 1.2 erneut klappt, könnte das auch aufkrawall gegenüber FSR 2 überzeugen.
Und btw. sehen wir auch nur FSR 2.1 in R&C. Das Spiel bietet auch nur SSAOs von Nvidia und Intel an, so ein Zufall...
robbitop
2023-08-01, 10:15:11
Hatte FSR 2.2 denn so viel mehr gebracht als 2.1?
Beide Verfahren haben ihre Stärken und ihre Schwächen an denen weiter gearbeitet werden muss. Bei XeSS sollte man schauen, dass man das VMX Modell so optimiert, dass man es auch für dp4a anbieten kann. Dann kann man ja auf jeder HW mehrere Qualitätsstufen von XeSS anbieten. Wie man das auch mit TSR kennt. Die höheren Stufen sind dann halt compute intensiver und machen dann ggf. eher auf HW mit höherer aritmetischer Leistung Sinn.
aufkrawall
2023-08-01, 10:19:03
Hatte FSR 2.2 denn so viel mehr gebracht als 2.1?
In Overwatch 2 funktioniert es jedenfalls ziemlich gut, die ganzen Problemfälle wie Transparenz und animierte Texturen scheinen keine nennenswerten Probleme zu bereiten.
Disocclusion- und Effekt-Aliasing ist aber nach wie vor nicht da, wo es sein sollte. Andererseits ist das für einen schnellen Shooter auch nicht unbedingt schlechter als mehr Geschmiere stattdessen.
In Overwatch 2 funktioniert es jedenfalls ziemlich gut, die ganzen Problemfälle wie Transparenz und animierte Texturen scheinen keine nennenswerten Probleme zu bereiten.
In Overwatch schafft es FSR nicht mal "normale" Kanten in Bewegung zu Antialiasen.
Und Content den Typischen FSR Flimmercontent wie Vegetation gibt es einfach gar nicht.
robbitop
2023-08-01, 12:13:46
Mein Eindruck ist, dass die Differenzierung in eurem Dialog nicht stark genug ausgeprägt ist.
Eine Bewertung von verschiedenen Kriterien wäre gut. zB die von Alex von DF ist doch ein Anfang:
1. Static Views
2. Camera Movement
3. Animation Movement
4. Flicker and Moiré
5. Transparencies
6. Particles
7. Hair
8. Vegetation
2. und 3. könnte man aufdröseln in:
a.) disocculusion
b.) bluring & ghosting
c.) sharpness
Jeweils ein Score von 1-10. Ich würde eine gleiche Gewichtung annehmen, da Geschmäcker, was wen stört, so unterschiedlich sind, dass sie universell und objektiv schwer vergleichbar sind.
Ihr zwei habt offenbar stark unterschiedliche Gewichtungen der Kriterien, weshalb ihr zu einem unterschiedlichen Ergebnis kommt. Und das ist legitim - Geschmäcker und Erwartungen sind individuell verschieden.
Quelle für die Liste von DF:
https://youtu.be/y2RR2770H8E?si=_Lbzf4T5Bmc-WtCx&t=1141
aufkrawall
2023-08-01, 12:15:12
In Overwatch schafft es FSR nicht mal "normale" Kanten in Bewegung zu Antialiasen.
Und Content den Typischen FSR Flimmercontent wie Vegetation gibt es einfach gar nicht.
Beides falsch.
Btw. nutzt Ratchet & Clank offenbar schon XeSS 1.2, hat also beim Smearing sich bewegender Objekte leider nicht viel gebracht.
Allerdings ist die nervige Unschärfe in Bewegung bei Vegetation im Vergleich zu Hogwarts wohl massiv reduziert. Gibt auch nur noch eine DLL, ggf. via StreamLine integriert.
Im Wald-Abschnitt sieht es klar besser aus als FSR 2.
Leicht OT, aber die Intel-SSAO scheint eindeutig die beste Option zu sein. Die spieleigene ist noisy, HBAO+ verschattet Gras fast gar nicht mehr. Immerhin.
Die spieleigene ist noisy, HBAO+ verschattet Gras fast gar nicht mehr. Immerhin.
Gras ist in der Realität auch lichtdurchlässig und erzeugt damit kaum Schatten. Bei Gras fast nicht zu verschatten ist also die korrektere Approximation.
aufkrawall
2023-08-01, 13:35:43
https://shop-api.mein-schoener-garten.de/medias/600Wx600H-56d1e10c-39cd-47be-b2f8-a0cf71820dbb.jpg?context=bWFzdGVyfGltYWdlc3w2ODM3NDd8aW1hZ2UvanBlZ3xhRE0wTDJoaVl 5ODRPREkwTnpJNE5EVXpNVFV3THpZd01GZDROakF3U0Y4MU5tUXhaVEV3WXkwek9XTmtMVFEzWW1VdFl qSm1PQzFoTUdObU56RTRNakJrWW1JdWFuQm58NWI5NDRkNjk2OWJkYjhlYjM5MGZiMmVlYTYwOWJmNWR hY2NiYmU4ZGMzZjA5NjZjNTQ1ZGI1MTYwMWY0MmYwZQ
Was einen Blödsinn man hier lesend ist... :crazy:
SSAO:
https://abload.de/thumb/riftapart_2023_08_01_8ee3f.png (https://abload.de/image.php?img=riftapart_2023_08_01_8ee3f.png)
HBAO+:
https://abload.de/thumb/riftapart_2023_08_01_padio.png (https://abload.de/image.php?img=riftapart_2023_08_01_padio.png)
XeGTAO:
https://abload.de/thumb/riftapart_2023_08_01_f4i0j.png (https://abload.de/image.php?img=riftapart_2023_08_01_f4i0j.png)
HBAO+ hat seltsamen Blur, sieht komplett komisch aus im Gras. Ist in Witcher 3 Rem. genauso.
Exxtreme
2023-08-01, 13:47:32
Gras ist in der Realität auch lichtdurchlässig und erzeugt damit kaum Schatten. Bei Gras fast nicht zu verschatten ist also die korrektere Approximation.
Das ist nicht richtig bzw. gilt nur für sehr sehr flaches Gras, dass man da kaum Schattenwürfe hat. Gras an sich schluckt sogar sehr viel Licht da es darauf angewiesen ist wegen Photosynthese.
aufkrawall
2023-08-01, 14:39:30
Ui. Gerade mal die XeSS 1.2 DP4a DLL in Hitman 3 getestet: Die Bildqualität ist gegenüber 1.0 wirklich massiv gesteigert, der temporale Eindruck ist viel stabiler und sauberer. Die Performance ist dabei nicht schlechter geworden.
In Ratchet & Clank scheint auch kein erzwungenes Sharpen aktiv zu sein, mit CAS sieht es entsprechend sauber aus.
Gras an sich schluckt sogar sehr viel Licht da es darauf angewiesen ist wegen Photosynthese.
Gras lässt mehr als die Hälfte des Lichtes durch bzw. streut es, nur ein geringer Teil des Lichtspektrums wird für die Photosynthese verwendet, und das ist Hauptsächlich im roten Bereich, weshalb es für uns auch grün erscheint.
Um wirklich dunkle Schatten zu erzeugen braucht es schon einige Schichten übereinander.
aufkrawall
2023-08-01, 15:19:22
Uh, das Banding-Problem kann mit 1.2 immer noch sehr abartig sein:
https://abload.de/thumb/hitman3_2023_08_01_153icvf.png (https://abload.de/image.php?img=hitman3_2023_08_01_153icvf.png) https://abload.de/thumb/hitman3_2023_08_01_156pixm.png (https://abload.de/image.php?img=hitman3_2023_08_01_156pixm.png)
Ist mir so in Witcher & Ratchet allerdings noch nicht aufgefallen.
TheAntitheist
2023-08-01, 18:24:44
Der ganze Hintergrund ist auch gestaucht oder gedehnt, vielleicht entsteht dabei das banding.
Banding sollte aber ganz leicht lösbar sein
Achill
2023-08-01, 18:30:04
Gras lässt mehr als die Hälfte des Lichtes durch bzw. streut es, nur ein geringer Teil des Lichtspektrums wird für die Photosynthese verwendet, und das ist Hauptsächlich im roten Bereich, weshalb es für uns auch grün erscheint.
[..]
Imho Pflanzen absorbieren einen großen Teil des Lichts und darüber hinaus auch Teile des UV und IR Bereichs (was wir als Menschen gar nicht mehr sehen können).
[..]
Keith J. McCree (1927–2014)[12][13] maß 1972 für 22 verschiedene Nutzpflanzen photosynthetische Wirkspektren. Daraus entwickelte er eine einheitliche Wirkspektrumkurve der PAR, die sogenannte McCree-Kurve[9](Fraunhoferlinien werden darin nicht erfasst). Ebenso wird die von ihm vorgeschlagene Darstellungsform für PAR-Diagramme als McCree-Kurve bezeichnet,[14] eine Darstellung mit der Wellenlänge auf der waagerechten und der relativen Quantenausbeute in % oder Werten zwischen 0 und 1 auf der senkrechten Achse. Die Quantenausbeute ist dabei relativ zur höchsten Quantenausbeute im ermittelten Spektrum, die dann als 100 % oder 1 angegeben wird.
Die Quantenausbeute der Photosynthese ist dabei das Verhältnis zwischen den von einer Pflanze zur Photosynthese genutzten Photonen und den von der Pflanze absorbierten Photonen.
[..]
https://upload.wikimedia.org/wikipedia/commons/thumb/a/af/McCree-Kurve_1_DE.svg/800px-McCree-Kurve_1_DE.svg.png
PAR-Kurve nach McCree (1972)
[..]
---
Gras lässt mehr als die Hälfte des Lichtes durch bzw. streut es, nur ein geringer Teil des Lichtspektrums wird für die Photosynthese verwendet, und das ist Hauptsächlich im roten Bereich, weshalb es für uns auch grün erscheint.
Um wirklich dunkle Schatten zu erzeugen braucht es schon einige Schichten übereinander.
Leider falsch, wie oben zu sehen, liegt die Absorbstionsrate bei rund >=70% im sichtbaren Bereich. Und du musst dich schon entscheiden ob "durch lassen" oder "streuen" ... beides will imho nicht gut miteinander - und irgend eine Aussage als "Anonymer Gast" wird damit auch nicht besser. Ich empfehle den Monolog zwischen dir und "ryan" fortzusetzen ... immerhin stimmt ihr euch gegenseitig zu und zeigt uns so, wie nur dies richtig sein kann.
Beides falsch.
Dann ist das wohl ein Hirngespinnst
https://i.imgur.com/P9Stpgr.png
aufkrawall
2023-08-01, 22:40:59
Nein, aber Cherry Picking dümmster Art. Sieht bei DLSS sogar ganz ohne Zoom mitunter arg schlimm aus:
https://abload.de/thumb/deathloop_2022_05_23_0cjh4.png (https://abload.de/image.php?img=deathloop_2022_05_23_0cjh4.png)
Uh, das Banding-Problem kann mit 1.2 immer noch sehr abartig sein:
Falsche DLL-Version genommen. Mit 1.2 ist das Banding definitiv auch arg reduziert, sodass es meist keine Rolle mehr spielen dürfte:
https://abload.de/thumb/hitman3_2023_08_01_223fipn.png (https://abload.de/image.php?img=hitman3_2023_08_01_223fipn.png) https://abload.de/thumb/hitman3_2023_08_01_22fqfs9.png (https://abload.de/image.php?img=hitman3_2023_08_01_22fqfs9.png)
Flimmer-Moires in SotTR sind auch extrem reduziert. 1.2 DP4a sieht viel besser aus als es 1.0 via MC-Pfad auf der Arc-GPU tat. :freak:
anderer Gast
2023-08-01, 23:13:14
Nein, aber Cherry Picking dümmster Art. Sieht bei DLSS sogar ganz ohne Zoom mitunter arg schlimm aus:
https://abload.de/thumb/deathloop_2022_05_23_0cjh4.png (https://abload.de/image.php?img=deathloop_2022_05_23_0cjh4.png)
Wenn man nachgewiesen Unrecht und keine Argumente mehr hat, wird abgelenkt.
aufkrawall
2023-08-01, 23:19:34
Dein "Argument" ist so in etwa "Aber 64xSSAA sieht besser aus!!".
Die temporale Stabilität unverdeckter Bereiche ist mit FSR 2 ziemlich gut für einen Algorithmus, der wenig matscht und aggressiv Details rausholt. Auch im Vergleich zu diversen TAA-Implementierungen in nativer Auflösung, die viel mehr matschen. DLSS hat hier, anders als bei teilverdeckten Bereichen, mitunter sogar Nachteile für Geometrie, wie das Bild oben zeigt. Also weniger Stuss erzählen.
Nein, aber Cherry Picking dümmster Art. Sieht bei DLSS sogar ganz ohne Zoom mitunter arg schlimm aus:
https://abload.de/thumb/deathloop_2022_05_23_0cjh4.png (https://abload.de/image.php?img=deathloop_2022_05_23_0cjh4.png)
Welcher Zoom? Das ist ein Crop aus einem vollem Screenshot, und das mit voller Absicht, damit man mit einem png noch unter der Dateigröße bleibt die man hochladen kann und nicht verlustbehaftet komprimieren muss. Damit ist es 1:1 was du auf dem Bildschirm siehst.
Die einzige Kante die auf deinem Screenshot in etwa gleich schlecht aussieht ist die vom Strommast. Alle anderen Kanten sind Wunderbar geglättet.
In Overwatch sehen dagegen alle Kanten aus als würde gar kein AA zum Einsatz kommen. Wenn man ranzoomt erkennt man ein paar Farbabstufungen, aber sie sind dermaßen gering dass sie in Normalgröße gar nicht sichtbar sind. Und es hat auch nicht mit disocclusion zu tun, die einzigen Kanten für die disocclusion hier relevant ist sind die der Waffe, und die sehen sogar richtig gut aus.
Vielleicht würde es DLSS auch nicht besser machen und das Ergebnis ist irgend was spezielles von der Overwatch-Engine, kann man ja leider nicht überprüfen da es kein DLSS gibt.
Es zeigt aber eines, FSR sieht mitnichten gut aus in Overwatch, ob das nun am Spiel oder FSR liegt.
Das traurige ist nur, es sieht immer noch besser aus als ohne FSR, andererseits ist das gegen gar kein AA auch kein Kunststück.
Ich verstehe nur nicht warum der Resolution-Slider mit FSR bei 67% gecappt ist, wenn man den auf 100% hochstellen könnte würde es wahrscheinlich richtig gut aussehen, und das Spiel ist dermaßen anspruchslos dass meine Grafikkarte bei 100-150W fast erfriert.
aufkrawall
2023-08-02, 11:29:28
Die einzige Kante die auf deinem Screenshot in etwa gleich schlecht aussieht ist die vom Strommast. Alle anderen Kanten sind Wunderbar geglättet.
Wenn du meinst...
Ich verstehe nur nicht warum der Resolution-Slider mit FSR bei 67% gecappt ist, wenn man den auf 100% hochstellen könnte würde es wahrscheinlich richtig gut aussehen, und das Spiel ist dermaßen anspruchslos dass meine Grafikkarte bei 100-150W fast erfriert.
100% Auflösung bringt ziemlich wenig gegen die Disocclusion-Probleme von FSR 2, das funktioniert bei TSR wesentlich besser.
robbitop
2023-08-02, 11:40:55
Disocclusion ist wahrscheinlich auch schwierig zu lösen. Man hat ja durch die Verdeckung keine Samples akkumuliert. Entsprechend muss man welche "vorhersagen". Wenn die Vorhersage fehlschlägt gibt es Artefakte. IMO ist das einer der Punkte, die wahrscheinlich bei einem NN am besten aufgehoben sind. Heißt aber nicht, dass es nicht auch ohne NN irgendwie gehen kann (siehe das erwähnte TSR).
Mal sehen was FSR 3 (abseits von Frame Generation) an Updates bringt. Wenn es denn mal kommt, ist ja auch sehr viel Zeit seit dem letzten Release vergangen. Ggf. hat man da nochmal ordentlich nachgetunt.
Ich finde es jedenfalls super, dass Intels XeSS auch immer besser wird und nach wie vor hardware agnostisch ist. So bleibt der Innovationsdruck durch Wettbewerb erhalten. Völlig unschön, dass DLSS nur auf NV RTX HW läuft. Intel zeigt ja, dass man ein Upsampling Verfahren mit NN auch öffnen kann und das auch ohne Matrix Units sinnvoll funktionieren kann.
aufkrawall
2023-08-02, 11:56:40
Ich finde es jedenfalls super, dass Intels XeSS auch immer besser wird und nach wie vor hardware agnostisch ist. So bleibt der Innovationsdruck durch Wettbewerb erhalten. Völlig unschön, dass DLSS nur auf NV RTX HW läuft. Intel zeigt ja, dass man ein Upsampling Verfahren mit NN auch öffnen kann und das auch ohne Matrix Units sinnvoll funktionieren kann.
Es sehen sogar trotz simplifizierten NNs schon einige Sachen besser aus als mit DLSS. Level-Geometrie oder Vegetation/Kabelleitungen smearen trotz DP4a mitunter deutlich weniger als mit DLSS. :eek: Und imho ist die Kamera-Bewegungsunschärfe auch geringer ausgeprägt als mit Preset C.
"Nur" weit entfernte Objekte oder manche Partikel (also alles mit zu schlechten Bewegungsvektoren?) bereiten XeSS noch deutlich mehr Probleme (+ hier und da etwas mehr Instabilität, aber schwer zu sagen ohne Matrix Core-Pfad). Wenn sie das noch in den Griff bekommen, wär das nicht nur eine Blamage für AMD, sondern auch für Nvidia. :freak:
Intel zeigt ja, dass man ein Upsampling Verfahren mit NN auch öffnen kann und das auch ohne Matrix Units sinnvoll funktionieren kann.
Also bisher hat Intel eher das Gegenteil gezeigt.
Bei gleicher Renderauflösung ist man zwar in der Regel besser als FSR2.x, für vergleichbare Performance braucht man aber fast eine Stufe niedriger in der Renderauflösung womit der Vorteil wieder verpufft.
Alles natürlich bezogen auf die non XMX Version, mit XMX ist XeSS sowohl schöner als auch schneller.
Intel hat, zumindest bis jetzt, eher bewiesen, dass für eine gute NN-Lösung dedizierte Hardware benötigt wird, den Beweis den NV schuldig geblieben ist indem man jegliche andere Hardware komplett ausschließt.
aufkrawall
2023-08-02, 12:40:56
Bei gleicher Renderauflösung ist man zwar in der Regel besser als FSR2.x, für vergleichbare Performance braucht man aber fast eine Stufe niedriger in der Renderauflösung womit der Vorteil wieder verpufft.
Nein, Auflösung kann die Unterschiede von NN vs. kein NN nicht ausgleichen. FSR 2 flimmert bei größerer Vegetation in Ratchet & Clank selbst bei 100% Auflösung massiv mehr als XeSS 1.2 DP4a 66%. 1.2 ist ein riesiger Sprung, muss man einfach mal anerkennen.
FSR 2 100% geht btw., indem man die dynamische Auflösungskalierung auf 30fps stellt (wie schon in diversen anderen Spielen).
robbitop
2023-08-02, 12:45:15
Also bisher hat Intel eher das Gegenteil gezeigt.
Bei gleicher Renderauflösung ist man zwar in der Regel besser als FSR2.x, für vergleichbare Performance braucht man aber fast eine Stufe niedriger in der Renderauflösung womit der Vorteil wieder verpufft.
Alles natürlich bezogen auf die non XMX Version, mit XMX ist XeSS sowohl schöner als auch schneller.
Intel hat, zumindest bis jetzt, eher bewiesen, dass für eine gute NN-Lösung dedizierte Hardware benötigt wird, den Beweis den NV schuldig geblieben ist indem man jegliche andere Hardware komplett ausschließt.
Nvidia ist natürlich schon weiter mit DLSS. Die haben halt praktisch einen 2 Jahres Vorsprung, den man nicht mal eben aufholt. Intel ist jetzt da wo Nvidia vor 2 Jahren war. Wenn man gegen eine 2 Jahre alte DLL von DLSS vergleichen würde, wäre DLSS wahrscheinlich gar nicht mehr so dominant.
Die Performance ist, da hast du Recht, noch nicht das Gelbe vom Ei. Gilt aber auch für TSR im "Epic" preset. Da kann man sicherlich auch noch was dran machen - ich vermute, dass der dp4a Pfad einfach wenig Priorität bei Intel hatte bis dato. Denn wenn man mal in nsight (bei DLSS) reinschaut und schaut, wie viel (bzw wie sehr sehr kurz) von der Frametime die Tensorcores "aufleuchten" und approximiert, wie viel länger das mit dp4a auf modernen GPUs dauern würde, kommt dabei raus, dass das immernoch sinnvoll und theoretisch gar nicht so langsam wäre.
IIRC hatte basix das im Forum mal durchgerechnet.
aufkrawall
2023-08-02, 12:48:14
Nvidia ist natürlich schon weiter mit DLSS. Die haben halt praktisch einen 2 Jahres Vorsprung, den man nicht mal eben aufholt. Intel ist jetzt da wo Nvidia vor 2 Jahren war. Wenn man gegen eine 2 Jahre alte DLL von DLSS vergleichen würde, wäre DLSS wahrscheinlich gar nicht mehr so dominant.
Nvidia hat die letzten zwei Jahre gar nichts gemacht, außer Mist zu bauen (Preset D & F). Preset C wurde laut Debug-Overlay in April 2021 trainiert, und XeSS 1.2 DP4a ist schon teilweise besser. :freak:
robbitop
2023-08-02, 12:49:39
Preset F (ab 2.5.1? welche ja erst ~Ende 2022 erschien) sah doch mitunter ziemlich geil aus? (fand ich jedenfalls und Executer fand das Preset so gut, dass er zeitweise das Forum mit Screenshots vollgespamt hat - und zwar mit dem Performance Preset - und IIRC hattest du das auch in einigen Spielen gelobt).
aufkrawall
2023-08-02, 13:06:40
Preset F (ab 2.5.1? welche ja erst ~Ende 2022 erschien) sah doch mitunter ziemlich geil aus? (fand ich jedenfalls und Executer fand das Preset so gut, dass er zeitweise das Forum mit Screenshots vollgespamt hat - und zwar mit dem Performance Preset - und IIRC hattest du das auch in einigen Spielen gelobt).
Von Preset F war ich für (grob geraten) 1-2 Wochen überzeugt, danach gar nicht mehr. In HZD flimmern damit Wälder teilweise mehr als mit der FSR 2-Mod, außerdem sind Kanten extrem geblurt.
Das ist kein Fortschritt, sondern nur ein Neu-Zusammenwürfeln von Vor- und Nachteilen. Und Preset D ist eh einfach nur ätzend.
Es gab seit der 2.3.9 DLL von Anfang 2022 (die offenbar als erste Preset C shippte) keinen technischen Fortschritt, nur das unnötig abartige Semi-Zwangs-Sharpen wurde beerdigt. Bei XeSS gab es bei jeder neuen Version massive Fortschritte, wenn auch teilweise von einem unterirdischen Niveau kommend. Aber wenigstens scheint man bei Intel zu wissen, was man tut, oder verfolgt so etwas wie einen sinnvollen Plan.
Kann natürlich sein, dass 1.3 auch kompletter Müll sein wird. Aber glaub ich eher nicht. Schon dieser lächerliche Zirkus mit den verschiedenen Presets bei Nvidia, 3D-Grafik hat prinzipiell immer die gleichen Probleme. Software-Entwicklung bei Nvidia ist teilweise so butthurt...
robbitop
2023-08-02, 13:38:16
Naja bei Intel wissen wir aktuell nicht, ob es nicht auch sowas wie verschiedene Presets in den DLLs gibt, oder? Bei DLSS haben wir das auch erst sehr spät erfahren.
Für mich macht es schon Sinn, dass man NNs mit spezifischen Anforderungen weil man ggf. nicht alles optimal mit einem Modell abbilden kann.
Moderne Renderpipelines sind so komplex, dass diese sich von Spiel zu Spiel und Engine zu Engine schon recht stark unterscheiden. Ggf. kann man mit verschiedenen Presets pro Spiel (wenn man die auch noch sinnvoll auswählen würde...) bessere Ergebnisse erzielen.
Die Performance ist, da hast du Recht, noch nicht das Gelbe vom Ei.
Und genau die zeigt dass dedizierte Hardware für eine sinnvolle Implementierung notwendig ist.
aufkrawall
2023-08-02, 13:50:58
Für mich macht es schon Sinn, dass man NNs mit spezifischen Anforderungen weil man ggf. nicht alles optimal mit einem Modell abbilden kann.
Das mag dann für Szene x so sein, in Szene y im immer noch gleichen Spiel kann das schon wieder ganz anders aussehen.
Scheint auch eine große Anzahl der Nutzer ähnlich zu sehen, denn in Foren wird immer noch oft "2.5.1" als "nicht-ghostende" (stimmt natürlich nicht ganz) und damit "beste" DLL (also Preset C ohne Ekel-Sharpen) empfohlen.
robbitop
2023-08-02, 14:41:41
Und genau die zeigt dass dedizierte Hardware für eine sinnvolle Implementierung notwendig ist.
Wie gesagt:
a kann man sicherlich auch noch was dran machen - ich vermute, dass der dp4a Pfad einfach wenig Priorität bei Intel hatte bis dato. Denn wenn man mal in nsight (bei DLSS) reinschaut und schaut, wie viel (bzw wie sehr sehr kurz) von der Frametime die Tensorcores "aufleuchten" und approximiert, wie viel länger das mit dp4a auf modernen GPUs dauern würde, kommt dabei raus, dass das immernoch sinnvoll und theoretisch gar nicht so langsam wäre.
IIRC hatte basix das im Forum mal durchgerechnet.
robbitop
2023-08-02, 14:42:36
Das mag dann für Szene x so sein, in Szene y im immer noch gleichen Spiel kann das schon wieder ganz anders aussehen.
Scheint auch eine große Anzahl der Nutzer ähnlich zu sehen, denn in Foren wird immer noch oft "2.5.1" als "nicht-ghostende" (stimmt natürlich nicht ganz) und damit "beste" DLL (also Preset C ohne Ekel-Sharpen) empfohlen.
Werden Modelle eigentlich auch geupdatet? Ansonsten hätten neue DLLs oft ja keinen Sinn.
aufkrawall
2023-08-02, 14:51:12
Werden Modelle eigentlich auch geupdatet? Ansonsten hätten neue DLLs oft ja keinen Sinn.
Ich hatte 2.3.9 gegen 3.x verglichen und in Spielen, die Auto-Exposure und kein DLSS-Sharpen nutzen, nicht einen Unterschied von Quality bis Performance feststellen können. Von daher würde ich annehmen, dass man mit aktueller DLL immer noch genau das gleiche Modell von April 2021 mit Preset C sieht. Bei Preset D wird es imho genau so sein, hat auch immer noch genau die gleichen Ghosting-Probleme wie die ersten 2.3 DLLs, die dieses Preset genutzt haben.
Für Alex Battaglia war natürlich die Implementierung schuld, nicht das heilige DLSS bzw. Preset ;D :
https://twitter.com/Dachsjaeger/status/1525037005893259264?lang=de
Relex
2023-08-02, 19:29:29
Hmm, ich sehe durchaus Fortschritte.
Allen voran z.B. Cyberpunk.
Ich glaube da wurde mittlerweile drei oder viermal die .DLL Datei aktualisiert und erst mit der letzten Aktualisierung auf Version 3.xx mit dem Pathtracing Update hat sich die Bildqualität MASSIV verbessert.
Das ist gar kein Vergleich zu vorher, was die Detailschärfe und Klarheit des Bildes betrifft (mit deaktivertem sharpening).
Problemfrei ist es lange noch nicht. Stromleitungen haben immernoch Aliasing/Moire, es gibt überall Artefakte, aber TAA zeigt in dem Spiel auch sehr viele Probleme und flimmert viel mehr. Vermutlich ist der Content einfach schwierig.
So oder so, das Pathtracing Update hat die Bildqualität mit DLSS massiv gesteigert.
Wüsste nicht wie das möglich sein soll, wenn es da seit 2021 keinen Fortschritt gegeben hätte.
Und ich hab da natürlich auch schon sämtliche DLLs ausprobiert. Bei dem Spiel sogar am meisten und so eine Qualität wie jetzt gab es bisher noch nie.
Letztendlich sehe ich diesen Fortschritt aber in vielen aktuellen Spielen mit der 3.xx DLL.
Die Qualität ist mittlerweile für mein Empfinden sehr überzeugend, wohingegen es bei den meisten Spielen von vor 1-2 Jahren immer ein kleiner Kompromiss war, wo nativ in den meisten Aspekten meistens etwas besser aussah, aber der Unterschied klein genug war, um dann DLSS mit dem großen performanceboost doch den Vorzug zu geben.
Mittlerweile bin ich bei den 3.xx DLLs aber häufig so weit, dass ich DLSS Quality rein aufgrund der subjektiven Bildqualität einem TAA vorziehe.
Also für mich ganz klar: Da hat Fortschritt stattgefunden, und zwar sehr deutlich.
100% Auflösung bringt ziemlich wenig gegen die Disocclusion-Probleme von FSR 2, das funktioniert bei TSR wesentlich besser.
Das sind keine Disocclusion-Probleme, bei den problematischen Kanten gibt es kein Disocclusion. Das betrifft in Overwatch alle Kanten, und interessanterweise sogar Kanten bei denen Disocclusion auftritt sogar weniger.
aufkrawall
2023-08-02, 19:40:33
Fortschritt gegenüber was? Gegenüber Preset C? Preset D filtert RT-Artefakte aggressiver weg. Das trifft aber auch auf gewollte Details genau so zu, entsprechend ist die Bewegtbildschärfe furchtbar. Ohne RT fällt das sofort negativ auf.
Außerdem wurde nicht nur die DLSS-DLL geupdatet, das letzte Update hat etwa auch das DLSS-Bloom-Problem gefixt (ohne geänderte DLL bzw. zeigt die gleiche DLL in anderen Spielen immer noch das Problem). Es wurde also auch etwas an der Implementierung geändert, was überhaupt nichts mit dem Preset zu tun hat. Das sollte man schön alles auseinander halten und nicht verkürzte Schlussfolgerungen ziehen...
Ex3cut3r
2023-08-05, 12:15:26
Preset F (ab 2.5.1? welche ja erst ~Ende 2022 erschien) sah doch mitunter ziemlich geil aus? (fand ich jedenfalls und Executer fand das Preset so gut, dass er zeitweise das Forum mit Screenshots vollgespamt hat - und zwar mit dem Performance Preset - und IIRC hattest du das auch in einigen Spielen gelobt).
Ich finds sogar immer noch am besten. In den meisten Spielen ^^
Hat sich schon einer die "DLL 3.1.30 CL 33090507" angesehen? Wenn ja, Meinungen?
https://www.techpowerup.com/download/nvidia-dlss-dll/
EDIT: Ups, ist der XeSS Thread. Bitte Meinungen zu DLSS in den DLSS Thread. Danke.
Auf der Innovation im September stellt Intel anstehende XeSS Updates vor.
Learn from Intel developers about our key graphics focuses today and how our technologies enhance the entire graphics product stack. Find out how we’re optimizing for emerging AI workloads, upcoming updates to Intel® Xe Super Sampling (XeSS), and our future-looking graphics research areas.
https://reg.rainfocus.com/flow/intel/innv2023/attendee-portal/page/sessioncatalog?search=
Achill
2023-08-06, 13:06:03
Wenn es um Performance bei XeSS geht, dann sprecht ihr von ARC GPUs oder von AMD & NV?
Weil der Vergleich einer Quality-Stufe (bzw. gleichen Faktor) zwischen DLSS/XeSS sollte natürlich auf der entsprechenden Hardware passieren.
Und hier kann man dann den relativen Unterschied zwischen nativen TAA und den Upscaler als Performance heran ziehen ... neben Bildqualität.
aufkrawall
2023-08-06, 13:35:18
Wenn es um Performance bei XeSS geht, dann sprecht ihr von ARC GPUs oder von AMD & NV?
Ich würde davon ausgehen, dass, wenn es nicht explizit anders aufgeführt wird, es um die Ergebnisse des DP4a-Pfades geht. Denn wer hat schon eine Arc-Karte, außer ggf. als Sammlerstück im Regal (warum auch immer). ;)
Die Performance-Skalierung von DP4a ist meist natürlich nicht der Knaller und UQ ist sogar eher langsamer als nativ. Gibt allerdings auch Ausnahmen, in Remnant 2 etwa kommen hier trotzdem +45% mehr fps mit Q in 1440p raus und es sieht wesentlich erträglicher als nativ TAA aus. Bei SotTR mit RT sinds dann auch immerhin +>30%.
Was XeSS 1.2 DP4a wirklich schon hervorragend macht, ist temporale Stabilität bei komplexer Vegetation. Keine Verpixelung wie bei FSR 2 und oft auch deutlich weniger Smearing bei Kamerabewegungen als mit DLSS Preset C. Und, anders als bei FSR 2, profitiert man durch Austauschen der DLL extrem. :redface:
robbitop
2023-08-06, 18:13:38
Auf jeden Fall ist es teurer als FSR2. Die Frage ist, wie es sich gegen TSR im Epic preset verhält denn das ist auch ziemlich teuer.
aufkrawall
2023-08-06, 19:19:49
Freiliegende, wenig von Artefakten betroffene Bereiche werden mit TSR Epic stabiler sein, dafür teilverdeckte Bereiche und diverse Effekte schlechter aussehen als mit XeSS DP4a.
Was konkret vermutlich so in etwa bedeutet, dass TSR Epic ohne Nanite + Lumen + Virtual Shadow Maps besser aussieht, mit diesen Effekten vermutlich XeSS DP4a.
Aber, wie gesagt, Objekt- und Partikel-Trailing muss mit XeSS dringend noch besser werden. Hat ComputerBase btw. auch für Ratchet & Clank moniert. Vermutlich würde ich es deshalb in Fortnite, sofern es denn dort zur Verfügung stünde, auch noch nicht nutzen. Kann in anderen Spielen aber anders aussehen.
Achill
2023-08-09, 13:30:14
Lustiges Detail zu XeSS + Intel + Linux: Intel Gets Hogwarts Legacy Running On Linux Driver By Pretending Not To Be Intel Graphics (https://www.phoronix.com/news/Intel-Graphics-Hogwarts-Legacy)
[..]
Earlier this year Intel's Mesa developers added the ability to conceal the Vulkan vendor to workaround game-specific issues. This was originally added since the Windows game Cyberpunk 2077 had added Intel XeSS upscaling support. When the game was running under Linux via Steam Play and seeing Intel graphics were being utilized, XeSS was being triggered. However, it led to a crash within the XeSS code.
[..]
aufkrawall
2023-08-09, 16:57:00
Offenbar funktioniert der Matrix Core-Pfad nicht unter Linux oder Wine. Schon traurig, dass das mit der geschlossenen CUDA-API & DLSS besser funktioniert. Wobei da Nvidia allerdings auch ewig gebraucht hat und immer noch kein FG/Reflex geht.
Tja, trotzdem würd ich in Hogwarts seit XeSS 1.2 lieber den DP4a-Pfad nehmen als FSR 2. :freak:
Achill
2023-08-09, 20:05:13
Ich würde davon ausgehen, dass, wenn es nicht explizit anders aufgeführt wird, es um die Ergebnisse des DP4a-Pfades geht. Denn wer hat schon eine Arc-Karte, außer ggf. als Sammlerstück im Regal (warum auch immer). ;)
Die Performance-Skalierung von DP4a ist meist natürlich nicht der Knaller und UQ ist sogar eher langsamer als nativ. Gibt allerdings auch Ausnahmen, in Remnant 2 etwa kommen hier trotzdem +45% mehr fps mit Q in 1440p raus und es sieht wesentlich erträglicher als nativ TAA aus. Bei SotTR mit RT sinds dann auch immerhin +>30%.
Was XeSS 1.2 DP4a wirklich schon hervorragend macht, ist temporale Stabilität bei komplexer Vegetation. Keine Verpixelung wie bei FSR 2 und oft auch deutlich weniger Smearing bei Kamerabewegungen als mit DLSS Preset C. Und, anders als bei FSR 2, profitiert man durch Austauschen der DLL extrem. :redface:
Thx
Auf jeden Fall ist es teurer als FSR2. Die Frage ist, wie es sich gegen TSR im Epic preset verhält denn das ist auch ziemlich teuer.
Das stimmt. Mir ging es aber mit meiner Frage darum die Perspektive zu öffnen ob es nicht "unfair" ist wie wir vergleichen hier im XeSS Thread.
---
Nachfolgende richtet sich nicht direkt an robbitop, sondern an die Diskussion hier im Thread.
Was man vielleicht immer mit bedenken sollte: Gäbe es eine hypothetische DLSS 2 Umsetzung für AMD/Intel so würde diese ggf. auch langsamer auf diesen GPUs laufen und/oder würde nicht die gleiche Qulität wie DLSS auf NV HW bieten.
Vergleichen wir Qualität von DLSS mit XeSS, so müsste man:
- Die Lösungen hinsichtlich Qualität auf Intel HW vergleichen um das Machbare zu bestimmen bzw. wie den techn. Unterschied zwischen DLSS und XeSS weil ansonsten vergleichen wir immer nur DLSS mit Fallback-XeSS (was natürlich auch interessant ist)
- Wenn man Performance vergleicht bzw. mit in Aussagen aufnimmt, dann sollte man XeSS in den verschieden Stufen auf Intel vermessen (und natürlich auch gern das Fallback)
Mir ist klar das wir hier keine ARC-Karten groß im Forum haben. Es bleibt also theoretisch ...
aufkrawall
2023-08-16, 07:53:52
1.2 SDK:
https://github.com/intel/xess/releases/tag/v1.2.0
Mir ist gerade aufgefallen, dass Hitman 3 noch 1.0 shipt und die 1.1 DLL gar nicht laden kann. 1.2 Geht aber wieder.
SotTR wurde auf 1.1 geupdatet, und da kann ich tatsächlich keinen Unterschied zu 1.2 erkennen.
dargo
2023-08-16, 08:33:16
Ist jetzt v1.2 messbar schneller geworden? Versus FSR2.x ist/war ja XeSS ziemlich teuer.
aufkrawall
2023-08-16, 08:45:42
Nope, brauchst starke Auflösungsskalierung in Spielen, also etwa RT, damit Quality nicht nur minimal schneller als nativ ist.
Mit 1.2 kann man tatsächlich auch alle anderen DLLs für den Loader etc. der alten Versionen rauslöschen und es funktioniert weiterhin. So muss Abwärtskompatibilität aussehen. :up:
aufkrawall
2023-08-16, 09:28:29
Die Vegetation in Hogwarts knüppelt auch ohne RT mit der Auflösung, Quality bringt da schon mal +35% und FSR 2 ist dann gar nicht so viel schneller:
https://abload.de/thumb/hogwartslegacy_2023_08ecu3.png (https://abload.de/image.php?img=hogwartslegacy_2023_08ecu3.png) https://abload.de/thumb/hogwartslegacy_2023_0ppcnm.png (https://abload.de/image.php?img=hogwartslegacy_2023_0ppcnm.png) https://abload.de/thumb/hogwartslegacy_2023_015cmr.png (https://abload.de/image.php?img=hogwartslegacy_2023_015cmr.png)
Hitman 3 mit 1.1 läuft bei mir (Arc+Nvidia)
Die offizielle 1.2 ist etwas neuer.
Ratchet & Clank= 1.2.0.10
Intel github= 1.2.0.13
1.2 braucht nicht ganz so viel VRAM, je nach Auflösung 70+ MB weniger.
aufkrawall
2023-08-16, 11:53:31
Hitman 3 mit 1.1 läuft bei mir (Arc+Nvidia)
Weird, bei mir kam eine Fehlermeldung und es war dann im Spiel nicht verfügbar. Hatte auch die Dateien via Steam überprüfen lassen, sofern dabei nicht irgendwas gesponnen hat. :confused:
Absolut keine Probleme. Ich hatte sogar Bilder gepostet: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13361900#post13361900
aufkrawall
2023-08-16, 13:24:13
Vermutlich war der Fehler, den Loader nicht mit auszutauschen (fällt mit 1.2 ja zum Glück weg). Jetzt geht auch 1.1. hier, hatte auch schon das Banding-Problem ~gefixt.
DrFreaK666
2023-09-20, 14:02:10
"Moreover, “Assassin’s Creed Mirage” will leverage Intel XeSS upscaling technology, although it’s worth noting that DLSS and FSR support will not be available at the game’s launch"
https://videocardz.com/newz/assassins-creed-mirage-pc-requirements-revealed-arc-gpu-optimizations-and-xess-support-but-no-dlss-or-fsr
Wo bleibt der Aufschrei, oder nicht so schlimm weil es Intel ist und nicht AMD?
Linmoum
2023-09-20, 14:28:35
Du kannst ja gerne bei Intel nachfragen. Wenn die genauso albern reagieren wie AMD (+Bethesda), kann man sich denken, was Sache ist.
Unabhängig davon muss man nicht immer irgendwelche Einzelfallbeispiele nehmen, sondern den Gesamtzustand betrachten. Ist deutlich hilfreicher.
Wo bleibt der Aufschrei, oder nicht so schlimm weil es Intel ist und nicht AMD?
Nicht so schlimm, da XeSS im Gegensatz zu FSR qualitativ hochwertig ist.
Exxtreme
2023-09-20, 14:48:39
Nicht so schlimm, da XeSS im Gegensatz zu FSR qualitativ hochwertig ist.
Xess läuft aber in voller Qualität ausschließlich auf Intel. Die kompatible Sparversion von Xess ist oft schlechter als FSR2.
DrFreaK666
2023-09-20, 14:49:22
Nicht so schlimm, da XeSS im Gegensatz zu FSR qualitativ hochwertig ist.
Aber auch langsamer bei gleicher Qualität.
Du kannst ja gerne bei Intel nachfragen. Wenn die genauso albern reagieren wie AMD (+Bethesda), kann man sich denken, was Sache ist.
Unabhängig davon muss man nicht immer irgendwelche Einzelfallbeispiele nehmen, sondern den Gesamtzustand betrachten. Ist deutlich hilfreicher.
Gut, dann schauen wir auf den Gesamtzustand: 100% der Intel-gesponserten Titel unterstützen weder DLSS noch FSR :D
Aber auch langsamer bei gleicher Qualität.
Nicht ganz richtig, langsamer bei gleicher Renderauflösung, man benötigt mit XeSS aber eine geringere Renderauflösung um auf die Qualität von FSR zu kommen.
DerKleineCrisu
2023-09-20, 16:11:40
Nicht ganz richtig, langsamer bei gleicher Renderauflösung, man benötigt mit XeSS aber eine geringere Renderauflösung um auf die Qualität von FSR zu kommen.
Ich finde es viel schlimmer das wie üblich die Graka Hersteller sich nicht auf einen Standard einigen können sondern jeder sein eigenes Süppchen kochen müssen,
Das hat schon damals Phyx das genick gebrochen das NVidia meinte " nö also als Beschleunigerkarte mit anderen Graka zusammen geht nun garnicht " oder " Phyx läuft nur in voller Geschwindigkeit bei uns und mit anderen Graka´s wird es nicht garnicht beschleunigt".
So ist es nicht möglich z.b. DLSS auf einer Intel irgendwie zum laufen zu bekommen.
Die kompatible Sparversion von Xess ist oft schlechter als FSR2.
Selbst die DP4a-Version ist immer noch deutlich besser als FSR, speziell ab 1.2.
Freilich nicht auf DLSS-Niveau, aber trotzdem deutlich besser als FSR.
robbitop
2023-09-20, 17:36:46
Unabhängig davon muss man nicht immer irgendwelche Einzelfallbeispiele nehmen, sondern den Gesamtzustand betrachten. Ist deutlich hilfreicher.
Starfield war doch aber auch ein Einzelbeispiel wo sich alle daran hochgezogen haben?
Nicht so schlimm, da XeSS im Gegensatz zu FSR qualitativ hochwertig ist.
Allerdings ohne XMX HW (also so ziemlich jeder GPU bei 0,1% Marktanteil) so teuer, dass man performancenormiert niedrigere Presets wählen muss. Dann nimmt der Abstand ab.
Xess läuft aber in voller Qualität ausschließlich auf Intel. Die kompatible Sparversion von Xess ist oft schlechter als FSR2.
Andersrum, die Sparversion ist fast immer besser als FSR2 (seit 1.1).
Linmoum
2023-09-20, 17:49:34
Starfield war doch aber auch ein Einzelbeispiel wo sich alle daran hochgezogen haben?Laut DF gibt es (mindestens) drei andere Titel, bei denen dem Entwickler die Implementierung von DLSS nicht mehr gestattet war. Bei Boundary gab es das zuvor sogar schon offiziell, dass der Entwickler offiziell angekündigt hatte, dass DLSS nicht mehr verfügbar sein würde, nachdem man zuvor damit (+RT) sogar geworben hatte. Angeblich aus "Ressourcengründen". Zufälligerweise kam es mit der Zeit aber auch zu einer Partnerschaft mit AMD. Ein Schelm... ;)
Das Einzelfallbeispiel bezog sich in dem Fall auch konkret darauf, dass Spiel x nur Technologie y unterstützt. Den Grund dafür kennt man vorliegend ja nicht und es gibt von Intel auch keine albernen Wischi-Waschi-Aussagen dazu (oder betretenes Schweigen).
Auch nicht jedes Nvidia-Spiel unterstützt außerdem FSR. Wird auch sicherlich immer wieder mal Spiele geben, wo das der Fall ist. Zumal man nicht so tun muss, als ob das einzig auf dem PC der Fall ist. Exklusivität gibt es seit Dekaden, besonders ausgeprägt bei den Konsolen, wo es entweder ständig exklusive Spiele oder sogar Inhalte (jahrelang) nur auf einer Konsole gibt. Das ist kein neuer Zustand. Die Umstände machen es am Ende, wie das gehandhabt wird.
Wobei das konkret hier bei XeSS in dem Fall auch überhaupt keinen Sinn ergibt bei den paar GPUs, die Intel bislang verkauft hat. Da muss der Geldkoffer für Ubisoft wahrlich riesig gewesen sein, damit man sowas tut.
DrFreaK666
2023-09-20, 18:39:31
... von Intel auch keine albernen Wischi-Waschi-Aussagen dazu (oder betretenes Schweigen)...
Würde auch nicht das Maul aufmachen, wenn keiner fragt.
Aber schon "witzig", dass dir das bei Mirage nicht wichtig ist, obwohl der Fall Starfield ja nicht so lange her ist und du da ziemlich lautstark deine Meinung kundgetan hast. Das lässt tief blicken...
Exxtreme
2023-09-20, 18:59:59
Naja, das ist bisher ein einziger Fall wo das so ist, bei FSR sind das wirklich sehr viele. Und Xess schließt AFAIK auch niemanden aus.
Allerdings ohne XMX HW (also so ziemlich jeder GPU bei 0,1% Marktanteil) so teuer, dass man performancenormiert niedrigere Presets wählen muss. Dann nimmt der Abstand ab.
Selbst ohne XMX ist XeSS performancenormiert besser als FSR.
Insbesondere bei den neueren Versionen die sowohl schneller als auch qualitativ besser sind.
"Moreover, “Assassin’s Creed Mirage” will leverage Intel XeSS upscaling technology, although it’s worth noting that DLSS and FSR support will not be available at the game’s launch"
https://videocardz.com/newz/assassins-creed-mirage-pc-requirements-revealed-arc-gpu-optimizations-and-xess-support-but-no-dlss-or-fsr
Wo bleibt der Aufschrei, oder nicht so schlimm weil es Intel ist und nicht AMD?
Editors note: This article has been updated after Ubisoft confirmed support for DLSS and FSR: “You’ll also be able to leverage features like Intel’s AI-assisted XeSS Super Sampling, Nvidia DLSS, or AMD FSR — Ubisoft.
DrFreaK666
2023-09-20, 22:48:12
Sehr gut
TheAntitheist
2023-09-21, 18:13:55
Vor allem wurde direkt gesagt das DLSS und FSR support später kommt, da seh ich dann auch kein Problem. Ergo wird da nichts verboten wie bei AMD...
TheAntitheist
2023-09-21, 18:53:36
Ich finde es viel schlimmer das wie üblich die Graka Hersteller sich nicht auf einen Standard einigen können sondern jeder sein eigenes Süppchen kochen müssen,
Das hat schon damals Phyx das genick gebrochen das NVidia meinte " nö also als Beschleunigerkarte mit anderen Graka zusammen geht nun garnicht " oder " Phyx läuft nur in voller Geschwindigkeit bei uns und mit anderen Graka´s wird es nicht garnicht beschleunigt".
So ist es nicht möglich z.b. DLSS auf einer Intel irgendwie zum laufen zu bekommen.
warum sollten Unternehmen Milliarden investieren wovon dann die Konkurrenz profitiert? so funktioniert es einfach nicht... dann würde es keine Innovationen geben. AMD hat auch einfach x64 gemacht und Intel musste sich dem Fügen, da wurde 0 abgesprochen.
DrFreaK666
2023-09-21, 19:09:14
warum sollten Unternehmen Milliarden investieren wovon dann die Konkurrenz profitiert? so funktioniert es einfach nicht... dann würde es keine Innovationen geben. AMD hat auch einfach x64 gemacht und Intel musste sich dem Fügen, da wurde 0 abgesprochen.
Und wer soll sich diesmal wem fügen?
Auf der Innovation im September stellt Intel anstehende XeSS Updates vor.
https://reg.rainfocus.com/flow/intel/innv2023/attendee-portal/page/sessioncatalog?search=
Die session habe ich hier gefunden: https://youtu.be/2FSG9yNTNrA
Ist jetzt aber nicht so interessant (nur kurz überflogen)
Version 1.2 bringt übrigens einen für Meteor Lake dp4a optimierten Kernel mit.
Version 1.2 bringt übrigens einen für Meteor Lake dp4a optimierten Kernel mit.
Häh, Meteor Lake bringt doch eine Arc GPU mit, sollte die dann nicht eh XMX können?
Häh, Meteor Lake bringt doch eine Arc GPU mit, sollte die dann nicht eh XMX können?
Xe LPG hat keine XMX Einheiten. Sieht man auch im Video oder hier: https://www.intel.com/content/www/us/en/content-details/788848/graphics-and-media-deep-dive.html?wapkw=Meteor%20Lake%20Tech%20Day
War schon lange bekannt (https://wccftech.com/intel-meteor-lake-cpus-with-tgpu-reportedly-features-ray-tracing-support-sports-fp64-compute-but-lacks-xmx-units/). Xe LPG ist nicht identisch mit Alchemist dGPU/Xe HPG. Es baut darauf auf, dennoch gibt es ein paar Änderungen bzw. Optimierungen.
vinacis_vivids
2023-09-21, 22:53:30
Ich lese immer von "Gästen", dass die Sparversion von XESS besser sein soll als FSR2. Wo sind die Beweise bzw. Nachweise?
Es gibt genügend Beispiele in diesem Thread. Ansonsten einfach mal selber ausprobieren in ein paar Spielen. Die Tests sind in aller Regel sowieso mit dp4a, weil meist mit einer Nvidia dGPU getestet. Die sogenannte Sparversion ist ohnehin der Standard. Grob gesagt würde ich in 8 von 10 Spielen XeSS bevorzugen, sofern 1.1+ verwendet wird.
vinacis_vivids
2023-09-21, 23:40:10
Also keine Beweise vorhanden, weil nicht ordentlich getestet worden.
aufkrawall
2023-09-21, 23:50:08
https://abload.de/thumb/riftapart_2023_09_20_fefbi.png (https://abload.de/image.php?img=riftapart_2023_09_20_fefbi.png) https://abload.de/thumb/riftapart_2023_09_20_uye32.png (https://abload.de/image.php?img=riftapart_2023_09_20_uye32.png)
Ich lese immer von "Gästen", dass die Sparversion von XESS besser sein soll als FSR2. Wo sind die Beweise bzw. Nachweise?
Der Beweis sind meine Augen. Und jeder der will kann selbst nachsehen.
Xe LPG hat keine XMX Einheiten. Sieht man auch im Video oder hier: https://www.intel.com/content/www/us/en/content-details/788848/graphics-and-media-deep-dive.html?wapkw=Meteor%20Lake%20Tech%20Day
Oh, wusste ich nicht, eine seltsame Entscheidung.
Gerade im Zeitalter der Handhelds würde sich MeteorLake doch perfekt als Konkurrenz zur Z-Serie von AMD anbieten, und mit XMX hätte man einen handfesten Vorteil.
Aber Intel hatte das wohl in der Designphase (wie offenbar auch AMD) nicht so richtig am Schirm.
Oh, wusste ich nicht, eine seltsame Entscheidung.
Gerade im Zeitalter der Handhelds würde sich MeteorLake doch perfekt als Konkurrenz zur Z-Serie von AMD anbieten, und mit XMX hätte man einen handfesten Vorteil.
Aber Intel hatte das wohl in der Designphase (wie offenbar auch AMD) nicht so richtig am Schirm.
Das ist ein Kostenfaktor, die XMX Einheiten sind nicht gerade klein. Dadurch sind die GPU tiles sehr kompakt geworden, mit XMX wären sie nicht so kompakt.
Intel arbeitet derzeit an einer Version mit einer Auflösungsskalierung von 3x (https://youtu.be/2FSG9yNTNrA?t=1410), was für langsame GPUs interessant sein könnte.
aufkrawall
2023-10-05, 23:45:49
Grafikfehler in Talos 2 vs. TSR:
https://abload.de/thumb/talos2-win64-shippingdidfw.png (https://abload.de/image.php?img=talos2-win64-shippingdidfw.png) https://abload.de/thumb/talos2-win64-shippingedc0r.png (https://abload.de/image.php?img=talos2-win64-shippingedc0r.png)
Lustigerweise gibt es genau das gleiche Problem, wenn man in Uncharted DLSS -> XeSS wrapt. Mit FSR 2 -> XeSS war das weg. Wirklich sehr kurios, dass das mit dem UE Plug-In auftritt.
Ee_aHQic8Q0
Zwar fehlt DLSS in diesem Vergleich (captured on Arc), aber man sieht sehr gut, dass Intels XeSS hier sowohl AMDs FSR 2 als auch Epics TSR überlegen ist. Das gilt nicht für alle Bildbereiche!
MfG
Raff
dargo
2023-11-02, 17:26:18
Lustig... CB kommt nämlich zum anderen Fazit. :ulol:
Die Redaktion hat sich auf Super Resolution (Upscaling) fokussiert und diesbezüglich werden neben Nvidia DLSS auch AMDs FSR sowie Intel XeSS unterstützt. Und da Croteam das noch nicht reichte, sind auch Epics eigene Technologien, das alte TAAU und das neue TSR, verfügbar.
Über TAAU muss nicht viel gesagt werden. Das alte Upsampling der Unreal Engine ist Epics neuer Lösung TSR massiv unterlegen. Und TSR ist dann auch gleich die Überraschung des Tests, denn das Upsampling macht einen richtig guten Eindruck und legt sich sogar mit Nvidias DLSS an. TSR verliert dabei zwar letztlich das Duell, dennoch weiß es zu überzeugen.
AMD FSR SR zeigt ein enttäuschendes Ergebnis
Und das ist auch gut so. Denn AMDs FSR legt eine ziemliche Bruchlandung in The Talos Principle 2 hin. AMD muss also unbedingt den Super-Resolution-Algorithmus von FSR verbessern, um konkurrenzfähig zu bleiben. Im Stillstand schafft es FSR SR zwar, eine erstaunlich gute Bildqualität zu liefern, in Bewegung bricht die Bildstabilität jedoch komplett zusammen. Vor allem die für FSR üblichen Disocclusion-Probleme brechen dem Algorithmus bei der zahlreichen Vegetation das Genick. Bereits FSR „Quality“ flackert in Bewegung deutlich, eine noch aggressivere Einstellung oder geringere Auflösungen vergrößern das Problem stark.
Epics TSR ist dagegen überraschend gut
Interessanterweise ist genau das die Stärke von TSR. Im Stillstand schaut TSR schlechter als FSR aus, denn auch TSR hat mit der Vegetation so seine Probleme, die sich ebenso in einem leichten Flackern äußern. Aber in Bewegung wird das Flimmern eben nicht schlimmer, sodass TSR die Bildqualität von FSR deutlich übertrifft. Auch der Performance- oder der Quality-Modus in geringeren Auflösungen von TSR ist in dem Rätselspiel brauchbar. Denn abgesehen von der zwar nicht perfekten, aber brauchbaren Bildstabilität zeigt TSR bezüglich Bilddetails und Rekonstruktion ebenfalls gute Ergebnisse. Das Bild ist jedoch ein wenig softer als bei den Konkurrenztechnologien und zumindest das Spiel selbst ermöglicht kein Nachschärfen abseits von FSR. Dennoch zeigt das, dass nicht die klassischen Compute-Algorithmen von FSR die Bildqualität von AMDs Upsampling aufhalten, sondern der Algorithmus selbst. Auch ohne neuronales Netzwerk geht es noch deutlich besser. So sieht TSR im Gesamtprodukt auch besser als Intel XeSS aus – die Variante auf Arc-GPUs wohlgemerkt.
https://www.computerbase.de/2023-11/the-talos-principle-2-benchmark-test/2/
Und jetzt? ;)
FSR bröselt gerade bei schnelleren Bewegungen so brutal - nicht so brutal wie in WRC, aber schlimm genug -, dass ich FSR hier nicht hübsch finden kann. Der ewige Kampf zwischen "Details" und "Ruhe" ist subjektiv und wird nie enden.
MfG
Raff
dargo
2023-11-02, 17:33:14
FSR (und auch XeSS in der Billigvariante) überzeugt mich in Bewegung auch nicht, nur im Stillstand. In Bewegung überzeugt mich TSR aber sehr wohl. Im Prinzip hatte ich das gleiche wie CB schon in der Demo beobachtet.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13423473&postcount=3355
Da widerspreche ich nicht, TSR ist hier besser als FSR. Nur sehe ich halt XMX-XeSS insgesamt vor TSR. Die DP4a-Version habe ich hier noch gar nicht gesehen ...
MfG
Raff
aufkrawall
2023-11-02, 17:42:27
Die temporale Stabilität der DP4a-Variante ist deutlich schlechter als von TSR Epic, + mehr Ghosting, Smearing und Blur.
Die TSR-Verbesserungen für 5.4 klingen auch schon fast zu gut, um wahr zu sein. Könnte die Karten nochmal neu mischen:
https://abload.de/img/tsrv3dm5.jpg (https://abload.de/image.php?img=tsrv3dm5.jpg)
Fliegende Vögel smearen halt auch mit DLSS Preset C, mit TSR gar nicht. XeSS ist dabei immer noch eine Katastrophe.
Edit: Im Wald auf der Insel ist TSR allerdings auch hart am Limit.
aufkrawall
2023-11-02, 22:48:09
"FG" ala Intel, funktioniert leider nur mit Vögeln und Insekten :ulol: :
https://abload.de/thumb/talos2-win64-shippingmgd2p.png (https://abload.de/image.php?img=talos2-win64-shippingmgd2p.png)
Achill
2023-11-02, 22:59:39
DLSS, FSR und XeSS sind alle zusammen halt generische Ansätze (müssen ja in vielen Engines/Spielen funktionieren). Dies ist TSR zwar bedingt auch, aber eben mit den Vorteil nur die UE5 zu unterstützen. Epic kann im Vergleich zu den anderen Dreien sowohl TSR als auch die von der Engine gelieferten Daten aufeinander abstimmen und kontinuierlich mit jeder neuen Version weiter ausbauen. Dies ist imho auch der richtig starke Vorteil weshalb ich hier auch noch weitere Verbesserungen erwarte ... und da TSR auch GPU neutral ist, ich es auch sehr begrüße.
DLSS, FSR und XeSS sind alle zusammen halt generische Ansätze (müssen ja in vielen Engines/Spielen funktionieren). Dies ist TSR zwar bedingt auch, aber eben mit den Vorteil nur die UE5 zu unterstützen. Epic kann im Vergleich zu den anderen Dreien sowohl TSR als auch die von der Engine gelieferten Daten aufeinander abstimmen und kontinuierlich mit jeder neuen Version weiter ausbauen. Dies ist imho auch der richtig starke Vorteil weshalb ich hier auch noch weitere Verbesserungen erwarte ... und da TSR auch GPU neutral ist, ich es auch sehr begrüße.
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
Exxtreme
2023-11-02, 23:24:41
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
Es ist halt eine weitere Option neben Xess, DLSS und FSR.
aufkrawall
2023-11-02, 23:29:22
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
So etwas wie Alan Wake 2 kann man mit Radeon sowieso nur aussitzen, bis man vielleicht eines Tages mal eine GeForce hat.
DrFreaK666
2023-11-02, 23:57:25
So etwas wie Alan Wake 2 kann man mit Radeon sowieso nur aussitzen, bis man vielleicht eines Tages mal eine GeForce hat.
Sag das den Konsolen-Besitzern
dargo
2023-11-03, 08:04:48
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
Hast du dich das auch gefragt als DLSS, FSR und XeSS neu waren? Dieses Problem liegt in der Natur und ist nur eine Momentaufnahme. Und wenn man noch weiter zurück geht könnte man nach diesem Schema auch den Wechsel von MSAA auf TAA in Frage stellen. Hat trotzdem nahezu niemanden daran gehindert auf temporales Antialiasing zu wechseln.
DrFreaK666
2023-11-03, 09:02:07
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
Warum Glide unterstützen, wenn kaum jemand eine Voodoo 1 hat?
basix
2023-11-03, 12:17:20
TSR wird in jedem zukünftigen UE5 Titel dabei sein. Egal wie viele es davon geben wird ;)
Achill
2023-11-03, 12:50:06
Zu kurz gedacht, was hast davon, wenn es kaum UE Titel gibt? ...
UE 5.0 ist im April 2022 raus gekommen. In der SW-Welt hat sich eigentlich folgendes bewährt:
- Devs/Teams schauen sich oft schon die neuste Version / neue Features an
- In einen guten Projekt/Unternehmen macht man Test-Builds um den Aufwand für ein Upgrade abschätzen zu können
- Ein neues Projekt oder Upgrade macht man aber meist erst mit der ersten Minor-Version - also 5.1 - wenn die Kinderkrankheiten raus sind
- Was ist die Entwicklungszeit von AA und AAA Games heutzutage? 3/5/7 Jahre oder mehr?
Hat man dies im Hinterkopf, so sollte nicht verwunderlich sein, warum es aktuell noch nicht viele UE5 Spiele gibt ...
dildo4u
2023-12-09, 12:02:46
The Finals(Free to Play auf Steam) kann FSR2/XeSS/DLSS.
Ich kann nur FSR und XESS mit der 1070 testen.
HAIrzM01EZU
DrFreaK666
2023-12-16, 11:41:18
XeSS 1.2 DP4a Test
wrd8RfxCwvQ
Nichts wirklich neues! XeSS wesentlich besser und verbessert und AMD's FSR 2/3 taugt nicht für hohe Ansprüche.
Lurtz
2023-12-16, 20:54:14
Was limitiert denn da, dass XeSS DP4a je nach Spiel und Karte so unterschiedlich gegenüber FSR2 und DLSS skaliert?
Bei gleicher Render Auflösung ja recht eindeutig, es kostet nur mehr fps.
Intel arbeitet derzeit an einer frame generation Version genannt ExtraSS, auf der aktuellen SIGGRAPH wurde das erstmalig vorgestellt.
ExtraSS: A Framework for Joint Spatial Super Sampling and Frame Extrapolation
Description: We introduce ExtraSS, a novel framework that combines spatial super sampling and frame extrapolation to enhance real-time rendering performance. By integrating these techniques, our approach achieves a balance between performance and quality, generating temporally stable and high-quality, high-resolution results.
Leveraging lightweight modules on warping and the ExtraSSNet for refinement, we exploit spatial-temporal information, improve rendering sharpness, handle moving shadings accurately, and generate temporally stable results. Computational costs are significantly reduced compared to traditional rendering methods, enabling higher frame rates and alias-free high resolution results.
https://asia.siggraph.org/2023/presentation/?id=papers_744&sess=sess155#038;sess=sess155
https://wccftech.com/intel-frame-generation-technology-xess-coming-soon-extrass-frame-extrapolation-boost-game-fps/
Mehr Infos:
https://dl.acm.org/doi/10.1145/3610548.3618224
https://poiw.github.io/
robbitop
2023-12-16, 21:40:09
Was limitiert denn da, dass XeSS DP4a je nach Spiel und Karte so unterschiedlich gegenüber FSR2 und DLSS skaliert?
XeSS per dp4a ist compute intensiver als FSR. Immerhin wird ein NN genutzt und man nutzt keine Matrixeinheiten sondern rechnet „zu Fuß“ mit Vektoreinheiten. DLSS rennt ja ausschließlich auf Matrixeinheiten und hat keinen do4a Pfad. FSR nutzt kein NN. XeSS gibt es auch in der XMX Variante (Intels Matrixunits in Alchemist IP).
Exxtreme
2023-12-16, 21:52:55
Ja, so wie es ausschaut wird Xess bei diesen Weichzeichnern zur besten universellen Lösung. Läuft auch auf Grütze-GPUs und sieht besser aus als FSR 2/3. Aber eventuell legt AMD da noch nach.
basix
2023-12-16, 22:39:00
Bei gleicher Render Auflösung ja recht eindeutig, es kostet nur mehr fps.
Intel arbeitet derzeit an einer frame generation Version genannt ExtraSS, auf der aktuellen SIGGRAPH wurde das erstmalig vorgestellt.
https://asia.siggraph.org/2023/presentation/?id=papers_744&sess=sess155#038;sess=sess155
https://wccftech.com/intel-frame-generation-technology-xess-coming-soon-extrass-frame-extrapolation-boost-game-fps/
Mehr Infos:
https://dl.acm.org/doi/10.1145/3610548.3618224
https://poiw.github.io/
Interessant. Intel arbeitet hier mit Extrapolation und nicht Interpolation wie DLSS3 und FSR3. Im Endeffekt ist die Problemstellung einiges schwieriger, man hat als Gewinn aber keinen Latenznachteil. Bin gespannt, wie gut das funktioniert.
robbitop
2023-12-17, 08:35:07
Da wird aber keine vergleichbare BQ entstehen. Weil man weniger Informationen hat (halb so viele) und weil nicht alle 2 Bilder ein echtes Frame kommt (was laut reviews viel von den Artefakten der interpolierten frames von der Wahrnehmung wegnimmt).
Selbst mit 2 Frames zwischen denen interpoliert wird gibt es zT sehr deutliche Artefakte im Zwischenframe.
basix
2023-12-17, 11:48:15
Alles eine Frage der Umsetzung und der Qualität, die man erreicht ;)
Bei FG merkt man die Zwischenbild-Artefakte auch fast nicht im normalen Spielfluss. Extrapolation von vornherein abzuschreiben würde ich Stand jetzt nicht. Ist sicher schwieriger als Interpolation, aber unmöglich ist es nicht. Also: Abwarten und sobald verfügbar nochmals beurteilen ;)
Den Latenznachteil von FG wegzubekommen wäre mMn ein Killer-Feature.
robbitop
2023-12-17, 12:28:29
Ich will es nicht ausschließen - aber Fakt ist man hat keine Information zum zukünftigen Bild und das ist ein starker Nachteil.
Das Latenzproblem ist mit Reflex ja schon halbwegs angegangen - aber das wäre mit Extrapolation natürlich nochmal stackbar.
Wenn die BQ gut wäre, wäre es auch schon mit niedrigeren Frameraten nutzbarer. Mal schauen - aber ich gehe jede Wette ein es wird mehr BQ issues haben als Interpolation.
Aber wie Jim Keller immer so schön sagt: Innovation lebt davon, dass möglichst viele Ansätze ausprobiert werden und man danach die besten Ansätze weiterverfolgen und verfeinern kann. Wenn man es nicht ausprobiert, wird man es nicht wissen. Insofern ist es gut, dass es jemand ausprobiert. :)
DrFreaK666
2023-12-17, 13:17:32
Aber wieso muss es schon wieder einen dritten Ansatz geben? Wieso kann man sich nicht zusammensetzen und gemeinsam was schaffen? Bei DX funktioniert das doch auch
robbitop
2023-12-17, 13:26:00
So funktioniert (effiziente / schnelle) Innovation nicht. Es braucht immer Wettbewerb. Wenn man "Glück" hat, setzt sich irgendwann das gewinnende Prinzip durch.
DirectX ist eine Schnittstelle - jedoch kein Verfahren. Das wird immer wieder durcheinander gebracht. Was aber sinnvoll wäre: eine Schnittstelle für unterschiedliche Verfahren, so dass die Implementierung einfach ist. Nvidia hat das mit Streamline probiert - sogar open source. Wird von AMD aber ignoriert. Wahrscheinlich weil es vom Wettbewerber ist. Entsprechend wäre es super, wenn sowas eher in DirectX/Vulkan landen wird.
Und super wäre es auch, wenn es offene Schnittstellen für die Matrixberechnung gäbe anstatt dem Properärten Kram den Intel und Nvidia machen. Entsprechend könnte jede Hardware die das instruction set und die Schnittstelle unterstützt den Kram rechnen. Ob jetzt über Matrix Cores oder Vector.
Aber das will dann der jeweilige Marktführer nicht (die Position würde sicherlich jedes Gewinnorientiere Unternehmen ausnutzen), weil es den unique selling point untergraben würde.
Exxtreme
2023-12-17, 13:27:32
Aber wieso muss es schon wieder einen dritten Ansatz geben? Wieso kann man sich nicht zusammensetzen und gemeinsam was schaffen? Bei DX funktioniert das doch auch
Weil wir eine Marktwirtschaft und keine Planwirtschaft haben. Und bei DirectX funktioniert es auch nicht denn es gibt auch noch Vulkan und OpenGL.
DrFreaK666
2023-12-17, 13:32:05
Weil wir eine Marktwirtschaft und keine Planwirtschaft haben. Und bei DirectX funktioniert es auch nicht denn es gibt auch noch Vulkan und OpenGL.
Bei OpenGL und Vulkan sind sie ja auch beteiligt. DX war nur ein Beispiel
DrFreaK666
2023-12-17, 13:37:01
So funktioniert (effiziente / schnelle) Innovation nicht. Es braucht immer Wettbewerb. Wenn man "Glück" hat, setzt sich irgendwann das gewinnende Prinzip durch...
Und wann ist es soweit? Gibt es kein DLSS dann meckern Nvidia-Jünger, gibt es kein FSR, dann die rote Fraktion.
Die aktuelle Situation bringt uns allen nichts. Nebenher gibt es Modder, die davon finanziell profitieren
Und super wäre es auch, wenn es offene Schnittstellen für die Matrixberechnung gäbe anstatt dem Properärten Kram den Intel und Nvidia machen.
Für was ist DirectML nochmal gut? Wird es überhaupt irgendwo eingesetzt?
Achill
2023-12-17, 14:58:33
XeSS 1.2 DP4a Test
https://youtu.be/wrd8RfxCwvQ
So interessant der Vergleich auf der einen Seite ist, so wird jedoch der Fakt wie "alt" DLSS oder FSR in den jeweiligen Titeln ist komplett ausgeklammert.
Ein weiterer sinnvoller Post (ist ja eher selten bei YT) zwischen DLSS/XeSS und FSR:
I would argue that many of the faults of FSR2+ is due to the technology requiring more manual intervention compared to XeSS's and DLSS's neural networks, like how developers need to add various masks to cope with animated textures, transparencies, occlusion etc. to get rid of noise and ghosting. For sub-pixel shimmering (like foliage, fences, power lines etc) it is required to use a function called pixel lock. Avatar makes a good showcase of what FSR is capable of. But most implementations are subpar, and understandably so as FSR requires a lot more manual labor from developers. It might be worth the dedication if you target current gen consoles and want the best possible performance.... DLSS and XeSS is easier on developers as the neural algorithm takes care of these inherent temporal flaws, but at the same time developers have less control over the final image... Currently I would argue that many games have made DLSS the priority and FSR an afterthought... Heck, even FSR2 mods that are injected over the DLSS pipeline looks better than official implementations.
I am saying this as a game developer who have gone through the API documentation and experimented with AMDs own examples, many of the unwanted defects we see in today's games is due to the lack of using above mentioned techniques in the rendering pipeline.. With these techniques together with high framerates and resolutions I think FSR is doing a great job due to the high base resolution as well as how quickly the temporal resolve irons out the quirks of the tech, however, at lower resolutions and framerates these quirks become more apparent even when using above mentioned tech...
One example of the effect of FSR2 implementation is how CDPR added a reactive mask to the car in Cyberpunk in v1.60, which completely removed ghosting behind the car and looked great. In version 1.62 (DLSS3 patch) this change was undone, which resulted in the re-introduction of ghosting again. This is no fault of FSR2 itself... but rather the implementation of FSR2. It just makes a huge difference how the tech is implemented and how many of the APIs functions/techniques are being used to get rid of the temporal flaws. Anyway, I hope these techniques/workflows can be more deeply integrated and automated in popular engines. That way less strain is on put on each individual game productions
robbitop
2023-12-17, 15:03:11
Und wann ist es soweit? Gibt es kein DLSS dann meckern Nvidia-Jünger, gibt es kein FSR, dann die rote Fraktion.
Die aktuelle Situation bringt uns allen nichts. Nebenher gibt es Modder, die davon finanziell profitieren
Das weiß noch keiner. Meine Vermutung ist, sobald das offene Verfahren es mit dem besten Verfahren konsistent aufnehmen kann. Wäre FSR 2 schon zum Lunch genauso gut gewesen (oder besser) wie DLSS und hätte das gehalten, wäre DLSS wahrscheinlich schon am Aussterben. Ist ein wenig wie bei VRR.
DLSS ist proprietär aber es ist mit Abstand das beste Verfahren.
@Archill
ja das ist eines der Probleme von FSR was zu einer nicht besonders konsistenten Implementierungsgüte führt. Aber selbst in Titeln wo es sehr gut implementiert wurde, hängt es hinter DLSS zurück. Sind also 2 Dinge die AMD angehen müssen wird. Höhere Robustheit der Implementierung / mehr "Automagie" und BQ.
DrFreaK666
2023-12-17, 15:08:15
... Sind also 2 Dinge die AMD angehen müssen wird. Höhere Robustheit der Implementierung / mehr "Automagie" und BQ.
Ist G-Sync denn allgemein nicht besser als FreeSync? Also muss sich nicht zwangsläufig das bessere Verfahren durchsetzen, sondern womöglich nur das kompatibelste
Exxtreme
2023-12-17, 15:20:26
Sind also 2 Dinge die AMD angehen müssen wird. Höhere Robustheit der Implementierung / mehr "Automagie" und BQ.
"Automagie" ist halt eine Büchse der Pandora. Sie erlaubt Schludern also wird geschludert werden. Weil man damit Kosten einspart.
robbitop
2023-12-17, 16:48:50
"Automagie" ist halt eine Büchse der Pandora. Sie erlaubt Schludern also wird geschludert werden. Weil man damit Kosten einspart.
Wenn es eine Erfahrung gibt, die ich als Beobachter der 3D Branche gemacht habe in den letzten 2 Jahrzehnten, dass wenn man etwas den Entwicklern überlässt und hofft, dass es anständig umgesetzt wird, dass man mit einem enttäuschend breitem Spektrum an Ergebnissen leben musste. Einige wenige geben sich richtig Mühe und haben die entsprechenden Kenntnisse und Zeitbudgets, dann ist da die solala Masse und dann die denen es an beidem fehlt oder rs am Allerwertesten vorbei geht. Konsistenz gibt es nur wenn oktruiert wird.
robbitop
2023-12-17, 16:49:53
Ist G-Sync denn allgemein nicht besser als FreeSync? Also muss sich nicht zwangsläufig das bessere Verfahren durchsetzen, sondern womöglich nur das kompatibelste
Ich würde sagen beides hat Parität und freesync / gsync compatible ist günstiger weil kein fpga + ram nötig ist.
Troyan
2023-12-17, 16:55:13
Ist G-Sync denn allgemein nicht besser als FreeSync? Also muss sich nicht zwangsläufig das bessere Verfahren durchsetzen, sondern womöglich nur das kompatibelste
G-Sync Hardware ist Premium. Das ist nie Massenmarkt. Adaptive-Sync dagegen ist ein günstiger Standard, der jedoch eben mit einigen Nachteilen kommt. Und diese benötigen wiederum bessere Hardware und Software, um negiert zu werden.
Lurtz
2023-12-17, 16:59:37
I would argue that many of the faults of FSR2+ is due to the technology requiring more manual intervention compared to XeSS's and DLSS's neural networks, like how developers need to add various masks to cope with animated textures, transparencies, occlusion etc. to get rid of noise and ghosting. For sub-pixel shimmering (like foliage, fences, power lines etc) it is required to use a function called pixel lock. Avatar makes a good showcase of what FSR is capable of. But most implementations are subpar, and understandably so as FSR requires a lot more manual labor from developers.
Entwickler sind faul, das ist ein handfester Nachteil, weil kaum jemand für eine (eh schon unbeliebte) Technologie die Extrameile gehen wird.
Und was zB Disocclusion angeht ist FSR in Avatar auch nicht viel besser als anderswo (bei den "wegklappenden" Pflanzen beispielsweise), teils sogar schlechter (das HUD mit FSR FG).
Exxtreme
2023-12-17, 17:09:14
Wenn es eine Erfahrung gibt, die ich als Beobachter der 3D Branche gemacht habe in den letzten 2 Jahrzehnten, dass wenn man etwas den Entwicklern überlässt und hofft, dass es anständig umgesetzt wird, dass man mit einem enttäuschend breitem Spektrum an Ergebnissen leben musste. Einige wenige geben sich richtig Mühe und haben die entsprechenden Kenntnisse und Zeitbudgets, dann ist da die solala Masse und dann die denen es an beidem fehlt oder rs am Allerwertesten vorbei geht. Konsistenz gibt es nur wenn oktruiert wird.
Die "Solala-Masse" gibt es dehalb weil es möglich ist solala abzuliefern. Gutes Beispiel sind Konsolen. Als es nicht möglich war Spiele nachträglich zu patchen, mussten die Spielehersteller bei der ersten Auslieferung sehr gute Ergebnisse abliefern. Ansonsten wäre eine Rückrufaktion fällig. Und die ist teuer ohne Ende. Als es dann möglich war Spiele zu patchen, wurden solala Ergebnisse zur Regel. Denn Patches sind ungleich billiger als Rückrufaktionen.
Und das gleiche macht DLSS/Xess. Man erlaubt von vorneherein solala Ergebnisse und versucht sie nachträglich per KI zu reparieren. Und das ist halt die Büchse der Pandora, IMHO.
Da wird aber keine vergleichbare BQ entstehen. Weil man weniger Informationen hat (halb so viele) und weil nicht alle 2 Bilder ein echtes Frame kommt (was laut reviews viel von den Artefakten der interpolierten frames von der Wahrnehmung wegnimmt).
Also laut den gezeigten Informationen ist es schon jeweils ein Extrapoliertes Frame zwischen 2 echten, auch wenn man sicher auch mehrere Extrapolierte Frames zwischenschieben kann, wie man es auch bei interpolierten könnte. Alles eine Frage der Performance und ob man die Fake-Frames schnell genug erzeugen kann.
Wobei es für die Wahrnehmung von Artefakten so gut wie keine Rolle spielt wieviele Frames man interpoliert. Wichtig ist nur wie schnell das nächste echte Frame kommt und die Wahrnehmung wieder gerade rückt. Und nur weil ich mehrere Frames dazwischen erzeuge erhöht sich der Abstand zwischen den echten ja nicht.
robbitop
2023-12-17, 17:26:00
Die "Solala-Masse" gibt es dehalb weil es möglich ist solala abzuliefern. Gutes Beispiel sind Konsolen. Als es nicht möglich war Spiele nachträglich zu patchen, mussten die Spielehersteller bei der ersten Auslieferung sehr gute Ergebnisse abliefern. Ansonsten wäre eine Rückrufaktion fällig. Und die ist teuer ohne Ende. Als es dann möglich war Spiele zu patchen, wurden solala Ergebnisse zur Regel. Denn Patches sind ungleich billiger als Rückrufaktionen.
Und das gleiche macht DLSS/Xess. Man erlaubt von vorneherein solala Ergebnisse und versucht sie nachträglich per KI zu reparieren. Und das ist halt die Büchse der Pandora, IMHO.
DLSS Ergebnisse sind konsistent und sehr gut. Scheint also aufzugehen die Strategie.
Ist G-Sync denn allgemein nicht besser als FreeSync?
Nein, Nvidia schreibt lediglich eine Minimalqualität vor die ein Monitor erreichen muss, damit er das Logo tragen kann.
AMD schreibt nichts vor, und jeder Monitor der irgendeine Form von VRR kann darf sich Freesync auf die Verpackung kleben.
Der beste Freesync Monitor wird trotzdem besser sein als der schlechteste G-Sync Monitor. Umgekehrt natürlich der schlechteste Freesync Monitor deutlich schlechter als der schlechteste G-Sync Monitor.
Exxtreme
2023-12-17, 17:33:05
Nein, Nvidia schreibt lediglich eine Minimalqualität vor die ein Monitor erreichen muss, damit er das Logo tragen kann.
AMD schreibt nichts vor, und jeder Monitor der irgendeine Form von VRR kann darf sich Freesync auf die Verpackung kleben.
Der beste Freesync Monitor wird trotzdem besser sein als der schlechteste G-Sync Monitor. Umgekehrt natürlich der schlechteste Freesync Monitor deutlich schlechter als der schlechteste G-Sync Monitor.
Freesync kennst schon einige Abstufungen:
https://www.tomshardware.com/reviews/amd-freesync-monitor-glossary-definition-explained,6009.html
Aber ja, die niedrigste Stufe hat viel niedrigere Voraussetzungen als Gsync.
fondness
2023-12-17, 18:01:51
Technologisch Ist es jedenfalls exakt dasselbe und der FPGA im Monitor ein schlechter Witz.
Freesync kennst schon einige Abstufungen:
https://www.tomshardware.com/reviews/amd-freesync-monitor-glossary-definition-explained,6009.html
Aber nur auf dem Papier, G-Sync Monitore werden von Nvidia getestet ob sie auch das halten was sie Versprechen.
Freesync ist lediglich ein Checklistenfeature, und die höheren Versionen müssen ein paar mehr Checkboxen anhaken.
TheAntitheist
2024-01-10, 07:57:40
Aber nur auf dem Papier, G-Sync Monitore werden von Nvidia getestet ob sie auch das halten was sie Versprechen.
Freesync ist lediglich ein Checklistenfeature, und die höheren Versionen müssen ein paar mehr Checkboxen anhaken.
ich habe einen Freesync Premium Pro und er kann NICHT alle versprochenen features, also auch dieses Logo ist nichts Wert leider.
dildo4u
2024-04-05, 06:20:27
Intel XeSS 1.3 SDK Released: New Presets & Scaling Factors To Boost Performance, Updated XMX & dp4A Models
https://i.ibb.co/qdMJL6n/Intel-Xe-SS-1-3-SDK-Before-After.png (https://ibb.co/c1cYKqv)
https://i.ibb.co/J3mHc0d/Xe-SS-1-3-A750-7-games-1920x1080.png (https://ibb.co/8YN9mTB)
https://wccftech.com/intel-xess-1-3-sdk-new-presets-scaling-factors-boost-performance-updated-xmx-dp4a-models/
dargo
2024-04-05, 06:43:17
Das sieht schon mal vielversprechend aus in der Vorschau bezüglich Bildstabilität, mal sehen wie es live in Bewegung wirkt. Gesteigerte Performance finde ich auch gut, jetzt kommt es eventuell an FSR ran.
Edit:
Lol... sehe jetzt erst, dass Intel die Presets geändert hat. Möglicherweise hat sich also bei der Performance gar nichts getan und nur der geringere Pixelinput dafür verantwortlich ist. X-D Ultra-Qualität ist jetzt 960p als Input für 1440p Output um ein Beispiel zu nennen.
Wäre interessant zu sehen ob DP4a auch von der Performance profitiert.
robbitop
2024-04-05, 11:24:51
Die Performance kommt offenbar von der Auflösungsreduktion pro Preset:
https://i.postimg.cc/8PgwV7Qy/Screenshot-2024-04-05-112329.png (https://postimages.org/)
Lurtz
2024-04-05, 11:49:15
Their solution to XeSS running a bit slower than DLSS/FSR at a given quality mode? Just rename the modes for a "performance boost"!
Exxtreme
2024-04-05, 11:58:58
Ja, sieht so aus als ob sie die bessere Performance dadurch bekommen indem sie die Presets umbenennen. Was früher Balanced war ist jetzt Quality. Gut, mal sehen wie die Bildqualität so wird. Entspricht das neue Quality dem alten dann ist die Umbenennung eventuell doch gerechtfertigt.
The_Invisible
2024-04-05, 12:15:21
Entspricht das neue Quality dem alten dann ist die Umbenennung eventuell doch gerechtfertigt.
Find ich net, erstens kann man dann nicht mehr 1:1 mit anderen Upscalings vergleichen bzw erschleicht man sich einen Vorteil und dann müsste man auch prüfen ob es zwecks Qualität gerechtfertigt wäre DLSS-B vs FSR-Q zu testen usw.
dargo
2024-04-05, 12:20:29
Find ich net, erstens kann man dann nicht mehr 1:1 mit anderen Upscalings vergleichen bzw erschleicht man sich einen Vorteil und dann müsste man auch prüfen ob es zwecks Qualität gerechtfertigt wäre DLSS-B vs FSR-Q zu testen usw.
Klar kann man Upscaling weiterhin vergleichen. Wo soll das Probelm sein? Nimmst bsw. halt ab XeSS 1.3 Ultra Quality vs. Quality FSR/DLSS was identischen Input bedeutet.
vinacis_vivids
2024-04-05, 13:08:35
ich habe einen Freesync Premium Pro und er kann NICHT alle versprochenen features, also auch dieses Logo ist nichts Wert leider.
Welchen Monitor und Welche Grafikkarte ?
Achill
2024-04-05, 13:09:48
Ja, sieht so aus als ob sie die bessere Performance dadurch bekommen indem sie die Presets umbenennen. Was früher Balanced war ist jetzt Quality. Gut, mal sehen wie die Bildqualität so wird. Entspricht das neue Quality dem alten dann ist die Umbenennung eventuell doch gerechtfertigt.
Ich sehe das hier wie Exxtreme, es zählt das Ergebnis. Wenn man durch neue Ansätze ein besseres Ergebnis erzielt, dies aber mehr Rechenleistung kostet, dann kann man den Input reduzieren. Sofern das Ergebnis noch immer "besser" bleibt (womit man auch immer konkret vergleichen mag), macht dies dann schon Sinn ...
Anderen Aspekte wie:
- Kann es in gleicher / schlechter Qualität auf anderen GPUs / älterer Generation genutzt werden
- Temp. Stabilität <> Menge an Details <> Artefakte
- Open Source
- ...
... sind nie irrelevant aber unterliegen immer der persönlichen Präferenz und wie dies auf einen selbst Zutrifft oder man sich selbst sein Hobby ggf. rechtfertigt.
DrFreaK666
2024-04-05, 13:13:10
Klar kann man Upscaling weiterhin vergleichen. Wo soll das Probelm sein? Nimmst bsw. halt ab XeSS 1.3 Ultra Quality vs. Quality FSR/DLSS was identischen Input bedeutet.
Dann müssen die Tester in Zukunft aufpassen, was sie testen. Oh nein.
Besser wäre sowieso wenn man versucht die in etwa gleiche Bildqualität zu erreichen und dann schaut man sich die Performance an.
Da jedes Upscaling anders arbeitet, sind Bezeichnungen nur Schall und Rauch
Exxtreme
2024-04-05, 13:18:52
Find ich net, erstens kann man dann nicht mehr 1:1 mit anderen Upscalings vergleichen bzw erschleicht man sich einen Vorteil und dann müsste man auch prüfen ob es zwecks Qualität gerechtfertigt wäre DLSS-B vs FSR-Q zu testen usw.
1:1 vergleichbar war das Upscaling zwischen den einzelnen Verfahren noch nie. Da es keinen allgemeinen Standard gibt wie z.B. Quality auszusehen hat. Deshalb machen Intel/Nvidia/AMD was sie wollen und definieren Quality wie sie lustig sind.
DrFreaK666
2024-04-05, 13:24:13
+1
Lurtz
2024-04-05, 14:27:29
1:1 vergleichbar war das Upscaling zwischen den einzelnen Verfahren noch nie. Da es keinen allgemeinen Standard gibt wie z.B. Quality auszusehen hat. Deshalb machen Intel/Nvidia/AMD was sie wollen und definieren Quality wie sie lustig sind.
Deshalb müsste man nach Optik und Leistung normieren. Da ersteres aber praktisch unmöglich allgemeingültig zu bestimmen ist, wird es schwierig.
Exxtreme
2024-04-05, 14:34:51
Deshalb müsste man nach Optik und Leistung normieren. Da ersteres aber praktisch unmöglich allgemeingültig zu bestimmen ist, wird es schwierig.
Objektiv wird es ziemlich unmöglich werden das zu normieren. Da hängen auch noch zu viele Variablen dran, die die Grafikkartenhersteller nicht in der Hand haben. Die Spieleentwickler müssen hier und da auch ran. Wenn die keine Lust oder kein Budget haben sich an div. Empfehlungen zu halten dann wird es auch nichts. Und bei Nvidia hängt es dann auch noch von DLL-Versionen und Presets ab wie das Ergebnis aussieht.
Von daher ist das ein hoffnungsloses Unterfangen.
dargo
2024-04-05, 15:00:35
Dann müssen die Tester in Zukunft aufpassen, was sie testen. Oh nein.
Ein wenig Hirnschmalz erwarte ich schon von kompetenten Testern.
Besser wäre sowieso wenn man versucht die in etwa gleiche Bildqualität zu erreichen und dann schaut man sich die Performance an.
Fast unmöglich da jedes Upscaling mit anderen Fuckups zu kämpfen hat.
DrFreaK666
2024-04-05, 15:10:23
...Fast unmöglich da jedes Upscaling mit anderen Fuckups zu kämpfen hat.
Schon. Aber einfach nur Quality vs Quality vs Quality macht halt eben auch keinen Sinn
Exxtreme
2024-04-05, 15:15:06
Schon. Aber einfach nur Quality vs Quality vs Quality macht halt eben auch keinen Sinn
Korrekt. Deswegen halte ich auch nichts von Benchmarks, bei denen Upscaling aktiv ist.
dargo
2024-04-05, 15:20:58
Schon. Aber einfach nur Quality vs Quality vs Quality macht halt eben auch keinen Sinn
Dann am besten gar nichts mehr testen. X-D Aber irgendwo hat Exxtreme mit seinem letzten Post schon recht. Richtig bescheuert wird es dann nur wenn Games gar keinen nativen Mode ohne Upscaling mehr anbieten wie zb. Alan Wake 2. :ulol:
Schon. Aber einfach nur Quality vs Quality vs Quality macht halt eben auch keinen Sinn
Habe gerade Flasbacks in die späten 90er. Ich sag nur 3dfx, Nvidis, AA und AF ;D
The_Invisible
2024-04-05, 15:37:51
Benchmarks mit upsampling sind schon länger gang und gäbe. Komischerweise hat sich da nie jemand über die qualitätsunterschiede beschwert, jetzt wird aber wieder ein Fass aufgemacht... Fragt da lieber Mal Raff & Co wie "lustig" das ist...
New AI models deliver greater detail reconstruction, better anti-aliasing quality, reduced ghosting, and improved temporal stability
Das hört sich interessant an. Ob man die neue libxess.dll einfach mit der alten ersetzen kann in 1.2 Spielen? Wegen den neuen presets bin ich mir nicht sicher.
Monsta
2024-04-05, 15:43:09
Ein wenig Hirnschmalz erwarte ich schon von kompetenten Testern.
Fast unmöglich da jedes Upscaling mit anderen Fuckups zu kämpfen hat.
Es bräuchte ein Stück Software das in Prozent angibt, wieviel das Upscale Bild vom Nativen abweicht. Idealerweise von bewegen Bildern.
Benchmarks mit upsampling sind schon länger gang und gäbe. Komischerweise hat sich da nie jemand über die qualitätsunterschiede beschwert, jetzt wird aber wieder ein Fass aufgemacht... Fragt da lieber Mal Raff & Co wie "lustig" das ist...Mehrdimensionale Themen lassen sich schlecht in einer simplen Metrik abbilden.
Solange es neben den Benches auch den Qualitätsvergleich gibt, kann der Leser doch abwägen.
Exxtreme
2024-04-05, 15:48:13
Es bräuchte ein Stück Software das in Prozent angibt, wieviel das Upscale Bild vom Nativen abweicht. Idealerweise von bewegen Bildern.
Naja, eine Abweichung alleine sagt nichts aus. Z.B. werden mit DLSS bearbeitete Bilder wohl sehr viel weniger flimmern als Bilder ohne AA. Das wäre dann auch eine Abweichung, die man aber wohl haben will weil man Flimmern als störend empfindet etc.
Deshalb ist die Sache eher nicht so einfach da Abweichungen halt sowohl in die eine wie auch in die andere Richtung wirken.
Reaping_Ant
2024-04-05, 15:51:07
Man könnte ja ein neurales Netzwerk darauf trainieren, die Bildqualität zu bewerten...
dargo
2024-04-05, 15:53:22
Es bräuchte ein Stück Software das in Prozent angibt, wieviel das Upscale Bild vom Nativen abweicht. Idealerweise von bewegen Bildern.
Ich kenne eine einfachere Lösung, ein Upscaler für alle PC-Gamer, es gab mal Standards am PC habe ich mir sagen lassen. ;) Aber da denke ich wohl wieder zu logisch. ;D
Naja, eine Abweichung alleine sagt nichts aus. Z.B. werden mit DLSS bearbeitete Bilder wohl sehr viel weniger flimmern als Bilder ohne AA.
Man muss es nicht gleich übertreiben. Irgendwelche Vergleiche vs. non AA machen überhaupt keinen Sinn da alle Spiele längst mit TAA kommen wenn Upscaler fehlen.
Find ich net, erstens kann man dann nicht mehr 1:1 mit anderen Upscalings vergleichen
Man kann die Upscalings sowieso nicht vergleichen, DLSS Performance sieht oft genug besser als FSR Quality aus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.