PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: DLSS per default im Treiber aktiviert?


Leonidas
2020-08-02, 09:20:44
Link zur Umfrage:
https://www.3dcenter.org/umfrage/dlss-default-im-treiber-aktiviert


Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-dlss-default-im-treiber-aktiviert

JVC
2020-08-02, 10:01:51
+1 "kein Problem damit - so lange man es deaktivieren kann"

M.f.G. JVC

Ben Carter
2020-08-02, 10:58:35
Schwierig zu sagen. Es muss auf jeden Fall deaktivierbar bleiben, das ist für mich sicher. Ansonsten spielt es jetzt nicht so die große Rolle. Wenn es wirklich tadellos funktioniert und keine Fehler mehr produziert, wie aktuell noch, dann könnte es ein Vorteil sein, wenn es standardmäßig aktiviert ist, weil Leute, die sich nicht oder wenig damit auseinandersetzen dann den Performancevorteil mitnehmen können und ich denke, dass es bei diesen Leute überwiegt, einfach ein paar FPS mehr zu haben, als das letzte Quäntchen Bildqualität. Wenn es aber nach wie vor zu Fehlern führt, dann ist es imho ein absolutes no-go. Da ich selbst noch nicht überzeugt bin, dass es schon soweit ist, habe ich entsprechend auch für no-go gestimmt.

Ich bin ja gespannt, ob mit DLSS 3 dann endlich auch durchgehend die Option kommt, 4k nativ zu rendern und dann mit DLSS nochmals das Bild für die 4k Ausgabe zu glätenn/optimieren.

MasterElwood
2020-08-02, 11:07:46
Wenn es WIRKLICH gleich gut / besser damit aussieht - gibt es KEINEN vernünftigen Grund es nicht zu benutzen = per Default zu aktivieren.


Und dann sollte es auch in Benchmarks benutzt werden - und zwar AUSSCHLIEßLICH und NICHT zusätzlich.

Weil ein Performance bringendes Feature NICHT zu verwenden obwohl es die BQ nicht neg. beeinträchtigt ist einfach nur unehrlich und verfälschend. Und ZUSÄTZLICH macht keinen Sinn wenn es die BQ nicht neg. beeinflusst.

Lehdro
2020-08-02, 11:33:40
Wenn es WIRKLICH gleich gut / besser damit aussieht - gibt es KEINEN vernünftigen Grund es nicht zu benutzen = per Default zu aktivieren.


Und dann sollte es auch in Benchmarks benutzt werden - und zwar AUSSCHLIEßLICH und NICHT zusätzlich.

Weil ein Performance bringendes Feature NICHT zu verwenden obwohl es die BQ nicht neg. beeinträchtigt ist einfach nur unehrlich und verfälschend. Und ZUSÄTZLICH macht keinen Sinn wenn es die BQ nicht neg. beeinflusst.
Jo, da gehe ich auch konform mit.

Dampf
2020-08-02, 11:46:04
Die Umfrage ist sinnlos weil das nicht passieren wird. DLSS als TAA Injektion per control panel in jedem Spiel ist purer BS und funktioniert nicht. DLSS ist eine Technologie die von Hand eingefügt werden muss.

Könnt ihr mal bitte alle aufhören diesem Youtuber Moores Law is Dead eine Plattform zu bieten? Es nervt tierisch. Es ist nicht mal klar, ob es DLSS 3.0 überhaupt geben wird. DLSS 2.0 wurde nur so genannt, weil der DLSS Name schon im Eimer war, also musste ein Reboot her. Eine DLSS 3.0 Version macht kein Sinn.

Gast
2020-08-02, 12:05:09
Hängt wohl an der Quali, welches DLSS bietet.
1.0 und 2.0 sind Imo für ein Default on zu schlecht.
Sollte 3.0 so gut sein, wie Nativ, wäre es OK, solange deaktivierbar.
Sonst absolut inakzeptabel.

AF forciere ich ja auch manuell auf 16x und Highquali :)

Leonidas
2020-08-02, 12:37:46
DLSS als TAA Injektion per control panel in jedem Spiel ist purer BS und funktioniert nicht.


Wer hat was von "jedem Spiel" gesagt? Es steht doch eindeutig dabei, das es nur bei Spielen geht, wo DLSS 3.0 bereits an Bord ist.

Mega-Zord
2020-08-02, 12:45:58
Bei 1.0 hätte ich das als problematisch angesehen. Aber ab 2.0 würde ich das selbst als 2080 Ti-User und 4k eh nutzen. Ich nehme mal an, dass 3.0 noch mal besser ist.

Ich finde es schon witzig, wie alle über ein eventuell fehlendes RTX bei zuküftigen AMD-Karten diskutieren. Der eigentliche Game-Changer war ein vor zwei Jahren wohl eine andere Technologie. :D

Dampf
2020-08-02, 13:05:46
Wer hat was von "jedem Spiel" gesagt? Es steht doch eindeutig dabei, das es nur bei Spielen geht, wo DLSS 3.0 bereits an Bord ist.

Achso. Dann hättet ihr auch von DLSS 2.0 schreiben können, denn DLSS 3.0 gibt es nicht. Hätte ich den Artikel aber besser gelesen, dann hätte ich eure Intentionen mit der Umfrage rauslesen können.

Wenn ich DLSS 3.0 lese gehe ich von diesen seltsamen Gerüchten von MLiD aus, die besagen, dass DLSS in jedem Spiel gehen wird, bei dem TAA vorhanden ist.

So gesehen fände ich standardmäßig aktiviertes DLSS eigentlich gut, denn die Bildqualität ist wirklich hervorragend und ich würde es auch ohne den FPS Boost nutzen. Aber dann ist die Gefahr groß, dass Entwickler dann nicht mehr gescheit optimieren, weil ja DLSS die ganze Arbeit macht und es würde auch zu einer Nvidia Monopolstellung beitragen.

Ich würde es so gestalten, dass ein Info prompt bei Spielstart auftaucht, der sowas wie "Wir haben eine RTX Grafikkarte festgestellt, für beste Qualität und Leistung empfehlen wie es, DLSS zu aktivieren. Möchtest du es aktivieren?" besagt.

Benchmarks sollten DLSS auf jeden Fall berücksichtigen, aber nicht quasi als Ersatz für die normale Performance werten. Es sollte so aussehen, dass Ergebnisse mit DLSS on und off, sowie mit den anderen Karten von Nvidia und AMD vorliegen.

Leonidas
2020-08-02, 16:11:09
Das hätte ich in der Tat genauer herausstellen können, habe es erst jetzt über Deinen Beitrag derart wahrgenommen. Ich hab nun wenigstens nochwas im Beschreibungstext fettgedruckt.

ChaosTM
2020-08-02, 17:10:32
Alles was die Leistung/Watt verbessert ist zu begrüßen, wenn es denn wirklich gleichwertig ist.

Gast
2020-08-02, 17:52:33
Die Umfrage in der Form ist kompletter Unsinn.

Die Gerüchte sagen ja, dass der Fortschritt von DLSS3.0 jener sein sollte, dass dieses per Treiber in jedem Spiel mit TAA-Unterstützung forciert werden kann.

Abgesehen davon ob das technisch überhaupt vernünftig umsetzbar ist, wäre die Umfrage nach einer Treiberforcierung nur in dem Fall sinnvoll wenn das eben möglich wäre.

Eine Treiberforcierung die erst recht auf eine Spieleumsetzung angewiesen ist, ist kompletter Schwachsinn.

Spiele die DLSS implementieren sollten dieses logischerweise bei unterstützter Hardware @Default auch verwenden, gleiches gilt für eventuelle Geforce Experience Profile zur Optimierung der Einstellungen.

Ein Feature per Treiber zu forcieren macht nur dann Sinn wenn dieses auch wirklich (fast) überall einsetzbar ist. Sollte das wirklich möglich sein, und auch die Qualität von DLSS2.0 erreichen wäre es absolut kein Problem dies @Default zu machen, so lange es abschaltbar ist. Es regt sich schließlich auch niemand mehr auf, dass die Texturfilterung @Default bei Nvidia auf Quality steht und die trilineare Optimierung aktiv ist.

Ich halte es aber für sehr schwierig, wenn nicht sogar komplett unmöglich das wirklich so per Treiber zu implementieren, dass es automatisch mit jeder Software funktioniert. Einerseits muss der Treiber irgendwie erkennen was Spielrendering ist und was das HUD. Und vor allem muss er irgendwie das Spiel dazu überreden, selbst kein TAA zu machen, weil wenn du DLSS auf TAA machst kommt nur Matsch raus. Ein weiterer Punkt ist, selbst wenn man all die genannten Probleme umgehen kann, ob eine Injection per Treiber überhaupt zu einem Speedup führt. Schließlich arbeiten Shader teilweise mit Pixelpositionen und wenn die Renderauflösung plötzlich einfach geändert wird, stimmen diese natürlich nicht mehr damit überein, von dem das Spiel eigentlich ausgeht. Es könnte also eventuell sein, dass das Upscaling vom DLSS zwar von extern forcierbar ist, man aber manuell im Spiel eine niedrigere Auflösung wählen müsste um auch den Speedup zu bekommen.

Auch wenn diese Probleme eventuell lösbar sind, halte ich eine generell funktionierende Lösung für sehr unwahrscheinlich.
Bestenfalls kann Nvidia den Entwicklern die Arbeit abnehmen und per Spieleprofil ähnlich wie bei einem SLI-Profil DLSS erzwingen.

Das würde dann aber immer noch Anpassungen pro Spiel seitens Nvidia erfordern.

iamthebear
2020-08-03, 00:36:48
Also ich stelle mir das im Idealfall so vor:
.) Man kann im Spiel selbst die Renderauflösung unabhängig von der Auflösung des Monitors auswählen. Sind beide unterschiedlich, so kommt immer DLSS zum Tragen (was Anderes macht ja kaum Sinn). Sind beide Auflösungen gleich, so ist DLSS aus.
.) Hat das Spiel keine extra Einstellung für die Renderauflösung, so wird das Profil verwendet, das im Treiber hinterlegt ist (Standardwert Quality)

Eine ganz andere Frage ist jedoch:
Sollen die Benchmarkergebnisse mit 2560x1440 Renderingauflösung + DLSS mit Navi unter 4K oder 2560x1440 verglichen werden. Ich würde hier aktuell zu den 4K Werten tendieren, da die Bildqaulität ja eher nativem 4K entspricht.

Geldmann3
2020-08-03, 08:54:19
Auch ich sehe die globale Aktivierung von DLSS als nahezu unmöglich extrem schwer zu implementieren an. Bei Games welche TAA unterstützen ist es bereits schwer, hier könnte man eventuell doch mit der nativen Auflösung und den TAA Samples arbeiten und dann bessere BQ anstatt mehr Performance ansteuern. Doch in Games welche gar kein TAA unterstützen, müsste man schon stark tricksen. Doch für unmöglich halte ich es nicht. Der Treiber müsste die Position der Samples im Pixel mit jeden Frame etwas shiften und eventuell noch SSAA betreiben, dann hätte man wieder die TAA-Samples. Doch es würde nicht so gut aussehen wie nativ implementiertes DLSS schon deswegen, weil an vielen Stellen keine Motion Vektoren bereitgestellt werden. Andererseits habe ich AI-Papers gelesen, in denen in Realtime aus einem 2D Video Motionvektoren und Tiefeninformationen generiert werden können, was überraschend gut funktioniert. Wenn man noch mehr Tensor-Cores hätte, könnte das eine Option sein.

Leonidas
2020-08-03, 09:39:16
Ich sehe das als sogar relativ einfach. Die Spielehersteller müssen DLSS sowieso implementieren. Ergo muß NV nur darauf bestehen, das jene eine Treiber-Anweisung verarbeiten können, welche DLSS im Spiel anschaltet ... ähnlich wie Vsync ja auch per Treiber geregelt werden kann. Im Spiel selber wird das Setting erstmal übernommen, man kann im Idealfall aber auch was anderes einstellen - Spiel-Setting überschreibt dann Treiber-Setting. Sehe ich rein Settings-mäßig problemlos realisierbar an.

Geldmann3
2020-08-03, 12:03:47
Wer sagt, dass die Spielehersteller das implementieren ,,müssen"?
Ich denke dass viel weniger Games DLSS implementiert hätten, wenn da nicht Kohle von Nvidia geflossen wäre, wie damals bei PhysX. Wobei ich DLSS für eine sehr lohnenswerte Sache halte und auch PhysX gemocht habe.

Für die Unreal Engine gibt es zwar z.b. einen DLSS-Branch, doch ich sehe Epic langfristig eher die eigene temporale-Supersampling-Lösung verbessern und DLSS eher nur als Option. Denn ich glaube nicht, dass man möchte, dass die Unreal-Engine mit Nvidia-fremder Hardware eine viel schlechtere BQ liefert.

Leonidas
2020-08-03, 13:00:10
Wer sagt, dass die Spielehersteller das implementieren ,,müssen"?


Müssen im Sinne von, das wenn sie DLSS nutzen wollen, sie auf diese Forderung von NV eingehen müssen. NV liefert hier schließlich erhebliche Vorarbeit ab. Bisher ist doch DLSS überhaupt nicht ohne direkten Support von NV machbar, oder?

Geldmann3
2020-08-03, 14:29:01
Man muss sich schon noch an Nvidia wenden, um DLSS 2.0 zu implementieren. Doch früher oder später sollte man die API als Entwickler einfach über das NGX SDK verwenden können, wenn DLSS aus der ,,Beta" ist. Jedenfalls ist es in der Doku (https://docs.nvidia.com/rtx/ngx/programming-guide/index.html) als NGX Feature gelistet.

Immerhin muss Nvidia hier nicht mehr für jedes Game ein neuronales Netzwerk trainieren, denke eher Nvidia liefert momentan das Beta SDK samt DLSS an ausgewählte, interessierte Entwickler und bietet Hilfestellung bei der Implementierung an.

Nightspider
2020-08-03, 14:45:56
Ich denke bei der Fragestellung vor allem an die DAUs, die keine Ahnung von den Kürzeln wie DLSS haben und ggf. ruckelnde Spiele & niedrige fps haben, obwohl ihnen DLSS deutlich mehr fps pro BQ liefern könnte, daher habe ich gevoted, das es mich nicht stören würde, solange man es deaktivieren kann.

WedgeAntilles
2020-08-03, 15:05:39
Mal überlegen.
Ein Feature, das das Bild besser macht und mehr FPS liefert.

Ne, das darf natürlich unmöglich standardmäßig aktiviert sein, das wäre unverzeihlich von Nvidia.

Wie wenn ich zum Bäcker gehe und 4 Brezeln kaufe und die Verkäuferin gibt mir ungefragt den Deal mit 5 Brezeln in die Tüte, die mich unterm Strich weniger Kosten als 4 "normale" Brezeln.
Ich habe +1 Brezel und muss weniger zahlen, fühle mich aber betrogen weil ich ja 4 Brezeln kaufen wollte.

MasterElwood
2020-08-03, 15:38:06
Mal überlegen.
Ein Feature, das das Bild besser macht und mehr FPS liefert.

Ne, das darf natürlich unmöglich standardmäßig aktiviert sein, das wäre unverzeihlich von Nvidia.

Wie wenn ich zum Bäcker gehe und 4 Brezeln kaufe und die Verkäuferin gibt mir ungefragt den Deal mit 5 Brezeln in die Tüte, die mich unterm Strich weniger Kosten als 4 "normale" Brezeln.
Ich habe +1 Brezel und muss weniger zahlen, fühle mich aber betrogen weil ich ja 4 Brezeln kaufen wollte.

THIS!

Das Problem sind aber die Puristen, die sich einbilden "NATIV ist besser" (obwohl es nativ bei sowas garnicht gibt).

Die schwören NATIV sieht besser aus, die schwören Analog klingt besser als Digital (egal wieviele Blind test ihnen das Gegenteil beweisen) - und die werden auch schwören ihre 4 Brezel schmecken besser als deine 5.

Das ist bei den Leuten eine Art Religion. Denen ist mit Vernunft und Fakten nicht beizukommen. Klingt seltsam - is aber so.

Freestaler
2020-08-03, 15:44:22
Blöd am vergleich ist die Realität. Sie sagen das sie dir statt 4 jetzt 5 Brezel zum Preis von 3 geben. Zuhause merkst du dann dass 2 Fehler haben und du hast zwar jetzt nur 3 bezahlt, jedoch hast du die 4 (gute) nicht. Und solange das so ist, darf so ein Feastures nicht per se an sein mMn. Und schon gar nicht default in Benchmark.

WedgeAntilles
2020-08-03, 16:00:25
Blöd am vergleich ist die Realität. Sie sagen das sie dir statt 4 jetzt 5 Brezel zum Preis von 3 geben. Zuhause merkst du dann dass 2 Fehler haben haben und du hast zwar jetzt nur 3 bezahlt, jedoch hast du die 4 (gute) nicht. Und solange das so ist, darf so ein Feastures nicht per se an sein mMn. Und schon gar nicht default in Benchmark.

Ich wusste nicht, dass DLSS 3.0 bereits existiert und es klar ist, dass die Hälfte aller Spiele darauf schlechter aussehen wird. :rolleyes:


THIS!

Das Problem sind aber die Puristen, die sich einbilden "NATIV ist besser" (obwohl es nativ bei sowas garnicht gibt).

Die schwören NATIV sieht besser aus, die schwören Analog klingt besser als Digital (egal wieviele Blind test ihnen das Gegenteil beweisen) - und die werden auch schwören ihre 4 Brezel schmecken besser als deine 5.

Das ist bei den Leuten eine Art Religion. Denen ist mit Vernunft und Fakten nicht beizukommen. Klingt seltsam - is aber so.

Zumal ich mich bei "NATIV" Frage:
Soll das das Bild sein, wie es sich der Grafiker vorstellt bzw. wie der Grafiker, der es erstellt hat, sieht?
Falls ja: Woher will man denn wissen, WAS der Grafiker überhaupt für ein Bild sieht?
TN Panel? VA? Ganz anderes?
Ist die Helligkeit bei 50 oder vielleicht doch bei 55?
Wie genau ist die Kontrasteinstellung und wie ist die Farbwiedergabe?

Wenn man das Bild wünscht, dass sich der Grafiker vorstellt, müsste man exakt den gleichen Monitor des Grafikers haben mit exakt den selben Einstellungen die dieser verwendet. (Und dabei noch beten, dass nicht etwa mehr als einer an der Grafik gearbeitet hat, denn die Chance ist da, dass die etwas voneinander abweichende Settings verwenden...)

Ein "echtes" Bild am Computer, die Vorstellung ist sowas von weltfremd und absurd...
Wenn ich ein echtes Bild sehen will, muss ich in die Realität und weg vom Monitor.

aufkrawall
2020-08-03, 16:05:39
Nein. Es gibt Ground Truth mit SSAA-Keule, das ist objektiv. Was näher daran ist, ist objektiv besser. Sofern es andere Probleme wie die komischen temporalen Artefakte in Death Stranding gibt, wird es natürlich wieder ein Stück weit subjektiv.
Bez. Farben: Dafür gibts sRGB und Rec.2020, dafür kann man kalibrieren. Helligkeit verändert die Farben nicht.

Freestaler
2020-08-03, 18:46:44
Ich wusste nicht, dass DLSS 3.0 bereits existiert und es klar ist, dass die Hälfte aller Spiele darauf schlechter aussehen wird...
Und deine Aussage, das man ein besseres Bild und mehr FPS bekommt beruhen dann auf welchen Fakten? Unter welchem Link? Weder Dlss 1.0 noch 2.0 lieferte das was das NV Marketing beschönigt. Ich denke das ist skeptisch sein okay. Zumindest bis ein DLSS abgesehen von einzelnen Bugs wirklich durchgängig das liefert, was NV Marketing ankündigt. Und solange mMn. beim Benchmark aus.

Gast
2020-08-03, 19:08:00
Gibt rational und logisch schlussfolgernd nichts was dagegen spricht, wenn dlss 2 oder 3 benutzt wird und die grafischen Unterschiede mit der Lupe zu suchen sind, dafür aber deutlich mehr Bildrate liefern.

"Ich denke bei der Fragestellung vor allem an die DAUs, die keine Ahnung von den Kürzeln wie DLSS haben und ggf. ruckelnde Spiele & niedrige fps haben, obwohl ihnen DLSS deutlich mehr fps pro BQ liefern könnte, daher habe ich gevoted, das es mich nicht stören würde, solange man es deaktivieren kann."

Einem DAU ist es wohl egal ob dlss 2/3 an ist oder nicht - er erkennt die Unterschiede sowieso nicht. Deswegen ist er auch ein DAU :D
Und erfahrene Benutzer machen es einfach an/aus.
Sehr einfache Umfrage diesmal ;)

Gast
2020-08-03, 21:14:57
Ich sehe das als sogar relativ einfach. Die Spielehersteller müssen DLSS sowieso implementieren. Ergo muß NV nur darauf bestehen, das jene eine Treiber-Anweisung verarbeiten können, welche DLSS im Spiel anschaltet


Für was so umständlich, das Spiel müsste einfach defaultmäßig DLSS bei unterstützter Hardware aktivieren.
Ein zusätzlicher Schalter im Treiber den aber das Spiel abfragen muss ist totaler Schwachsinn und nur zusätzlicher Aufwand der nichts bringt.


... ähnlich wie Vsync ja auch per Treiber geregelt werden kann.


Das ist was komplett anderes, Vsync im Treiber übersteuert die Spieleinstellung.


Im Spiel selber wird das Setting erstmal übernommen, man kann im Idealfall aber auch was anderes einstellen - Spiel-Setting überschreibt dann Treiber-Setting. Sehe ich rein Settings-mäßig problemlos realisierbar an.

Ist es nicht, das Treibersetting wird forciert und kann vom Spiel nicht mehr geändert werden, wobei ich mir nicht sicher bin ob das Treibersetting bei den neuen APIs überhaupt noch funktioniert.

sentinel_first
2020-08-05, 21:43:45
Mir wäre es lieber wenn man im Spiel bei unzureichender Framerate nach Zuschaltung von DLSS gefragt werden würde.

Gast
2020-10-11, 17:51:07
Die Umfrage ist dermaßen dämlich, nach etwas zu fragen was es gar nicht geben kann.

Wenn DLSS ohne Unterstützung der Spieleentwickler funktionieren könnte wäre es schon längst im Treiber.

Summerbreeze
2020-10-11, 21:45:38
Wenn es WIRKLICH gleich gut / besser damit aussieht ....

Besser = Anders

Das ursprüngliche Bild wird also verändert.
Es mag manchmal optisch "besser" aussehen, weil noch ein paar Filter über das Bild drüber gelegt wurden. Das eigentliche Bild wurde aber verändert. Teilweise recht deutlich.

Ich glaube nicht, das ich das möchte. Und wenn, möchte ich definitiv die Entscheidungshoheit über die Aktivierung behalten und werde alles und jeden ablehnen, wer mir diese Hoheit nehmen will.
Ist das bei Nvidia zukünftig Standardmäßig aktiviert oder schlimmer noch, lässt sich nicht mehr deaktivieren = Kein Kauf! PUNKT.

Leonidas
2020-10-12, 05:43:13
Wenn DLSS ohne Unterstützung der Spieleentwickler funktionieren könnte wäre es schon längst im Treiber.


Niemand hat was über DLSS per Treiber gesagt. Ich redete von default-Aktivierung, SOFERN es das Spiel selber unterstützt.

Gast
2020-10-12, 08:17:57
Ich verstehe die Argumentation nicht, dass man schlicht und ergreifend gegen DLSS ist, weil es möglicherweise in einigen wenigen Szenarien einen nicht merkbaren Einfluss auf die Bildqualität haben könnte ... Parallel sieht man aber Raytracing als unwichtiges Feature an? Was denn nun? Entweder ich will ums verrecken die Beste Qualität, dann muss ich FÜR Raytracing sein oder ich will nicht die Beste Qualität, dann muss ich für DLSS sein.

Komischerweise sind AMD Fans immer Beides gleichzeitig ... und das macht einfach vorne und hinten keinen Sinn! Heuchlerei!

JVC
2020-10-12, 08:27:04
Ich finde es interessant, das scheinbar nur 5,4% für DLSS sind.

Nach der Lautstärke und Intensität der Befürworter, hätte ich eher mit 50% gerechnet ;)

M.f.G. JVC

ChaosTM
2020-10-12, 09:22:40
Phys-X wurde auch lautstark beworben.
Viele haben die Nase voll von proprietärem Zeugs.

Gast
2020-10-12, 17:49:45
Niemand hat was über DLSS per Treiber gesagt. Ich redete von default-Aktivierung, SOFERN es das Spiel selber unterstützt.

Dann ist es noch dämlicher, wann hat es in den letzten 20 Jahren jemals den Fall gegeben, dass ein Grafiktreiber ein Spielefeature in Defaulteinstellungen erzwungen hat?

Wie kann man nur auf solche Ideen kommen?

Leonidas
2020-10-12, 19:01:29
Frag den YouTuber, der das in die Welt gesetzt hatte ...

Platos
2020-10-13, 00:54:46
Ich finde es interessant, das scheinbar nur 5,4% für DLSS sind.

Nach der Lautstärke und Intensität der Befürworter, hätte ich eher mit 50% gerechnet ;)

M.f.G. JVC

Ja moment. Es ging darum, ob es im Treiber per Default aktiviert ist und nicht, ob einem DLSS grundsätzlich positiv oder negativ erscheint.

Ich weiss nicht, wie du jetzt darauf kommst?

Oldboy
2020-10-13, 20:11:24
Generell hätte ich kein Problem damit, wenn DLSS default aktiv wäre. Allerdings gehöre ich auch zur Fraktion, die sich die Treibereinstellungen als erstes anschaut und an persönliche Interessen anpasst.
Demzufolge habe ich für "kein Problem, so lange deaktivierbar" gestimmt.

Andererseits halte ich reine On/Off Features default on für die Allgemeinheit bedenklich, die eine Minderung oder fehlerhalte Grafikqualität zur Folge haben können(Betonung auf können), so lange keine Abstufungen mit gesichertem Standard default vorhanden sind. Das sollte man dann auch dem User überlassen, AA/AF/hohe Qualität ist schließlich auch nicht default on.

Und ein Feature, das möglicherweise qualitätsmindernd wirken kann, aus offensichtlich marketingwirksamen Gründen(fps) default on einzubauen, wäre für einigermaßen sich auskennende User womöglich nicht unbedingt imagefördernd für Nvidia.

Dabei spielt momentan auch eine deutliche Rolle, dass mich seit vielen Jahren mal wieder die aktuelle Entwicklung bei AMD bezüglich der Entscheidung für meine nächste Karte interessiert.
Und meine Präferenz dabei liegt zuallerletzt in der Hauptsache auf fps.

Gast
2020-10-13, 20:42:01
Frag den YouTuber, der das in die Welt gesetzt hatte ...

Und man muss jeden Schwachsinn glauben den irgendein Youtuber in die Welt setzt?

Gast
2020-10-14, 02:23:00
Nein. Es gibt Ground Truth mit SSAA-Keule, das ist objektiv. Was näher daran ist, ist objektiv besser. Sofern es andere Probleme wie die komischen temporalen Artefakte in Death Stranding gibt, wird es natürlich wieder ein Stück weit subjektiv.
Bez. Farben: Dafür gibts sRGB und Rec.2020, dafür kann man kalibrieren. Helligkeit verändert die Farben nicht.

Die Artefakte dürfte man in Bewegung nicht sehen. Zumindest in Metro Exodus ist mir nie etwas aufgefallen.

OK und jetzt nenn mir mal eine Person die nix mit Print oder Fotografie am Hut hat, die einen gescheiten Monitor haben und ein Kalibrierungsgerät oder gar einen Monitor für weit über 1000€ der eins integriert hat. :) Ich habe hier einen Eizo und ein Spyder X liegen wegen der Fotos aber 100% nicht wegen der Zockerei. :D