Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 18. Februar 2026
Leonidas
2026-02-19, 07:48:34
Link zur News:
https://www.3dcenter.org/news/news-des-18-februar-2026
downforze
2026-02-19, 08:25:45
Ich habe da auch mitgemacht. Aus den vielen Posts kam schon heraus, dass es den meisten darum ging DLSS4.5 zu identifizieren und nicht das - für sich - angenehmste Bild zu markieren.
So eine typische CB-Elite-Umfrage, wo man sich den Arsch mit abwischen kann.
Sweepi
2026-02-19, 09:28:09
Dir müssen dir einen anderen Thread anzeigen als mir...
downforze
2026-02-19, 10:32:40
Wahrscheinlich habe ich einfach nur mehr und genauer gelesen als du.
Nominell sieht dies nach einem großen Erfolg für DLSS 4.5 aus, aber eigentlich trifft dies gar nicht so wirklich zu: Denn wenn in einem Test zur besten Bildqualität knapp die Hälfte (51,7%) nicht das nominell überlegene Produkt auch tatsächlich im Vorteil sieht – dann sagt dies vor allem aus, dass die Differenzen eher gering sind.
Bitte was? Das "nominell überlegene Produkt" wäre nativ. Und wenn das nominell überlegene Produkt nicht mal die Hälfte des Gewinnerproduktes erreicht ist das ein deutlicher Sieg.
Und angesichts des Performancevorteiles von DLSS wäre selbst ein geringer optischer Unterschied ein Erdrutschsieg.
Sweepi
2026-02-19, 12:05:21
Leonidas Aussage ist:
Wenn DLSS 4.5 (in den Grenzen des Tests) den anderen Lösungen weit überlegen wäre, würde man es in dieser Art Messung (Befragter kann nur einen einem Produkt einen Punkt geben) einen deutlicheren Ausschlag erwarten.
Entweder gibt es Unterschiede im "Geschmack", oder die Lösungen performen sehr ähnlich, oder die Grenzen des Tests erlauben keine feine Differenzierung.
Ätznatron
2026-02-19, 12:06:53
Angeblich soll DLSS 4.5 qualitativ ja die beste BQ liefern, besser also auch als nativ.
Und das hat der Test nicht belegen können.
Gast Ritis
2026-02-19, 12:14:41
Das Schlimme an der CB-Umfrage ist ja nicht das Testen der Upscaler sondern das Testsetup in Kombination mit dem Fazit.
Es drängt geradezu die Frage auf ob die wirklich so extrem inkompetent bis dumm sind oder ob das Absicht war.
Es ist völlig unlogisch zu behaupten die Community sähe DLSS4.5 "klar vorn" vs. nativer Auflösung und FSR.
Denn es gab keinerlei Möglichkeit der gewichteten Wertung wie viel besser ein Technik gegenüber den andren empfunden würde.
Gerade weil CB selbst in Summe schreibt, dass DLSS über alle User und Beispiele "nur" in 48.2% der Fälle bevorzugt wurde, ist eigentlich der einzig wahre Schluss dass DLSS nicht einmal in der Hälfte aller Beispiele überzeugen konnte.
Man kann nur spekulieren warum die Nutzer so abweichenden Eindrücke hatten, die Wahrscheinlichkeit dass das Testsetup nicht auf einzelnen Monitoren und Videoplayern gleichermassen wiedergegeben werden konnte ist sehr hoch.
Ob jetzt der Unterschied in der tatsächlichen Nutzung unbedeutend nahe beieinander liegt oder wirklich für Nutzer offensichtlich genug für eine Präferenz in €uro ausdrückbar ist bleibt völlig im Dunkeln.
Wenn man sich noch das Blafasel von den CB-Redakteuren in deren Podcast dazu anhört ist mir zumindest kar: mehr als unsinniger tendentieller Beitrag und Crowd-Sourcing-BS mit Zeitverschwendung der Teilehmer ist das leider nicht gewsen. Peinlich peinlich.
aceCrasher
2026-02-19, 12:32:59
Angeblich soll DLSS 4.5 qualitativ ja die beste BQ liefern, besser also auch als nativ.
Und das hat der Test nicht belegen können.
Inwiefern belegt der Test das nicht wenn mehr Teilnehmer DLSS 4.5 präferieren als nativ?
Ätznatron
2026-02-19, 12:37:01
Inwiefern belegt der Test das nicht wenn mehr Teilnehmer DLSS 4.5 präferieren als nativ?
Steht doch im Text von Leonidas:
Denn wenn in einem Test zur besten Bildqualität knapp die Hälfte (51,7%) nicht das nominell überlegene Produkt auch tatsächlich im Vorteil sieht – dann sagt dies vor allem aus, dass die Differenzen eher gering sind.
Für diese Auslegung spricht auch der FSR4-Anteil von immerhin 15,1%, welcher nominell niedrig liegt, aber bei einer angenommen klar zurückliegenden Bildqualität durch FSR4 niemals passieren dürfte bzw. eher im Bereich von einzelnen Prozentpunkten liegen sollte. Doch hier haben immerhin einer von 4 Nutzern, welche nicht nativ im Vorteil sahen oder keinen echten Unterschied feststellen konnten, letztlich FSR4 sogar DLSS 4.5 vorgezogen.
Sweepi
2026-02-19, 12:48:44
Der Test legt schon eine Präferenz von DLSS 4.5 ggue. den anderen Lösungen nahe - nur ist diese Präferenz vermutlich nicht besonders stark.
MiamiNice
2026-02-19, 12:54:44
Der Test ist als Blindtest nett, aber methodisch hat er ein paar dicke Baustellen. Es wird kein Live Rendering bewertet, sondern ein aufgezeichnetes Side by Side Video. Damit testet man am Ende auch die Clip Auswahl und das Video, nicht das tatsächliche Spielgefühl in Bewegung. Gerade die klassischen Upscaling Probleme sieht man oft erst richtig beim Spielen: temporale Stabilität, Ghosting, Schlieren bei Kameraschwenks, HUD Kanten, Flimmern in Vegetation. Je nachdem wie die Clips geschnitten sind, können genau diese Dinge entweder stark oder kaum auffallen.
Dazu kommt, dass selbst mit guter Qualität immer eine Encoding Pipeline dazwischen hängt. Browser Player, Codec, Bitrate, eventuell Plattform Verarbeitung, das kann feines Rauschen, Schärfung, Mikrodetails, Dithering und Kantenverhalten sichtbar verändern. Man vergleicht dann nicht mehr nur DLSS vs FSR vs nativ, sondern auch wie gut das Material durch die Video Kompression kommt.
Noch größer ist das Problem der komplett unkontrollierten Betrachtungsbedingungen. Jeder schaut auf einem anderen Monitor, mit anderer Skalierung, HDR an aus, anderen Farbprofilen, anderer Schärfe Einstellung, anderem Sitzabstand. Manche haben 4K, manche 1440p hochskaliert, manche irgendwelche Postprocessing Filter. Ein Blindtest ohne standardisierte Viewing Bedingungen misst zu einem erheblichen Teil auch den Bildschirm und die Gewohnheiten der Leute.
Der Test fokussiert außerdem sehr stark auf UHD und jeweils Quality Preset. Das ist eine Komfortzone, wo Upscaler typischerweise sehr gut aussehen. Aussagekraft für WQHD, 1080p oder Balanced Performance fehlt damit praktisch. Gerade bei niedrigeren Renderauflösungen kippen die Ergebnisse oft deutlich.
Ein weiterer Punkt: „Nativ“ ist hier nicht einfach nativ, sondern nativ plus das jeweilige Spiel TAA. Das heißt, wenn ein Spiel ein mieses TAA hat, kann nativ automatisch schlechter aussehen, ohne dass das irgendwas über nativ an sich aussagt. Man testet dann mindestens genauso sehr die TAA Implementierung des Spiels.
Was mich an der Auswertung am meisten stört: Es gibt keine echte Rangfolge, sondern nur „welches Bild ist Platz 1“ plus „kein Unterschied“. Daraus kann man nicht sauber ableiten, ob FSR hinter DLSS knapp Zweiter ist oder weit abgeschlagen, oder ob nativ meistens Platz 2 ist. Aussagen wie „FSR ist schlechter als nativ“ sind damit aus den Daten eigentlich nicht zulässig, weil Platz 2 und Platz 3 komplett unter den Tisch fallen.
Dazu kommt das übliche Community Problem: freiwillige Teilnahme, Selbstselektion, Leute mit starkem Interesse an Bildqualität, Vorwissen und natürlich auch Markenprägung. Das ist keine repräsentative Stichprobe für „Spieler insgesamt“. Es ist eine ComputerBase Community Umfrage, nicht mehr.
Auch die Anleitung mit den Clip Namen 1 2 3 ist zweischneidig. Klar, man braucht irgendeine Zuordnung, aber es erleichtert eben auch Wiedererkennung und Absprachen. Sobald Leute in Kommentaren oder extern über „Clip 2“ diskutieren, ist das Ganze nicht mehr wirklich sauber blind.
Dann hängt viel an der Game Auswahl. Sechs Spiele definieren, welche Artefakte überhaupt dominieren. Manche Engines stressen Vegetation Flimmern, andere Texturen, andere UI. Mit anderen Titeln oder Szenen könnte das Ergebnis ganz anders aussehen.
Und zuletzt fehlen mir klassische statistische Elemente. Es werden Prozentwerte gezeigt, aber keine Fehlerbalken, keine Unsicherheiten, keine Signifikanztests, keine Analyse nach Untergruppen. Gerade bei knappen Abständen wäre das wichtig, sonst überinterpretiert man Zahlen, die im Rauschen liegen können.
Ergo Aussagekraft = 0, gar nichts.
MadManniMan
2026-02-19, 15:16:58
"Aussagekraft = 0" ist völlig bescheuert. Natürlich kann (und muss) man die Methodik kritisieren, aber es ist eben ein ambivalentes Bild und nicht 0 oder 1. Meine Fresse.
Und zur Auswertung: Man höre die aktuelle Computerbase-Podcast-Folge, in der auf genau die Probleme mit der Auswertung eingegangen wird - zugegebenermaßen auch ein wenig nüchterner als Leo.
Steht doch im Text von Leonidas:
Die Interpretation ist eben ziemlicher Schwachsinn.
Das Ergebnis pro DLSS ist mehr als doppelt so hoch als der erste "Verfolger", 3x so hoch wie FSR4 und schon nahe 4x so hoch wie die Interpretation von Leonidas dass es keine relevanten Unterschiede gäbe.
Das ist mehr als nur deutlich, sich darauf zu versteifen dass die absolute Mehrheit ja knapp verfehlt wurde macht überhaupt keinen Sinn, wenn ich genügend Auswahlmöglichkeiten anbiete werden die kleineren Möglichkeiten fast immer gesamt auf eine Masse kommen welche dem Sieger die absolute Mehrheit verwehrt.
Vor allem ist Leonidas´ Interpretation auch vollkommen unnötig, denn das was er versucht in die Zahlen hineinzuinterpretieren wurde explizit abgefragt. Und diese Auswahlmöglichkeit hat gerade mal 13% erreicht.
Eine solche Interpretation würde nur Sinn machen, wenn es die Auswahlmöglichkeit "keine Unterschiede" nicht gegeben hätte.
In der Wahlarithmetik von so ziemlich jeder Demokratie auf dieser Welt würden 48,3% auch für eine absolute Mehrheit reichen.
Da zu versuchen irgendwelche "Knappheit" hineinzuinterpretieren wenn die Zahlen mehr als nur klar sind ist komplett fehl am Platz.
Ätznatron
2026-02-19, 16:20:12
"Aussagekraft = 0" ist völlig bescheuert. Natürlich kann (und muss) man die Methodik kritisieren, aber es ist eben ein ambivalentes Bild und nicht 0 oder 1. Meine Fresse.
Und zur Auswertung: Man höre die aktuelle Computerbase-Podcast-Folge, in der auf genau die Probleme mit der Auswertung eingegangen wird - zugegebenermaßen auch ein wenig nüchterner als Leo.
Der Podcast verschlimmert es noch. Mein Eindruck: Da wollte sich jemand auf Teufel komm raus die eigene Sicht auf DLSS bestätigen lassen. Allein die Erklärung des Testers, warum dieser Test durchgeführt wurde, spricht doch Bände.
Leo und MiamiNice liegen IMHO schon ziemlich richtig mit ihrer Bewertung.
MadManniMan
2026-02-19, 17:59:29
Ich verstehe, was du meinst. Bei der CB wird generell hochwertiges AI-Upscaling (ab DLSS 3 bzw. FSR 4) als nativ + TAA überlegen angesehen, daher die Idee, das mal im Blindtest checken zu lassen.
NATÜRLICH wird es da einen nicht zu vermeidenden Bias auch bei der Szenen-Auswahl geben ... aber gleichzeitig bemühen die sich seit Ewigkeiten SO sehr um vernünftige Methodiken, dass ich da ehrlich gesagt keine Lager-Zuordnung erkennen kann.
Es werden Szenen herausgesucht worden sein, in denen überhaupt nennenswert Unterschiede erkennbar sind. Es werden sicherlich Leute bewusst ihren präferierten Upscaler gesucht haben wollen, den man halt auch an bestimmten Merkmalen ausmachen kann.
Dennoch: Mir ist keine "Untersuchung" bekannt, die eine weitaus überlegene Methodik gehabte hätte.
Dir?
Ätznatron
2026-02-19, 18:22:00
Der Versuch ist aller Ehren wert, und eine Vorliebe für einen bestimmten Hersteller würde ich auch nicht unterstellen wollen, es ist die verwendete Methodik, an der der Test letztlich scheitert.
Das hat MiamiNice schon ziemlich ordentlich herausgearbeitet.
Calypso
2026-02-19, 23:43:12
es sollte Bredouille heißen
Leonidas
2026-02-20, 03:55:01
Natürlich, gefixt.
PS: Man beachte zu meinen Upscaler-Anmerkungen: Ich sage nicht, dass es keine relevante Unterschiede geben kann. Ich sage nur, dass es eben auch sein *könnte*, dass diese nicht vorhanden sind. Das Testergebnis reicht aus, um beide Möglichkeiten abzudecken, ist dafür nicht eindeutig genug.
Und trotzdem gilt: Das beste Stück harter Daten, was wir derzeit hierzu haben.
Wer hat's bezahlt (bzw. welches Ergebnis sollte bei raus kommen)?
Und Blindtest schön und gut, aber es bleibt halt subjektiv, was so gar nicht deckungsgleich mit objektiver Bildqualität sein muss und idR auch nicht ist.
Hochzeit2
2026-02-20, 12:17:29
Was eine lächerliche Nvidia Jubel Nummer.
Spätestens wenn man den Poscast gehört hat sollte jedem klar sein das es darum ging das Dumme CB Narrativ DLSS ist besser als Nativ zu manifestieren.
Schon alleine das die ganzen gerichteten Posts des "Admins", der auch gern als Mod auftritt "TheManneken" aus dem Faden "verschwunden" sind, spicht Bände.
Badesalz
2026-02-20, 12:28:52
Ich habe da auch mitgemacht. Aus den vielen Posts kam schon heraus, dass es den meisten darum ging DLSS4.5 zu identifizieren und nicht das - für sich - angenehmste Bild zu markieren.
So eine typische CB-Elite-Umfrage, wo man sich den Arsch mit abwischen kann.Einmalig schade, daß ich für Postings kein UP vergeben kann.
Ergo, :up: :wink:
Platos
2026-02-21, 21:10:46
Wer hat's bezahlt (bzw. welches Ergebnis sollte bei raus kommen)?
Und Blindtest schön und gut, aber es bleibt halt subjektiv, was so gar nicht deckungsgleich mit objektiver Bildqualität sein muss und idR auch nicht ist.
Objektivität ist auch nicht wirklich sinnvoll. Das sieht man bei den ganzen KI-Upscaling Models. PSNR und co ist zwar "objektiv", aber nicht mit dem menschlichen Auge bzw. dessen Wahrnehmung übereinstimmend. Also hier ist noch viel Luft nach oben mittels LPIPS z.B oder vlt. auch noch besseres.
Am Ende: Solche Tests halte ich aber auch für Nonsense. Lieber investiert man die Zeit in ausführliche Bewegtbilder-Tests und Ladet diese Verlustfrei hoch (oder alternativ 200% gezoomed und dann auf Youtube, dann gehts auch ~ok). Dann kann sich jeder selber ein Bild machen und nach seinem Geschmack entscheiden. Der Rest ist doch einfach sinnlos.
bushMills
2026-02-22, 21:54:44
Bei dem Test hatte CB erwartet das 80% oder mehr für DLSS rauskommen, ging aber schief. Das sie DLSS warum auch immer ihr Ding ist, sah man schon als es keine nativen Tests mehr gab und das führte dann schon in den Überschriften zu absurden oder reißerischen Texten. Wie sich dann dazu geäußert hatten legte eine Voreingenommenheit für jeden neutralen Beobachter schon sehr nah. Die Umfrage sollte also für die Zukunft sein um phantasievolle Überschriften für Tests zu haben und jegliche native Tests zu begraben.
Platos
2026-02-23, 08:22:37
Das mit den Blindtests ist hald seit Linus ein bisschen hipp geworden und war schon bei ihm Blödsinn (weil viel zu kleine Stichprobe) und ist es auch jetzt immer noch.
CB macht trotzdem ansonsten z.B gute Launch Reviews oder SSD Tests usw. Man muss es jetzt nicht grad übertreiben und wegen einem schlechten Format direkt alles insgesammt schlecht reden.
downforze
2026-02-23, 08:52:13
Einmalig schade, daß ich für Postings kein UP vergeben kann.
Ergo, :up: :wink:
Danke.
Ich kann auch nur alles unterschreiben, was MiamiNice da geäußert hat. Hatte mir auf CB etliche Posts durchgelesen. Da gab es einige Ungereimtheiten:
- 50-60% auf dem Planeten spielen in FullHD. Diese Auflösung wird von CB bewusst ignoriert, weil die CB-Elite unter 1440p gar nicht erwacht. In FullHD machen die Upscaler aber am meisten Sinn.
- Durch die Vorberichterstattung wird ständig betont, dass DLSS4 und 4.5 FSR sichtbar überlegen wären. Ich kann es ohne Zoom und Slomo nicht erkennen.
- Die Szenen waren über den Nvidia-Player verlinkt, weil der wohl nicht komprimiert. Dadurch liefen die Videos aber auf etlichen PCs nicht flüssig. Auch bei mir hatte ich alle 2 s ein Standbild.
Da man im Nvidia-Player rumfummeln und die Optionen verändern, hat hier jeder etwas anderes "gesehen" und bewertet. In 0.25 x Slomo sehe ich sicher mehr Unterschiede wie bei 1.00 x.
- Die Intention vieler bestand nur darin, die eigene Meinung zu bestärken:
grundsätzlicher Tenor = DLSS ist überlegen -> Szene mit DLSS muss identifiziert werden. Das ist nicht der Sinn der Abstimmung gewesen.
- Und ohne Ranking ist diese ganze Abstimmung noch mehr Bullshit. Man hätte ganz simpel jede Szene in jedem Spiel von 1 bis 5 bewerten können. Aber darauf kommt man bei CB nicht.
- Anm.: Ich hatte mir den Spaß erlaubt dort im CB-Thread zu schreiben, dass ich überwiegend keine Unterschiede sehe, trotz großem TV. Ihr glaubt nicht, was ich mir von dem Affenzirkus dort anhören musste:
Mein TV könne ja nicht richtig kalibriert sein bis ich solle mal zum Augenarzt gehen, war alles dabei.
Das mit den Blindtests ist hald seit Linus ein bisschen hipp geworden und war schon bei ihm Blödsinn (weil viel zu kleine Stichprobe) und ist es auch jetzt immer noch.
Die hat nicht Linus erfunden, die sind gängige Wissenschaftliche Praxis.
Platos
2026-02-23, 22:26:05
Dass ich mich dabei auf die Upscaler bezog, war ja klar ersichtlich aus dem Kontext des Threads...
Aber nein, es ist nicht gängige wissenschaftliche Praxis, 5-10 Testpersonen zu nutzen und daraus dann seriöse Schlussfolgerungen zu ziehen.
Man muss eben schon den ganzen Satz lesen und den Kontext in der Diskussion hier.
vBulletin®, Copyright ©2000-2026, Jelsoft Enterprises Ltd.