PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leute, wie könnt Ihr so zocken?


Pinhead_Xp
2025-04-16, 23:03:33
Muss mir mal kurz bissl Luft aus meiner Monitornische verschaffen.

Hab bis vor kurzem noch auf meinem Sony FW900 und meinem Panasonic Plasma VT60 gezockt (Der Plasma ist noch da und wird hoffentlich mit ins Grab genommen)

Im Prinzip zocke ich mein ganzes Leben nur auf Displays mit CRT oder Plasmatechnologie. Warum diese beiden auch bei sehr niedrigen Bildern pro Sekunde in Bewegung ultra scharf sind weis ich und soll nicht das Thema sein.

Jetzt habe ich mir einen 34er QD_Oled mit 240Hz hingestellt. Ich wusste was auf mich zu kommt, kannte alle Vor und Nachteilen und bin trotzdem bissl am kotzen.

Bei Games wo man die vollen 240Hz in FPS ausfahren ist es im Prinzip schon in Ordnung wenn auch nicht perfekt. Aber alles deutlich unter 200FPS ist so was von unscharf in Bewegung da bekommt man ja nen Bums.

Stört euch das nicht? Ständig liest man von 4K hier 5K dort. Raff von der PCGH ist ja auch so ein Auflösungsjunkie. Aber was bringt einem die Pixelauflösung wenn diese in Bewegung komplett auf ein Bruchteil dessen zusammen bricht. Die Plasmas wurden eingestellt, da 4k Pixelmenge zu viel Strom fressen. Aber um High Refresh Panels mit ausreichend FPS (für eine gute Bewegtbilddarstellung) zu befeuern hauen wir uns dann 2x 5090 rein?

Frame Generation klingt in der Theorie toll. Das was ich bis jetzt Spieleübergreifend selbst erlebt hab ist leider nur ein schlechter Kompromiss. Entweder ist die Bildausgabe trotz hoher Basis FPS nicht sauber (zuckeln) oder das eingestellte FPS Limit greift bei Frame Generation nicht und man hat wieder Tearing sobald man aus der Sync Rang mit zu vielen Frames rausfliegt. (Zumindest meine Erfahrung aktuell mit AMD)

Hold and Type Displays ey. Hab sie schon immer gehasst und werde sie wohl nie in mein Herz schließen.

Vielleicht adaptiert mein altes Gehirn ja irgendwann noch an diese Breidarstellung. Mir tun nur alle leid, die die letzten 20 Jahre auf so einem Müll zocken mussten. Damals war es ja mit den verschiedenen TFT Varianten und niedrigeren Refreshraten noch viel beschissenener als heute.

Naja, es ist wie es ist. Just my two Cents. Rant zu Ende 🙂

Ganon
2025-04-17, 07:14:04
Du suchst vermutlich nach dem Stichwort "Black Frame Insertion" / BFI / Motion Pro (LG). Kann man bei diversen Displays aktivieren.

Badesalz
2025-04-17, 08:20:42
Ich dachte erstmal an eine an mich gerichtete Verarsche :eek: :wink:

Den FW900 hatte ich. Im SGI-Anzug.
Den VT60 hatte ich ebenfalls! Daher ist mir das mit dem "phosphor lag" auch bekannt. Vieles anderes war aber dermassen schweinegeil. Da stimme ich zu.
Auch dem Rest stimme ich weitgehend zu.

Was mich, wie boen, nur wundert, ist "und meinem Panasonic Plasma VT60 gezockt". Ich könnte bestätigen, daß alles prinzipielle nicht ganz so tollen Eigenschaften dessen, mit dem HZW2004 weder ebenfalls da sind noch andere auftreten.
Den QD-Oled vs. FW900 als das eine, aber den VT60 sehe ich in dem ähh... Vergleich schon bisschen kritisch :wink:

edit:
Wir haben leider viel zu wenige solche Threads. Viel zu wenige. Viel zu viele Schafe...

jorge42
2025-04-17, 08:25:57
Oh mann, was das schreibst kann man ja echt nicht ernst nehmen.... Machst das absichtlich um zu triggern? Sowohl Inhalt als auch Wortwahl...nenne ich mal Provokation... So viel zur Diskussionskultur in diesem forum

Badesalz
2025-04-17, 09:05:11
@jorge42
Was Diskussionskultur angeht, gehört auch die Form selbst dazu. So sind die geneigten Leser erstmal verwirrt. Meinst du jetzt den Ts oder meinst du mich? (ja, ich bin grad auch verwirrt)

jorge42
2025-04-17, 09:30:12
Wir haben leider viel zu wenige solche Threads. Viel zu wenige. Viel zu viele Schafe...
wohl eher mein persönliches Problem, sorry nicht pers. gemeint. Ich "reibe" mich leider an solchen Formulierungen...kenne ich zu sehr aus dem PoWi Forum...

Ansonsten zum Thema, ich daddel schon seit den 80ern, zuerst am SW TV, dann an der Antennenbuchse des Farb TVs. Später kam dann ein 14" CRT mit FBAS Eingang und getrenntem Eingang für Farbe und Helligkeit, das war ein Luxus. Danach kamen 17" und viel später ein 30kg schwerer 22". Die meisten Leute haben 60 Hz (nicht fps) nicht mal bemerkt, einige sogar nicht mal Interlaced....hatte damals mit meinem illama schon 120 Hz.

Also will damit sagen, ich kann solche Heul-Threads nicht wirklich nachvollziehen, vielleicht liegt das auch nur an meinem fortgeschrittenem Alter mit schlechter werdenen Augen, dass mich das nicht stört.

Gast
2025-04-17, 09:30:34
Mir tun nur alle leid, die die letzten 20 Jahre auf so einem Müll zocken mussten. Damals war es ja mit den verschiedenen TFT Varianten und niedrigeren Refreshraten noch viel beschissenener als heute.

Mir tun alle leid die noch bis vor kurzem sich einen Flimmerbildschirm antun mussten.

Pinhead_Xp
2025-04-17, 09:36:04
Du suchst vermutlich nach dem Stichwort "Black Frame Insertion" / BFI / Motion Pro (LG). Kann man bei diversen Displays aktivieren.
Diese Sachen haben wieder andere Nachteile welche leider kein guter Ersatz sind.

Blurbusters sind da schon bisschen weiter und haben ne Art CRT Simulation zumindest schon für Retrogames entwickelt. Soll woll so ne Art "rollendes" bzw. Zeilenweise Black Frame Insertion sein.

Hoffe mal das sich da auch was bei den Displayherstellern tut und die den Kram in ihre Firmware schreiben. Schnell genug sind die Panels ja mittlerweile in Bezug auf Refresh und Pixelresponstime.

Hab auch gelesen, dass man wohl ab ca. 600Hz die Plasmabildtechnik (die Zellen zünden ja das Phosphor pro Ms auch mehrfach mit unterschiedlicher Helligkeit) nachstellen was theoretisch das Bild noch heller machen dürfte.

Ganon
2025-04-17, 09:40:44
Kann halt jeder mit entsprechender Hardware einfach leicht nachvollziehen. Einfach am >= 120Hz Bildschirm BFI anschalten und staunen wie scharf ein Bild in Bewegung sein kann.

Eine Idee davon sieht man auch hier mit "emulierten" BFI: https://www.testufo.com/blackframes

Ganon
2025-04-17, 09:42:51
Blurbusters sind da schon bisschen weiter und haben ne Art CRT Simulation zumindest schon für Retrogames entwickelt. Soll woll so ne Art "rollendes" bzw. Zeilenweise Black Frame Insertion sein.

Hoffe mal das sich da auch was bei den Displayherstellern tut und die den Kram in ihre Firmware schreiben. Schnell genug sind die Panels ja mittlerweile in Bezug auf Refresh und Pixelresponstime.

LG Motion Pro macht es z.B. schon anders als einfach "simples" BFI. Das ist schon näher an diesem "rollenden" BFI. Aber das ist auch von Modell und Generation unterschiedlich. Ich hab hier den LG C1.

T86
2025-04-17, 09:45:27
Für mich sind 30 fps flüssig und alles überhalb 45 fps hab ich noch nie einen unterschied gesehen(!)
Gespürt ja… der Input lag ist das Stichwort
Bei meinem ersten 144hz tft kam zumindest etwas crt feeling wieder auf

Der Rest ist reine Gewöhnung… ich vermute mal das 99% der Menschen einfach nicht so empfindlich reagiert und das schlicht nicht merkt

Pinhead_Xp
2025-04-17, 09:46:14
@Badesalz
Den Plasma mag ich tatsächlich sehr gerne. Klar haben die Oleds in vielen anderen Bereichen komplett die Nase vorn (besonders HDR empfinde ich deutlich wichtiger als der ganze Auflösungsabgefeier)

Ich mag halt für Filme den speziellen Look und eben fürs gemütliche Couch Gaming, da das Ding im Prinzip fast die volle Full HD Auflösung auch in Bewegung hält ohne einen NASA PC zu benötigen (da nur 60FPS)

Nur bei großen Flächen in der Farbe Rot gibt es deutliches Phosphornachleuchten. Ist aber relativ selten (glaub bei Resi 2 Remake gibt es da im letzten drittel ne Laserbarriere) wo es mir aufgefallen ist)

Pinhead_Xp
2025-04-17, 09:51:13
Mir tun alle leid die noch bis vor kurzem sich einen Flimmerbildschirm antun mussten.
CRT ab 85 flimmert nicht, sorry. Man betreibt die Dinger ja nicht mit 60Hz.

Das Fass das sehr viele Jahre die Hintergrundbeleuchtung bei TFTs über niedrige PWM Frequenzen geregelt wurde mach ich jetzt nicht auf...

sven2.0
2025-04-17, 09:53:31
Was ein Trollthread ;D

Pinhead_Xp
2025-04-17, 09:58:25
Also will damit sagen, ich kann solche Heul-Threads nicht wirklich nachvollziehen, vielleicht liegt das auch nur an meinem fortgeschrittenem Alter mit schlechter werdenen Augen, dass mich das nicht stört.
Da beneide ich dich, ernsthaft.

Sobald ich die Maus bzw. Controller bewege fühlt sich das an als würde ich schielen, da der Hintergrund vermatscht.

Vielleicht alles ne Frage der Konditionierung.

Relex
2025-04-17, 10:02:51
Also grundsätzlich kann ich das Problem schon nachvollziehen.

Aber so scharf ein CRT in bewegung auch sein mag, aber Auflösung und Farbraum sind doch trotzdem nicht mehr Zeitgemäß. Und geringe Bildwiederholraten sind ja auch unabhängig von Bildschärfe schlecht. Fehlendes VRR ebenso.

Unterm Strich viel zu viele Nachteile, nur damit man mit nervigem flimmern mehr Bewegungsschärfe bekommt...


Aber grundsätzlich ist eine scharfe Darstellung auch auf nem modernen Display möglich, über nen CRT Shader (die Demo auf der Seite funktioniert so vorkonfiguriert nur auf 240 Hz) https://www.shadertoy.com/view/XfKfWd



PS: Und ich aktiviere selbst bei 120 FPS noch zusätzlich Motion Blur, weil mir die Bewegungen sonst zu ruckelig sind. :biggrin:

Ganon
2025-04-17, 10:17:28
Ich nehme zumindest bei 120Hz + BFI auf dem LG C1 kein Flimmern wahr. 60Hz + BFI ist natürlich ein anderes Thema.

Ob es mich stört mit/ohne BFI hängt natürlich vom Spiel ab. Neben BFI gibts natürlich auch noch Motion Interpolation (TV-seitiges Frame Gen). Das eine macht das Bild halt dunkler und flimmert je nach Hz-Setting, das andere hat einen leichten Lag und ggf. Artefakte.

Je nach Bildschirm ist es aber z.B. bei Spielen wie ETS2 fast unmöglich ohne weiteres die Straßenschilder zu lesen. Da braucht es halt BFI, Motion Interpolation oder sehr hohe Hz/FPS.

Troyan
2025-04-17, 10:46:18
BFI verdoppelt ja nur die Bewegtbildschärfe. Backlight Strobing ist viel effizienter.

Vielleicht ist ja der Asus PG27AQN eine Alternative. Mit ULMB2 soll er 4x Verbesserung schaffen. Macht bei 240Hz eine Schärfe, die bei 960Hz liegen könnte. Gibt es gebraucht für unter 500€, ggfs. schon für unter 400€.

Negativ ist das Nachziehen der Phosphorbeschichtung bei unter <=144Hz. Das kann nerven.

Badesalz
2025-04-17, 10:48:50
Nur bei großen Flächen in der Farbe Rot gibt es deutliches Phosphornachleuchten. Bei großen Flächen? du hast doch bestimmt auch erstmal mit dem Content von Burosch paar Sachen nachgeschaut. Oder nicht?? :eek: :cool:
Da gabs (gibts) nicht nur die Bilder, sondern auch Animationen. Wie z.B. das Pendulum :wink: (in der damaligen Form)

Grundsätzlich hast du Recht. Da tat sich bisher diesbezüglich nicht viel, weil Leute wie sven2.0, also die Bremser, in der überwältigenden Mehrzahl sind. Der hat vom FW900 jetzt hier im Thread das erste Mal gehört. Solche wissen garnicht was du meinst und wenn sie etwas nicht verstehen, dann fangen sie an rumzukaspern um das wegzubekommen.

maximum
2025-04-17, 12:00:53
Für mich sind 30 fps flüssig und alles überhalb 45 fps hab ich noch nie einen unterschied gesehen(!)
Gespürt ja… der Input lag ist das Stichwort



Den Unterschied sieht man doch aber spätestens bei 3. Person und schnell um die eigene Achse drehen selbst zwischen 45/60/90/120+ fps extrem?

Gast
2025-04-17, 12:22:49
CRT ab 85 flimmert nicht, sorry. Man betreibt die Dinger ja nicht mit 60Hz.



Doch, erst recht bei nur 85Hz, ab 100-120Hz wird es kaum mehr wahrnehmbar, es ist aber nie ganz weg.
Wobei die Wahrnehmbarkeit des Flimmerns noch viel stärker von der Leuchtdauer als von der Frequenz abhängt. Und die Verringerung des Hold-Type-Blurs steht diametral dazu. Je kürzer die Leuchtdauer, umso schärfer wird das Bild, umso stärker nimmt man aber das Flimmern wahr.
Damit der Hold-Type-Blur verringert wird muss das Flimmern wahrnehmbar sein. Wenn wir einen Supder-Duper-CRT hätten der 1000Hz könnte und dessen Leuchtschicht 1ms aufleuchtet würden wir kein Flimmern mehr sehen, dafür hätten wir aber auch keinerlei Blur-Reduktion mehr, da ein solcher CRT effektiv identisch zu einem Hold-Type-Display wäre.

Der Blur entsteht auch in unserem Gehirn, durch einen Mismatch der Erwartung des Gehirns und des tatsächlichen Signals von den Augen.

Wenn wir ein bewegtes Objekt verfolgen, erwartet unser Gehirn eine kontinuierliche Bewegung und extrapoliert quasi wo sich ein Objekt befindet. Bei niedrigen FPS wird das Objekt am Bildschirm aber noch immer weiter hinten angezeigt als es unser Gehirn erwartet, und damit blurt quasi das tatsächlich gesehene Bild über jenes welches das Gehirn erwartet.

Wenn man nur 30FPS hat, wird auch ein CRT mit 120Hz ein etwas unschärferes Bild zeigen als einer mit 60Hz. Je nach leuchtdauer der Leuchtschicht natürlich deutlich geringer als ein Hold-Type-Display, aber auch mit CRTs führt die weniger flimmernde Darstellung von 120Hz zu einer geringeren wahrgenommen Schärfe als 60Hz, ganz einfach weil der 60Hz Bildschirm nur ein "falsches" Bild darstellt, während der 120Hz zwischen den Frameupdates jeweils 3 "falsche" Bilder darstellt.

Egal ob CRT, BFI oder dergleichen es ist immer ein Tradeoff zwischen wahrgenommenen Flimmern und wahrgenommener Unschärfe, und das flimmern muss wahrgenommen werden um die Unschärfe zu beseitigen, weil es genau jenes Flimmern ist das die Unschärfe beseitigt.

Die einzige Möglichkeit beides, sowohl Flimmern als auch Unschärfe zu beseitigen sind mehr FPS, ansonsten wird es immer ein Kompromiss zwischen beiden sein.


Das Fass das sehr viele Jahre die Hintergrundbeleuchtung bei TFTs über niedrige PWM Frequenzen geregelt wurde mach ich jetzt nicht auf...

Selbst die "schlechten" dieser Gattung haben in der Regel hunderte Hz an PWM-Frequenz und sind damit wesentlich höher als CRTs es jemals geschafft haben.

Gast
2025-04-17, 12:32:52
Für mich sind 30 fps flüssig und alles überhalb 45 fps hab ich noch nie einen unterschied gesehen(!)

Also ich merke es gerade wieder deutlich bei POE2, wenn da viele Effekte am Bildschirm sind spikt die CPU-Last und sobald es unter 80-90FPS geht ruckelt es deutlich.

Ich muss allerdings dazu sagen bevor ich einen OLED hatte war die Schwelle deutlich niedriger, LCD-Blur kompensiert da schon einiges.

Relex
2025-04-17, 12:36:09
Im Gehirn nicht unbedingt, es ist wohl eher ein optisch/physikalischer effekt. Schließlich kann man die Unschärfe auch wunderbar mit einer Kamera aufnehmen.

Voraussetzung ist aber natürlich, dass sich am Bildschirm was in eine richtung bewegt und man die Kamera mit der man aufnimmt, mit dem Objekt mit bewegt, so dass es vor der Kamera statisch bleibt. Erst dann entsteht diese Unschärfe (die einzelbilder sind dabei z.B. auf einem OLED trotzdem perfekt scharf)


Aber dass das CRT Flimmern nicht "die" lösung für das Problem ist und nur ein zufällig netter nebeneffekt der technik war, muss man einfach so hinnehmen.


Man tauscht eben unschärfe druch flimmern. Aber besides kann man nur mit hohen Bildwiederholraten beseitigen. An diesem Ziel führt einfach nichts vorbei.

Gast
2025-04-17, 12:50:01
Im Gehirn nicht unbedingt, es ist wohl eher ein optisch/physikalischer effekt. Schließlich kann man die Unschärfe auch wunderbar mit einer Kamera aufnehmen


Weil du durch die Bewegung der Kamera die Interpolation die das Gehirn vornimmt simulierst.

Wenn du ein Bild mit einer Kamera aufnimmst die sich relativ zum Monitor nicht bewegt bekommst du immer ein scharfes Bild, vorausgesetzt natürlich du wählst eine Verschlusszeit die kurz genug ist um nicht mehr als einen Refreshzyklus aufzuzeichnen.

Aber es stimmt natürlich dass es nicht in jedem Fall zu 100% das Gehirn ist. Wenn wir mit unseren Augen ein bewegtes Objekt verfolgen ist das quasi äquivalent zur bewegten Kamera und trägt auch dazu bei. Zu 100% das Gehirn ist es nur wenn wir starr nach vorne schauen.

Man tauscht eben unschärfe druch flimmern. Aber besides kann man nur mit hohen Bildwiederholraten beseitigen. An diesem Ziel führt einfach nichts vorbei.

👍

Exxtreme
2025-04-17, 13:28:57
Witzig wie unterschiedlich die Wahrnehmung ist. Also ich empfand CRTs als extremst unscharf. :freak: LCDs gefallen mir da viel mehr.

Badesalz
2025-04-17, 13:35:45
Statisch vs. dynamisch? ;)

Exxtreme
2025-04-17, 13:49:55
Keine Ahnung was du damit meinst. :freak: Das Gesamtbild auf CRTs fand ich total unscharf, egal ob Standbild oder Bewegung.

x-force
2025-04-17, 13:56:29
Keine Ahnung was du damit meinst. :freak: Das Gesamtbild auf CRTs fand ich total unscharf, egal ob Standbild oder Bewegung.

hört sich nach loch oder schlitzmaske an. brauchbar waren nur die guten streifen.

Tesseract
2025-04-17, 14:04:55
trinitron/diamondtron war welten besser als lochmaske aber ein blurfest waren die trotzdem. vom gerenderten zum angezeigten bild gingen da locker 50% der bildinformation einfach verloren. abgesehen von der hohen bewegtschärfe sind CRT einfach müll.

Exxtreme
2025-04-17, 14:10:41
hört sich nach loch oder schlitzmaske an. brauchbar waren nur die guten streifen.

Ich hatte mehrere Monitore mit Loch- oder Schlitzmaske. Aber es ist trotzdem so, dass das Bild grundsätzlich ziemlich unscharf war.

MORPHiNE
2025-04-17, 14:12:15
CRT ab 85 flimmert nicht, sorry.
Ansichtssache. 120-144 Hz sind in meinen Augen aber okay. :smile:

Das Fass das sehr viele Jahre die Hintergrundbeleuchtung bei TFTs über niedrige PWM Frequenzen geregelt wurde mach ich jetzt nicht auf...

Ist nicht auf TFT beschränkt. So manches OLED-Display fühlt sich der Tradition weiterhin verpflichtet :tongue: und Plasma flimmerte ohnehin durch die Bank hinweg.

Keine Ahnung was du damit meinst. :freak: Das Gesamtbild auf CRTs fand ich total unscharf, egal ob Standbild oder Bewegung.

Das ist der Punkt. Ob bewegt oder nicht, der Matsch ist immer gleich. Da fällt der Unterschied nicht auf :biggrin:

Was ein Trollthread ;D
Aber wirklich :freak:

robbitop
2025-04-17, 14:17:59
Wenn man es mal objektiv beschreibt:

(1) Keine Paneltechnologie ist in allen Metriken perfekt - jede hat Stärken und Schwächen
(2) Die Präferenz des jeweiligen Enduserindividuums ist sehr verschieden. Manch einem ist Helligkeit, Kontrast, Blickwinkelstabilität oder Auflösung wichtiger. Manch anderem mehr Bewegtschärfe.
(3) Wenn man den Erfüllungsgrad der Kriterien pro Panelart auflisten würde und alle Kriterien addieren würde, wären moderne Panels (insbesondere OLED) unterm Strich schon vorn. Aber je nach dem was einem wichtig ist, wäre ggf. die Gewichtung ggf dann doch so, dass sich die Gesamtsumme verschiebt. So wie eben beim Thread Starter.

Am Ende muss man bei so einer Diskussion verstehen, dass durch die unterschiedlichen Präferenzen jeder zu einem für sich anderen Gesamtergebnis kommt.

Ich persönlich finde Bewegtschärfe wichtiger als Auflösung. Aber ich will auch nicht zu viel Helligkeit verlieren und mag die Highlights bei HDR bei OLEDs. Ein Plasma oder ein CRT sind mir da zu dunkel (im Schlafzimmer hängt noch der gute alte 60" Samsung Plasma aus der E Serie und im Gästezimmer noch der gute alte Panasonic Z80 - ich habe lange Plasmas geliebt).

Ich habe mich deshalb für einen 360 Hz QD-OLED mit 1440p entschieden und setze jetzt stark auf Frame Generation und moderate Settings. Entsprechend bekommt man dann auch an ganz gute Bewegtschärfe ran ohne die ganzen Nachteile der alten Displaytechnologien.

Aber wie gesagt: da kommt jeder zu einem anderen Ergebnis.

Für Retro Spiele würde ich in der Tat aber einen kleinen 42er Plasma oder einen FW900 richtig geil finden. Aber habe den Platz nicht eine extra Retro Ecke mit sowas einzurichten. :)

Pinhead_Xp
2025-04-17, 14:21:41
Doch, erst recht bei nur 85Hz, ab 100-120Hz wird es kaum mehr wahrnehmbar, es ist aber nie ganz weg.
Mir ging es eher um den Punkt, dass das flimmern des CRT ab dieser Frequenz so weit vermindert ist, das es kein wirklich wahrnembarer Faktor mehr ist. Sicherlich gibt es auch hier individuelle Befindlichkeiten.
Grundsätzlich brauch unser Gehirn wohl einfach nen Blank um scharfe Bewegtbilder zu erzeugen. Einfach bodenlos Frames nacheinander auf den Bildschirm zu werfen ist eine technologische Sackgasse.

Selbst die "schlechten" dieser Gattung haben in der Regel hunderte Hz an PWM-Frequenz und sind damit wesentlich höher als CRTs es jemals geschafft haben.
Geht ja nicht um die absoluten Zahlen, sondern um die Auswirkungen auf den User der davor sitzt. Bringt halt nix für die Augen trotz "krasser" Mhz Pulsung für die Hintergrundbeleuchtung wenn du das flimmern nicht siehst und trotzdem Kopfschmerzen oder Eye Strain bekommst. Habs selbst erlebt.
Eigentlich die größte Frechheit die die LCD Technik je hervor gebracht hatte.

Pinhead_Xp
2025-04-17, 14:44:39
Ich habe mich deshalb für einen 360 Hz QD-OLED mit 1440p entschieden und setze jetzt stark auf Frame Generation und moderate Settings. Entsprechend bekommt man dann auch an ganz gute Bewegtschärfe ran ohne die ganzen Nachteile der alten Displaytechnologien.
Wie kommst du eigentlich mit den ganzen Hickups zurrecht?
Neben den offensichtlichen Fehldarstellungsproblemen, stören mich hauptsächlich aber ein nicht richtig funktionierendes Framelimit um in der VRR Range zu bleiben oder wenn das Limit greift (zb. Last of Us 2) das dann gar kein Sync mehr da ist und mann dauerhaft Tearing hat (und nicht nur wenn man aus seiner maximalen Monitor Hz Range kommt)

Alles nicht wirklich optimal. Wird auch fast nie in den klassischen Publikationen erwähnt oder detailliert kritisiert. Hauptsache lange Balken.

Nachtrag: Hab ne 9070 XT drin

Relex
2025-04-17, 14:53:40
Einfach Vsync im Nvidia Control Panel aktivieren.

Das sorgt in Kombination mit Reflex dann dafür, dass die FPS unterhalb der Maximalfrequenz gehalten werden (Reflex setzt automatisch einen FPS Limiter) und man stets im VRR bereich ist. Tearing dabei 100% ausgeschlossen und kein zusätzlicher Inputlag.

EDIT: Okay, bei AMD weiß ich es nicht...

x-force
2025-04-17, 14:58:28
Grundsätzlich brauch unser Gehirn wohl einfach nen Blank um scharfe Bewegtbilder zu erzeugen. Einfach bodenlos Frames nacheinander auf den Bildschirm zu werfen ist eine technologische Sackgasse.

grundsätzlich?

wie hoch ist denn die frametime deiner hand vor deinem auge?
wie viele schwarze bilder verarbeitest du in einer sekunde?
versuch mal den begriff persistenz auf das szenario anzuwenden.

->1/planck-zeit

man kann natürlich um die physiologischen limits der wahrnehmung durch auge und gehirn herumfaken, wofür diese erstmal ordentlich erfasst werden müssten, aber die richtung ist doch trotzdem klar -> es braucht mehr

Einfach Vsync im Nvidia Control Panel aktivieren.

Das sorgt in Kombination mit Reflex dann dafür, dass die FPS unterhalb der Maximalfrequenz gehalten werden (Reflex setzt automatisch einen FPS Limiter) und man stets im VRR bereich ist. Tearing dabei 100% ausgeschlossen und kein zusätzlicher Inputlag.

ist das wirklich besser als fps limit per hand minimal unter refresh rate?

robbitop
2025-04-17, 14:58:37
Wie kommst du eigentlich mit den ganzen Hickups zurrecht?
Neben den offensichtlichen Fehldarstellungsproblemen, stören mich hauptsächlich aber ein nicht richtig funktionierendes Framelimit um in der VRR Range zu bleiben oder wenn das Limit greift (zb. Last of Us 2) das dann gar kein Sync mehr da ist und mann dauerhaft Tearing hat (und nicht nur wenn man aus seiner maximalen Monitor Hz Range kommt)

Alles nicht wirklich optimal. Wird auch fast nie in den klassischen Publikationen erwähnt oder detailliert kritisiert. Hauptsache lange Balken.

Nachtrag: Hab ne 9070 XT drin
Naja mit 360 HZ gibt es das Problem mit der VRR Range nicht mehr wirklich. X-D Ansonsten habe ich VSync im NV Controlpanel an.

LSFG3 hat tatsächlich Artefakte. Aber irgend einen Tod muss man sterben.
Wenn die Inputframetimes in Ordnung sind, sind es auch die outputframetimes (nutzt 1 Frame als buffer, fixed multiplier, WGC API und schaue, dass die Inputframes (bei aktiver FG!) möglichst dreistellig sind)

Eingebaute Framegeneration die Zugriff auf die Motion Vectors hat und wo das HUD entsprechend maskiert ist, funktioniert IMO besser weil artefaktärmer. Selbst FSR3 FG (DLSS FG auf FSR3 FG umgeleitet mit Optiscaler auf meiner 3080).
Ich bin schonmal auf MFG auf meiner 5070ti gespannt, wenn ich sie denn endlich bald einbauen kann.

Pinhead_Xp
2025-04-17, 15:18:43
grundsätzlich?

wie hoch ist denn die frametime deiner hand vor deinem auge?
wie viele schwarze bilder verarbeitest du in einer sekunde?
versuch mal den begriff persistenz auf das szenario anzuwenden.

->1/planck-zeit

Was? Wir reden hier schon noch vom Menschen wahrgenommene Bewegtbildschärfe bei Computermonitoren?

Das dies bei den alten Bildschirmtechniken hauptsächlich durch die Dunkelphasen (wegen der gepulsten Darstellung) ensteht ist doch bekannt.

Deswegen brauchen wir dort eben nicht 1000 Frames um eine möglichst niedrige Persistenz für eine scharfe Darstellung zu erreichen. Ich halte das nach wie vor für den falschen (technologischen) Weg.

Wenn Frame Generation weiterhin so ein Murks bleibt und wir jetzt schon 600 Watt Grafikkarten haben (und CPUs die noch langsamer über die Zeit skalieren)

wie wollt ihr den die tollen zukünftigen 1000Hz Monitore befeuern?

Relex
2025-04-17, 15:19:36
ist das wirklich besser als fps limit per hand minimal unter refresh rate?

Meinst du jetzt das Vsync oder das Limit durch Reflex?

Wenn du nur manuell das FPS limit setzt, ohne Vsync, dann kommt es vor, dass sporadisch tearing entsteht. Gerade wenns mal ruckeln sollte, Frametimes schwanken etc.


Bei z.B. 115 FPS auf einem 120 Hz VRR Display reichen ja schon minimalste Frametime Schwankungen damit du aus dem VRR window fliegst bzw. die kürzeste Frametime die dein Monitor darstellen kann, unterschreitest. Und dann hast du eben Tearing.


Also ja, Vsync ist mMn. zu 100% pflicht. Es geht nicht ohne (außer man hat 300 Hz und spielt mit 100 FPS oder so, dann vielleicht nicht)



Welchen FPS limiter du nimmst ist grundsätzlich egal, solange er mit Frame Gen kompatibel ist und keinen zusätzlichen Lag erzeugt.
Reflex setzt halt das limit ganz automatisch, wenn du Vsync aktivierst, das kannst du auch nicht umgehen. Sehe da also keinen Sinn, einen weiteren externen Limiter zu nutzen.

Du kannst aber auch zusätzlich im Treiber noch manuell das Limit setzen (z.B. für Spiele ohne Reflex). Wenn reflex im Spiel vorhanden ist, wird direkt der Reflex limiter im Spiel entsprechend auf den eingestellten Wert im Treiber angepasst.

Da der Treiberlimiter und Reflex beides von nvidia sind, sind sie auf interoperabilität ausgelegt, so dass immer nur ein limiter tatsächlich aktiv ist und nicht zwei gleichzeitig. Die nutzen praktisch die gleiche Schnittstelle.

Gast
2025-04-17, 15:46:03
Mir ging es eher um den Punkt, dass das flimmern des CRT ab dieser Frequenz so weit vermindert ist, das es kein wirklich wahrnembarer Faktor mehr ist.


Es ist eben ein wahrnehmbarer Faktor, und ein Faktor der Wahrnehmung ist die höhere wahrgenommene Bewegtbildschärfe.

Es könnte theoretisch einen CRT geben, dessen Frequenz tatsächlich hoch genug ist, dass das flimmern überhalb der Wahrnehmungsschwelle liegt, nur wenn das der Fall ist geht auch der Vorteil der Bewegtbildschärfe verloren.

PWM-Geregelte Monitore sind das beste Beispiel dafür, mit einer Regelfrequenz die hoch genug ist, ist das Flimmern überhaupt nicht mehr wahrnehmbar, trotzdem hat man keinen geringeren Blur als bei dauerhafter Beleuchtung.

Man kann das auch sehr gut mit 3D-Monitoren mit Shutter-Glasses überprüfen, damit erreicht man die Bewegtbildschärfe von CRTs, aber logischerweise sieht man auch wieder das flimmern.


Ähnliches gilt für BFI, wobei BFI ja nicht bedeutet abwechselnd ein schwarzes Bild und ein helles Bild zu sehen, sondern fast durchgehend ein schwarzes.

Ein Monitor mit 1ms MPRT zeigt mit BFI das Bild nur 1ms. Bei angenommenen 100Hz für eine einfache Berechnung hast du also 1ms Bild gefolgt von 9ms schwarz.

Das genau Tuning hängt da wieder vom Monitor ab, bzw. lässt sich teilweise auch konfigurieren. Man könnte das Ganze natürlich auch mit 2ms Bild und 8ms schwarz machen, dann gewinnt man aber weniger Schärfe, dafür sieht man auch weniger Flimmern.



Sicherlich gibt es auch hier individuelle Befindlichkeiten.


Welchen Tradeoff jemand bevorzugt ist freilich individuell, nur beides, kein Flimmern und scharfe Bilder kann es @low FPS nicht geben. Bevorzugt man mehr Schärfe muss man mehr Flimmern in kauf nehmen und umgekehrt.

Einfach bodenlos Frames nacheinander auf den Bildschirm zu werfen ist eine technologische Sackgasse.


Es ist die einzige Möglichkeit aus dem Tradeoff Flimmern vs. Bildschärfe auszubrechen.

Tesseract
2025-04-17, 16:07:12
Grundsätzlich brauch unser Gehirn wohl einfach nen Blank um scharfe Bewegtbilder zu erzeugen.

das gehirn hat damit nur indirekt zu tun. bewegung ist mit sample&hold aus dem gleichen grund unscharf aus dem auch ein verwackeltes foto unscharf ist: die szene schmiert über mehrere millisekunden hinweg über den rezeptor und die summe dieser "belichtungszeit" ist eben ein verschmiertes bild. wird bei sample&hold der refresh länger wird das geschmiere mehr, wird bei strobing der refresh länger wird das geflimmer mehr und die helligkeit geringer.

Pinhead_Xp
2025-04-17, 17:14:45
Welchen Tradeoff jemand bevorzugt ist freilich individuell, nur beides, kein Flimmern und scharfe Bilder kann es @low FPS nicht geben. Bevorzugt man mehr Schärfe muss man mehr Flimmern in kauf nehmen und umgekehrt.

Es ist die einzige Möglichkeit aus dem Tradeoff Flimmern vs. Bildschärfe auszubrechen.
Aber wir sind uns hier doch alle einig, dass (lass es eben 120 CRT Hz sein) der Tradeoff zu "flimmern" vs. Bewegtbildschärfe deutlich zu gunsten des "Flimmernden" Bildes geht.

Wenn das Flimmern nicht mehr als störend wahrgenommen wird (und damit meine ich nicht die daraus resultierende Bewegtbildschärfe...) ist es doch der perfekte Kompromiss.

Das scharfe Bild in Bewegung sieht jeder sofort. Das vorhandene,nur noch technisch erfassbare, Flimmern eher nicht.

Ich finde man zieht das Pferd hier komplett von der falschen Seite auf. Technisch mit Brutforce ein Problem zu erschlagen für das es eigentlich (auch wirtschaftlich) intelligentere Lösungen geben kann.

Und btw. weil es hier schon immer mal mit reingemischt wurde:
Das Helligkeitssteuerung von TFTs via PWM ist nochmal eine ganz andere Baustelle als die Bilderzeugung via Kathodenstrahl oder Plasma.

Bei letzteren beiden gibt es in der Regel keine Kopfschmerzen oder Eyestrain. Bei niedrig getakteten PWMs in TFT schon. Ist leider ein sehr diffuses Phänomen welches man erst merkt wenn man mal länger vor so einem Elektroschrott sitzt.

Tesseract
2025-04-17, 17:26:47
strobe funktioniert nicht richtig mit VRR oder HDR, damit ist die frage nach der zukunftstechnologie wohl beendet.
und PWM backlight sieht man deswegen länger weil es schneller schaltet als der träge phosphor vom CRT. für DLP gilt das auch, die sieht man bis 200Hz+ flimmern.
strobing löst auch das kontinuitätsproblem von objekten nicht, objekte in bewegung die man nicht aktiv mit dem auge verfolgt stottern mit wenig Hz am CRT auch vor sich hin.
außerdem bekommt man nach jahren ohne CRT auch mit 85Hz sehr leicht wieder kopfschmerzen wenn man wieder davor sitzt.

wir haben genau die gleiche diskussion hier alle paar jahre wieder.

Pinhead_Xp
2025-04-17, 17:45:20
Ist leider alles sehr ernüchternd wenn man sich mal zu Gemüte führt, dass es da keinen kompetenten ganzheitlichen Ansatz innerhalb der Industrie gibt.

Alles halbgare Lösungen (zb. auch das VRR Flackern welches nie angegangen wurde, wird übrigens noch schlimmer mit FG durch die Spikes).

Naja, hoffen wir mal das das Multiframegeneration genauso reift wie das DLSS und co.. Aber so lange das nur als Marketingtool verstanden wird, sehe ich schwarz.

robbitop
2025-04-17, 17:48:38
Ich denke Frame Generation wird sich immer weiter entwickeln und das „Problem“ lösen. Mit adaptive FG in LSFG3 kann man sogar aus schwankender framerate eine feste outputframe machen. Dabei ist dann jedes Frame was ausgegeben wird generiert. Funktioniert schon erstaunlich gut (aber sehr teuer). Mit Integration in ein Spiel würde das bestimmt nochmal besser werden. Kann mir gut vorstellen dass DLSS 5 FG das machen wird.
Dadurch bräuchte man auch kein VRR mehr und es wäre somit kombinierbar mit Strobing. (wobei G-Symc Pulsar VRR und Strobing kombinieren kann - aber nur auf LCDs)

Gouvernator
2025-04-17, 18:18:36
Muss mir mal kurz bissl Luft aus meiner Monitornische verschaffen.

Hab bis vor kurzem noch auf meinem Sony FW900 und meinem Panasonic Plasma VT60 gezockt (Der Plasma ist noch da und wird hoffentlich mit ins Grab genommen)

Im Prinzip zocke ich mein ganzes Leben nur auf Displays mit CRT oder Plasmatechnologie. Warum diese beiden auch bei sehr niedrigen Bildern pro Sekunde in Bewegung ultra scharf sind weis ich und soll nicht das Thema sein.

Jetzt habe ich mir einen 34er QD_Oled mit 240Hz hingestellt. Ich wusste was auf mich zu kommt, kannte alle Vor und Nachteilen und bin trotzdem bissl am kotzen.

Bei Games wo man die vollen 240Hz in FPS ausfahren ist es im Prinzip schon in Ordnung wenn auch nicht perfekt. Aber alles deutlich unter 200FPS ist so was von unscharf in Bewegung da bekommt man ja nen Bums.

Stört euch das nicht? Ständig liest man von 4K hier 5K dort. Raff von der PCGH ist ja auch so ein Auflösungsjunkie. Aber was bringt einem die Pixelauflösung wenn diese in Bewegung komplett auf ein Bruchteil dessen zusammen bricht. Die Plasmas wurden eingestellt, da 4k Pixelmenge zu viel Strom fressen. Aber um High Refresh Panels mit ausreichend FPS (für eine gute Bewegtbilddarstellung) zu befeuern hauen wir uns dann 2x 5090 rein?

Frame Generation klingt in der Theorie toll. Das was ich bis jetzt Spieleübergreifend selbst erlebt hab ist leider nur ein schlechter Kompromiss. Entweder ist die Bildausgabe trotz hoher Basis FPS nicht sauber (zuckeln) oder das eingestellte FPS Limit greift bei Frame Generation nicht und man hat wieder Tearing sobald man aus der Sync Rang mit zu vielen Frames rausfliegt. (Zumindest meine Erfahrung aktuell mit AMD)

Hold and Type Displays ey. Hab sie schon immer gehasst und werde sie wohl nie in mein Herz schließen.

Vielleicht adaptiert mein altes Gehirn ja irgendwann noch an diese Breidarstellung. Mir tun nur alle leid, die die letzten 20 Jahre auf so einem Müll zocken mussten. Damals war es ja mit den verschiedenen TFT Varianten und niedrigeren Refreshraten noch viel beschissenener als heute.

Naja, es ist wie es ist. Just my two Cents. Rant zu Ende 🙂
Den besten Kick erhält man heutzutage mit einem 8K TV + BFI. Wenn man die Einstellung voll ausfährt, damit es ziemlich flackert dann sieht es in Bewegung beinah wie Standbild aus, mit 8K Details. Das ist wieder was anderes als FullHD. Würde BFI nicht so flackern + bessere Helligkeit wäre es perfekt.

Spring
2025-04-17, 18:30:02
Dafür gibt es doch VESA ClearMR 13000, damit es bei OLEDs in Bewegung scharf bleibt.

https://pics.computerbase.de/1/0/6/3/5/4-64fb507ef8814413/3-1280.2fa633d5.jpg


Mein VA Monitor wird zeitnah getauscht. Von VA zu OLED sollten Welten sein ;)

CRTs? Plasma? Wo seid ihr denn stehengeblieben?

8K interessiert niemanden, außer Gouvernator und noch ne Handvoll andere. Sony hat die Produktion davon nicht umsonst eingestellt, lohnt sich für die paar hundert Nerds weltweit nicht.
Das ist noch mehr Nische als 5090 Besitzer zu sein.

Solange 8K Content mit einer Lupe zu suchen ist oder nur zehn jahre alte Games damit aufgeblasen werden, kp ob die Masse oder gar das obere Drittel da den Mehrwert sieht.
4K ist beim PC ja nicht mal ansatzweise in der Mehrheit (bei TVs schon). Naja gibts schon nen Thread zu.

Relex
2025-04-17, 18:43:38
Na ja, die OLEDs haben zwar das höchste VESA Rating, aber das ändert nichts an der sample & hold Unschärfe, die selbst auf schlechteren LCDs den mit Abstand größten Teil der wahrgenommenen Unschärfe ausmacht.

Ich finde den Schärfeunterschied zwischen meinem alten IPS und den OLED bei gleicher Bildfrequenz zwar sichtbar, aber es ist wirklich nicht die Welt. Wird die Framerate zu niedrig ist auch OLED sehr unscharf, trotz perfekter Schaltzeiten. Die Persitenz pro Frame ist einfach zu lang und die ergibt sich nunmal aus der Frametime. Daran ändert das schnellste Display nichts.

Cubitus
2025-04-17, 18:45:27
Man gewöhnt sich an fast alles :freak:
--> Rein auf den Titel bezogen

Spring
2025-04-17, 18:56:56
Na ja, die OLEDs haben zwar das höchste VESA Rating, aber das ändert nichts an der sample & hold Unschärfe, die selbst auf schlechteren LCDs den mit Abstand größten Teil der wahrgenommenen Unschärfe ausmacht.

Ich finde den Schärfeunterschied zwischen meinem alten IPS und den OLED bei gleicher Bildfrequenz zwar sichtbar, aber es ist wirklich nicht die Welt. Wird die Framerate zu niedrig ist auch OLED sehr unscharf, trotz perfekter Schaltzeiten. Die Persitenz pro Frame ist einfach zu lang und die ergibt sich nunmal aus der Frametime. Daran ändert das schnellste Display nichts.

Die Wahrheit ist: Es gibt keine perfekte Displaytechnologie und es ist auch viel subjektives Empfinden dabei.
Es ist immer was ;) Davon ab: Du hast sicher recht.

Aber das VA zu OLED ein dickes Upgrade ist, steht wohl außer Frage, oder?^^

Tobalt
2025-04-17, 19:41:18
@OP Ich glaube tatsächlich dass genug Leute selbst im 3dc blind genug sind um Bewegungsunschärfe nicht störend zu finden. Sieht man auch daran, wie viele hier Schaltzeiten und Hold Zeiten thematisch vermischen. Das sind visuell eklatante Unterschiede.

Ich würde deiner Einschätzung recht geben, dass es, wenn überhaupt, bei hold type displays, incl. OLED, erst bei 200+ Hz überhaupt erst erträglich wird.

Gewöhnt habe ich mich über viele Jahre ausreichend sehr daran dass ich shooter mit 144 Hz ertrage. Gewöhnen heißt vermutlich, dass man seine Spieltechnik anpasst um weniger von Bewegtunschärfe betroffen zu sein. Stichwort: Taubengang

Besuche die Seite Blurbusters und lies alle Artikel.
tldr:

1) 1000 Hz hold type sehen sie als langfristige Lösung, zB mit frame generation
2) Es gibt auch aktuell brauchbare Techniken die Strobing mit variablem Refresh kombinieren. ASUS ELMB-Sync war die ersten aber gibt es aktuell von vielen Herstellern. Soweit ich weiß, gibt es aber aktuell noch keine OLED mit der Technik, was für mich persönlich für Gaming on OLED das mit Abstand größte ABER ist.

raffa
2025-04-17, 20:51:57
Es ist halt leider nicht so schwarz-weiss.

Niemals würde ich von der Bildruhe, Schriftdarstellung, Kontrast, unermüdenden Darstellung, Energieeffizienz, Schlankheit meines jetzigen 34" 21:9 UWQHD Monitors zurückwollen zu einer flimmernden, fiependen, heizenden, unscharfen, kleinen (oder großen) Röhre.

Das war am Anfang anders, als TFTs die Röhren verdrängten waren sie grottig. Heute sind sie so gut, dass die Vorteile die Nachteile klar überwiegen.

Bewegtbildschärfe, klar da stinken selbst die schnellsten immer noch ein wenig ab, aber sonst, ne Röhre statt nem ordentlichen TFT/OLED hinstellen? Für Retrogames, jupp. Sonst? Ne!

Ich schätze wir werden uns irgendwo bei 1000hz/1ms einpendeln, VRR wird bei 1ms Varianz (500-1000hz mit LFC) flickerfrei zu bekommen sein, und die smoothness ist ab ~120-180fps eh gut genug. Wem das noch zu viel sample and hold blur hat, der macht BFI an und lebt mit 250-500hz flickern.

Gast
2025-04-18, 01:03:52
Aber wir sind uns hier doch alle einig, dass (lass es eben 120 CRT Hz sein) der Tradeoff zu "flimmern" vs. Bewegtbildschärfe deutlich zu gunsten des "Flimmernden" Bildes geht.


Nein. Das ist dein persönliches Empfinden. Mich stört das flimmern wesentlich mehr als etwas Unschärfe in Bewegung, wenn ich feine Details bewundern will schwenke ich nicht die Kamera umher sondern halte sie still.
Motion-Blur ist auch wesentlich natürlicher als der Stroboskob-Effekt, der in der Natur nie auftritt. Wenn sich was schnell vor deinen Augen bewegt hast du auch in der Realität Motion-Blur. Was am Monitor im Gegensatz zur Realität nicht geht ist es mit den Augen ein bewegendes Objekt zu verfolgen um es wieder scharf zu bekommen. Das macht man aber im Gaming auch nicht, das virtuelle Auge steuert man mit der Maus und nicht mit den physischen Augen, und wenn man mit der Maus ein Objekt am Monitor verfolgt bewegt es sich relativ zur Bildschirmoberfläche nicht mehr und ist damit scharf, genauso wie wenn man in der Realität das Objekt mit den Augen verfolgen würde.


Wenn das Flimmern nicht mehr als störend wahrgenommen wird (und damit meine ich nicht die daraus resultierende Bewegtbildschärfe...) ist es doch der perfekte Kompromiss.


Ich nehme es als störend war, und als störender als das Motion Blur.


Das scharfe Bild in Bewegung sieht jeder sofort. Das vorhandene,nur noch technisch erfassbare, Flimmern eher nicht.


Auch das nimmt man war.


Ich finde man zieht das Pferd hier komplett von der falschen Seite auf. Technisch mit Brutforce ein Problem zu erschlagen für das es eigentlich (auch wirtschaftlich) intelligentere Lösungen geben kann.


Die intelligenteste Lösung ist ultra high refresh rate gepaart mit FG.
Mein Traum fürs "enggame" wäre ein 1000Hz Monitor, mit ca. 100 echten FPS und 9x FG.




Bei letzteren beiden gibt es in der Regel keine Kopfschmerzen oder Eyestrain.


Natürlich gibt es das, und in aller Regel wesentlich mehr als bei PWM gesteuerten Backlights. Ich will jetzt nicht auf irgendwelche Einzelfälle eingehen in welchen das PWM gesteuerte Backlight niedrig genug taktet das es negativ auffällt, aber in der Regel sind die Frequenzen hoch genug dass es tatsächlich überhaupt nicht mehr wahrnehmbar ist.


Bei niedrig getakteten PWMs in TFT schon. Ist leider ein sehr diffuses Phänomen welches man erst merkt wenn man mal länger vor so einem Elektroschrott sitzt.

Das merkt man sofort, außer natürlich man verwendet Monatelang 100% Helligkeit und kommt erst später drauf dass es bei 10% stört.

Pinhead_Xp
2025-04-18, 17:30:04
Nein. Das ist dein persönliches Empfinden. Mich stört das flimmern wesentlich mehr als etwas Unschärfe in Bewegung, wenn ich feine Details bewundern will schwenke ich nicht die Kamera umher sondern halte sie still.
Motion-Blur ist auch wesentlich natürlicher als der Stroboskob-Effekt, der in der Natur nie auftritt. Wenn sich was schnell vor deinen Augen bewegt hast du auch in der Realität Motion-Blur. Was am Monitor im Gegensatz zur Realität nicht geht ist es mit den Augen ein bewegendes Objekt zu verfolgen um es wieder scharf zu bekommen. Das macht man aber im Gaming auch nicht, das virtuelle Auge steuert man mit der Maus und nicht mit den physischen Augen, und wenn man mit der Maus ein Objekt am Monitor verfolgt bewegt es sich relativ zur Bildschirmoberfläche nicht mehr und ist damit scharf, genauso wie wenn man in der Realität das Objekt mit den Augen verfolgen würde.
Ziemlich viel Text um sich den Brei schön zu reden. Jahrzehntelang hatten wir scharfe Bewegtbilder und jetzt mit unscharfen Bewegtbildern ist es schöner und besser weil...Natur? Ei ei ei, alles cool, wenn es dich persönlich nicht stört aber das hat schon was vom Stockholm Syndrom, sorry


Die intelligenteste Lösung ist ultra high refresh rate gepaart mit FG.
Mein Traum fürs "enggame" wäre ein 1000Hz Monitor, mit ca. 100 echten FPS und 9x FG.
Brauchst du doch nicht, wenn das Matschbild dir besser gefällt und natürlicher ist.

Natürlich gibt es das, und in aller Regel wesentlich mehr als bei PWM gesteuerten Backlights. Ich will jetzt nicht auf irgendwelche Einzelfälle eingehen in welchen das PWM gesteuerte Backlight niedrig genug taktet das es negativ auffällt, aber in der Regel sind die Frequenzen hoch genug dass es tatsächlich überhaupt nicht mehr wahrnehmbar ist.

Das merkt man sofort, außer natürlich man verwendet Monatelang 100% Helligkeit und kommt erst später drauf dass es bei 10% stört.
Was jetzt, merkt man es sofort oder nicht.

Ich kann dir zumindest von meiner Konditionierung sagen, das ich mit CRT ab 85 sowie Plasma mit 60Hz keine Problem mit der Pulsung habe. Sitze ich hingegen vor so einer PWM TFT Grütze länger als ne halbe Stunde, gehen die Probleme los und man merkt das etwas nicht stimmt. (Kamera zücken und auf Monitor halten und man sieht warum) Wie schon mehrfach gesagt ist das eine komplett andere Baustelle.


Um das Thema hier mal abzuschließen. Soll jeder glücklich werden mit seiner Wahrnehmung. Hab nur das Gefühl, dass einige hier nur von Hörensagen sich ihre Meinung bilden und keine praktischen Erfahrungen dazu haben (bzw. nur von aktueller Technik, der Rest ist eher so Boomerkram von den man mal gehört hat)

Kling schon wie ein verbitterter alter Mann 😆 Denke aber mit das mit 2x Oleds, 2x CRT und 1x Plasma sowie diverse TFTs auf Arbeit, nen recht guten Überlick über die Technik habe und die Sachen gut vergleichen kann.

Gab aber auch guten Input hier. Schön das man nicht alleine damit ist und es andere ähnlich sehen.

Es ist halt wie es ist, es gibt keinen perfekten Monitor und alles ist immer ein Kompromiss 🙂

Gast
2025-04-18, 18:54:52
Hab bis vor kurzem noch auf meinem Sony FW900 und meinem Panasonic Plasma VT60 gezockt (Der Plasma ist noch da und wird hoffentlich mit ins Grab genommen)



Das hat dir gefallen? Green Ghosting auf einem Plasma

https://www.youtube.com/watch?v=lVw_VvFcV1U

robbitop
2025-04-18, 19:12:03
Mit LSFG3 kann man eine zweite GPU für das FG abstellen. Dann sollte es auch sinnvoll möglich sein 360 Hz auszugeben.
Bei meiner 3080 ist das leider zu teuer in Bezug auf Frametimekosten. Ich spiele mit dem Gedanken wenn meine 5070ti einsatzbereit ist die 3080 für LSFG3 abzustellen im adaptive mode und einfach konstant 360 fps auf den OLED zu blasen. Die kann dann auch noch den Overhead von RTXHDR übernehmen.
Leider ist kein DLSS FG möglich im dual GPU setup weil DLSS FG braucht wohl dass der Monitor an der Haupt GPU angeschlossen ist während LSFG3 will dass dieser an der Neben GPU angeschlossen ist. Ein Dilemma… ^^

x-force
2025-04-18, 19:46:36
Mit LSFG3 kann man eine zweite GPU für das FG abstellen.

warte noch ein bisschen bis nv es selbst bringt.

scaling und fg auf der zweiten gpu $$$, perfekt um die flaute abzufangen :biggrin:

anorakker
2025-04-18, 20:43:04
Es wäre technisch ja durchaus möglich moderne UV LED Technologie mit einer klassischen Phosphormatrix zu kombinieren und dann ein richtig klassisches "race the beam" nachzustellen, also wieder direkt den DP/HDMI Stream Zeile für Zeile rauszuhauen, mit Nachleuchtzeit!
Aber wer bauts mir? ;D;D

p.s. geht natürlich auch in der Monitorelektronik, einfach ein "advanced bfi" , d.h. der Monitor kann zeilenweise das Nachleuchten simulieren und Luminanz abregeln - oder gibts sowas schon ?

Tobalt
2025-04-18, 20:56:24
Das geht auch direkt mit Selbstleuchtern ohne Phosphor, wenn mal jemand gescheite Scaler bauen würde, die einen Rolling Refresh direkt mit rolling strobe kombinieren.

Bei dem Argument "kontra" Strobe und pro Static hold muss ich ebenfalls sagen dass "Stockholm Syndrom" diese kognitive Dissonanz erstaunlich gut beschreibt.

Eine 85+ Hz CRT Szene ist einer 240 Hz Hold type szene deutlich überlegen, was die immersion angelangt, eben gerade weil es in Realität *keine* Hold type Unschärfe gibt, wenn man mit den augen ein sich bewegendes Objekt trackt.

Der LCD Strobe ist deutlich härter als der rolling strobe + fadeout eines CRT. Deshalb sieht man am LCD den Strobe auch noch bei weit über 100 Hz.

Ordentlicher VRR Strobe ist auch dabei besser weil es nur kurz völlig black ist. Ein 150-200 Hz VRR strobe Bild finde ich schon sehr sehr gut. Besser als das was CRT vor 20 Jahren bieten konnten. Leider fallen sie bei statistischen Bildern Gegenüber den mittlerweile allgegenwärtigen OLED so sehr ab, dass es schmerzt.

OLED mit VRR Strobe wen?

Ex3cut3r
2025-04-18, 21:20:53
480HZ OLED @ 1440p ist schon verdammt gut. Das Problem ist nur solch hohen Frameraten zu erreichen. Mit einem 9800X3D + RTX 5090 sollte es in E-Sport Titel aber auch heute schon möglich sein. In AAA Games kommt man nur in die nähe wenn man Optimierte Settings + DLSS P + FGx4 Kombiniert.

https://s1.directupload.eu/images/250418/ixsq3pp9.png

basix
2025-04-18, 21:48:53
Es gibt ja den CRT Emulator Shader, falls man CRT Style haben will ;) Soll ideal für OLED und 240Hz+ Displays sein.
https://blurbusters.com/crt-simulation-in-a-gpu-shader-looks-better-than-bfi/
https://blurbusters.com/blur-busters-open-source-display-initiative-refresh-cycle-shaders/

Pinhead_Xp
2025-04-18, 22:05:08
Das hat dir gefallen? Green Ghosting auf einem Plasma

https://www.youtube.com/watch?v=lVw_VvFcV1U
Hab nen VT60 von 2014. Quasi die letzte und beste Plasma Tec die auf den Markt kam bevor sie eingestellt wurde. Nix von dem was in den Video gezeigt wird hat dieses Gerät. Im Alltag unter Full HD zieh ich das Ding meinem QDOLED mit 240HZ jederzeit vor. Hab aber auch einen großen Focus auf Bewegtbildschärfe. Das einzige was ich im direkten Vergleich beim Plasma vermisse ist tatsächlich die Helligkeitsvarianz. Das ist schon geil auf dem Oled.

anorakker
2025-04-18, 22:08:11
Es ist Schwachsinn solch hohe FPS als Ziel für die Zukunft auszurufen nur um das Smaple&Hold Problem lösen zu wollen. Da freut sich nur der NV Huso drüber. Das ist einfach sinnlose Energieverschwendung.
Shader setzen auch an der falschen Stelle an.

Tobalt
2025-04-18, 22:38:28
Es ist Schwachsinn solch hohe FPS als Ziel für die Zukunft auszurufen nur um das Smaple&Hold Problem lösen zu wollen. Da freut sich nur der NV Huso drüber. Das ist einfach sinnlose Energieverschwendung.
Shader setzen auch an der falschen Stelle an.

Ich denke eine gute VRR Strobe Implementierung sollte das Problem auch schon deutlich unter 1000 Hz lösen, zB. mit 150-240 Hz.

Leider und für mich unverständlich wird das Thema VRR strobe stiefmutterlich behandelt, wie dazumals das Thema DSC, obwohl beides absolut gigantische Enabler sind. Ich würde beide Techniken vom Impact her auf Spatiotemporale Interpolation (DLSS2+ und Verwandte) stellen, wobei letzteres halt schon die berechtigte mediale Aufmerksamkeit bekommen hat und noch immer bekommt

Gast
2025-04-18, 23:06:13
Brauchst du doch nicht, wenn das Matschbild dir besser gefällt und natürlicher ist.



Das Matschbild ist besser als das Flimmerbild, was nicht heißt dass kein Flimmern und kein Matsch nicht noch besser wäre


Was jetzt, merkt man es sofort oder nicht.


Genau entweder man merkt es sofort, oder gar nicht.


Ich kann dir zumindest von meiner Konditionierung sagen, das ich mit CRT ab 85 sowie Plasma mit 60Hz keine Problem mit der Pulsung habe.


Für mich wird das flimmern erst ab 120Hz einigermaßen erträglich, aber insgesamt ist kein flimmern für mich immer noch klar der etwas besseren Bewegtbildschärfe vorzuziehen.


Wie schon mehrfach gesagt ist das eine komplett andere Baustelle.


Das Verhalten ist sehr ähnlich wenn auch nicht zu 100% identisch.


[/QUOTE]

robbitop
2025-04-19, 08:27:21
Hab nen VT60 von 2014. Quasi die letzte und beste Plasma Tec die auf den Markt kam bevor sie eingestellt wurde.

Ich meine, die Samsung F8500 Plasma war sogar ein gutes Stück heller als der VT60 ^^

robbitop
2025-04-19, 08:45:23
Ich denke eine gute VRR Strobe Implementierung sollte das Problem auch schon deutlich unter 1000 Hz lösen, zB. mit 150-240 Hz.

Leider und für mich unverständlich wird das Thema VRR strobe stiefmutterlich behandelt, wie dazumals das Thema DSC, obwohl beides absolut gigantische Enabler sind. Ich würde beide Techniken vom Impact her auf Spatiotemporale Interpolation (DLSS2+ und Verwandte) stellen, wobei letzteres halt schon die berechtigte mediale Aufmerksamkeit bekommen hat und noch immer bekommt

Gibt doch eine VRR Strobe Implemenerung mit G-Sync Pulsar. Und ASUS hatte vorher eine eigene die aber wohl nicht hundertprozentig perfekt war

Tobalt
2025-04-19, 10:52:08
Gibt doch eine VRR Strobe Implemenerung mit G-Sync Pulsar. Und ASUS hatte vorher eine eigene die aber wohl nicht hundertprozentig perfekt war

Danke. Kannte ich noch nicht. ELMB Sync hatte wohl durchaus widersprüchliche Reviews geerntet.

Gibts von Pulsar richtige Reviews? Am besten mit Oscilloscope traces? Gibts das auf OLED?

Prinzipiell ist bei displays mit Rolling Refresh (allen?) für guten Eindruck auch ein Rolling Strobe nötig (wie bei CRT). Um das zu implementieren wären halt Selbstleuchter, zumindest aber FALD, eine Grundvoraussetzung.

robbitop
2025-04-19, 12:56:08
Gibt’s nur mit LCD wahrscheinlich (meine Interpretation) weil OLEDs zu wenig Helligkeitsreserven haben und die wenn sie doll gepusht werden mit viel Helligkeit auch schneller einbrennen.

Soweit ich weiß werden bei Pulsar die FALD Zonen mitgenutzt für den Rolling Strobe.

Relex
2025-04-19, 13:06:37
Die gängigen OLEDs können im Peak 1000 nits. Für die einzelnen OLEDs ist das also überhaupt kein Problem.

Das Problem ist meines Wissens nur die Wärmeentwicklung, weswegen abgedimmt wird, je großflächiger die hellen Inhalte sind.

Würde man bei einem OLED strobing betreiben, sollte es doch ein Problem sein, das Display mit sehr hoher helligkeit arbeiten zu lassen, da die effektive Helligkeit und damit hinzeentwicklung ja durchd as Strobing abnimmt.

Bei einem Verhältnis von 50:50 zwischen dunkelphase und bildphase würde sich die Wärmeentwicklung praktisch halbieren (gut, ich weiß jetzt nicht, ob der Stromverbrauch linear mit der helligkeit skaliert, aber ihr wisst, was ich meine).


Ich sehe also nicht, warum ein OLED, der Vollflächig z.B. 250 Nits schafft, beim Strobing ebenfalls auf max 250 nits begrenzt sein muss, wenn die Anzeigephase nur kurz ist.


Mit Strobing sollte auf jeden Fall das doppelte an Helligkeit möglich sein. So dass man effektiv keinen Helligkeitsverlust haben sollte.

x-force
2025-04-19, 13:47:34
Das Problem ist meines Wissens nur die Wärmeentwicklung, weswegen abgedimmt wird, je großflächiger die hellen Inhalte sind.


wenn es wirklich nur die wärme ist, sollte es schon modelle mit ordentlicher passiver kühlung geben, oder sogar aktiv gekühlt, so daß keine dynamischen effekte mehr auftreten.
so ganz erklärt der grund wärme auch nicht wieso es abl gibt. innerhalb von einer sekunde bringt man die temperatur nicht so hoch, dass gedimmt werden müsste.

Ex3cut3r
2025-04-19, 13:59:07
Es ist Schwachsinn solch hohe FPS als Ziel für die Zukunft auszurufen nur um das Smaple&Hold Problem lösen zu wollen. Da freut sich nur der NV Huso drüber. Das ist einfach sinnlose Energieverschwendung.
Shader setzen auch an der falschen Stelle an.

Alter, was ist denn bei dir schiefgelaufen? Hohe FPS sind „Schwachsinn“? Dann trag deine Röhre doch mit Stolz weiter spazieren und spiel Minesweeper in 800x600, da flimmert nix. Energieverschwendung? Du pustest wahrscheinlich mehr heiße Luft ins Netz als 'ne RTX unter Volllast. Und was Shader angeht – du redest über Technik, als würdest du sie durch 'ne Glaskugel interpretieren. Wenn du’s nicht verstehst, einfach mal... nicht posten. NV „Huso“? Der liefert wenigstens Fortschritt, während du noch versuchst, deine 60 Hz schönzureden. Willkommen im Internet – hier geht’s vorwärts, nicht rückwärts.

Tesseract
2025-04-19, 14:35:23
Die gängigen OLEDs können im Peak 1000 nits. Für die einzelnen OLEDs ist das also überhaupt kein Problem.


wenn der peak schon bei 50:50 auf 500 sinkt ist das ein problem und 50:50 überhaupt als strobe zu bezeichnen ist schon sehr gewagt. wenn man dann noch VRR ausgleichen will wird das verhältnis noch schlechter.
und bei LCD hat man auf der anderen seite das problem dass moderne high gamut backlights träge sind und bei zu kurzen strobes rote schlieren erzeugen, deswegen ist ULMB auf modernen HDR LCD oft schechter als ULMB auf SDR LCD vor 10 jahren.

wie gesagt: low persistence hat fundamentale schwierigkeiten mit HDR und VRR und das nicht nur bei OLED.

x-force
2025-04-19, 14:46:53
wenn der peak schon bei 50:50 auf 500 sinkt ist das ein problem

des netzteils?!

anorakker
2025-04-19, 15:05:17
Alter, was ist denn bei dir schiefgelaufen? Hohe FPS sind „Schwachsinn“? Dann trag deine Röhre doch mit Stolz weiter spazieren und spiel Minesweeper in 800x600, da flimmert nix. Energieverschwendung? Du pustest wahrscheinlich mehr heiße Luft ins Netz als 'ne RTX unter Volllast. Und was Shader angeht – du redest über Technik, als würdest du sie durch 'ne Glaskugel interpretieren. Wenn du’s nicht verstehst, einfach mal... nicht posten. NV „Huso“? Der liefert wenigstens Fortschritt, während du noch versuchst, deine 60 Hz schönzureden. Willkommen im Internet – hier geht’s vorwärts, nicht rückwärts.

;D;D;D Unterhaltungswert 10/10, Lesekompetenz 1/10..

Troyan
2025-04-19, 15:15:31
Hohe Frames ist wie Upscaling: Man erzeugt diese auf effiziente Weise und nicht per Brute-Force. MFG auf Blackwell schafft innerhalb von einer 1ms ein neues Frame. 100 FPS reichen schon mit 4xMFG für fast 400 FPS aus. Damit liegt man schon sehr gut.

Latenz ist auch kein Thema, da diese mit Reflex immer noch niedriger als bei 60 FPS und sowieso für viele belanglos ist.

Nimmt Strobing reichen schon 240 FPS bei 240Hz aus.

Tesseract
2025-04-19, 16:36:18
@anorakker: zügle deine ausdrucksweise.

des netzteils?!

verstehe die frage nicht. wenn man OLED-zellen kontinuierlich bis 1000nits sicher betreiben kann, sie aber 50% der zeit aus sind, geht 50% der maximalhelligkeit verloren. nicht alles skaliert mit der abwärme.

Gast
2025-04-19, 16:52:14
Gibt’s nur mit LCD wahrscheinlich (meine Interpretation) weil OLEDs zu wenig Helligkeitsreserven haben und die wenn sie doll gepusht werden mit viel Helligkeit auch schneller einbrennen.



Für OLEDs ist das nicht notwendig.

Den Strobe mit dem Pixel-Refresh zu syncen macht nur deshalb Sinn, um die langen Schaltzeiten der LCs zu kompensieren.

Idealerweise willst du die komplette Transition der Pixel im dunklen Bereich haben. Mit einem globalen Puls hast du aber das Problem, dass die ersten Pixelzeilen ihre Transition vor den letzten beginnen und du damit nur sehr schwierig (mit sehr langer dunkler Zeit) oder gar nicht alle Pixel mit ihrer Transition fertig werden bevor das Backlight wieder an ist.

Damit hat man entweder ein Ghosting vom vorherigen Frame zumindest in Teilbereichen de Bildschirms, oder man macht den Strobe sehr kurz was zwar für eine hohe Schärfe sorgt, aber für deutlich mehr Helligkeitsverlust und stärker wahrnehmbarem Flimmern bei gleicher Frequzenz.

Gast
2025-04-19, 16:57:14
so ganz erklärt der grund wärme auch nicht wieso es abl gibt. innerhalb von einer sekunde bringt man die temperatur nicht so hoch, dass gedimmt werden müsste.

Es ist auch nicht die Wärme, zumindest nicht kurzfristig, sondern die benötigte Energie.

Bei selbstleuchtern muss die gesamte Energie um das Bild zu erzeugen durch das Panel fließen, und das sind extrem dünne Leitungen, so dünn dass du sie nicht mal sehen kannst.
Das wird umso schwieriger je größer der Bildschirm ist. ABL begrenzt die Energie die durchs Panel fließen muss.

Kennung Eins
2025-04-19, 18:06:18
"Some participants in the experiment indicated they saw the light as
completely still when it was in fact flashing about 35 times per
second, while others were still able to perceive the flashing at rates of
over 60 times per second."


https://medicalxpress.com/news/2024-04-scientists-visual-perception-ranges-widely.html

https://dx.doi.org/10.1371/journal.pone.0298007

Ach so, falls nicht klar ist, was ich damit sagen möchte: Die Wahrnehmung ist individuell unterschiedlich.
Wenn jemand Probleme hat, heißt das nicht, dass jede/r andere das ebenfalls so wahrnimmt.

robbitop
2025-04-19, 18:25:54
Für OLEDs ist das nicht notwendig.

Den Strobe mit dem Pixel-Refresh zu syncen macht nur deshalb Sinn, um die langen Schaltzeiten der LCs zu kompensieren.

Idealerweise willst du die komplette Transition der Pixel im dunklen Bereich haben. Mit einem globalen Puls hast du aber das Problem, dass die ersten Pixelzeilen ihre Transition vor den letzten beginnen und du damit nur sehr schwierig (mit sehr langer dunkler Zeit) oder gar nicht alle Pixel mit ihrer Transition fertig werden bevor das Backlight wieder an ist.

Damit hat man entweder ein Ghosting vom vorherigen Frame zumindest in Teilbereichen de Bildschirms, oder man macht den Strobe sehr kurz was zwar für eine hohe Schärfe sorgt, aber für deutlich mehr Helligkeitsverlust und stärker wahrnehmbarem Flimmern bei gleicher Frequzenz.
Ja der Teil von G-Sync Pulsar wäre für OLEDs nicht nötig. Aber einen Mechanismus der BFI mit VRR kombiniert schon. Aber wie gesagt haben OLEDs einfach nicht genug Helligkeitsreserven für BFI wenn man nicht möchte dass es fade aussieht. :)

Deathcrush
2025-04-20, 12:17:52
Hab nen VT60 von 2014. Quasi die letzte und beste Plasma Tec die auf den Markt kam bevor sie eingestellt wurde. Nix von dem was in den Video gezeigt wird hat dieses Gerät.

Jeder damalige Plasma auf dem Markt hatte das Green Ghosting. Ich hatte mal den Panasonic VT20 und auch dieser hatte das besagte Green Ghosting, auch deiner wird das haben. Ist genau das gleiche Märchen, das moderne Plasmas nicht mehr einbrennen oder flackern würden.

Pinhead_Xp
2025-04-23, 00:42:15
Jeder damalige Plasma auf dem Markt hatte das Green Ghosting. Ich hatte mal den Panasonic VT20 und auch dieser hatte das besagte Green Ghosting, auch deiner wird das haben. Ist genau das gleiche Märchen, das moderne Plasmas nicht mehr einbrennen oder flackern würden.
Bitte nur mitreden wenn man auch die Geräte hat um die es geht. Ich hab jetzt 11 Jahre Erfahrung mit dem VT60 und du kommst mit nem VT20 bzw. nen 18 Jahre alten Youtube Video um die Ecke. Leute...

Ich will nicht ausschließen, dass man in syntetischen Tests das provozieren kann, großflächige rote Bildinhalte hatte ich ja schon angesprochen.

Im Altag (hab übrigens alle Gears Teile auf dem Plasma durchgezockt) tritt das so nie auf, also bitte.
----
Mal noch was zum Thema Bewegtbildschärfe auf dem OLED bzw. Frame Gen falls es jemand interessiert.

Hab ja ne 9070XT und mich geärgert, dass wenn Frame Gen über den Treiber aktiv ist, keine Vsync bzw. Tearing mehr greift sobald man aus seiner Freesync Range rausfliegt (also zu viele Frames generiert)

Der Treiber eigene Framelimiter funktioniert nicht (auch nicht die erzwungene VSYNC), wenn Frame Gen aktiv ist. Der "Trick" ist, über den Riva Tuner (RTTS) den Limiter zu setzen, ABER nicht auf seine Monitorfrequenz oder seine virtuellen gewünschten Max. Frames, sonder auf die nativ gerenderten FPS.

Ich möchte zb. nicht, dass die FPS über 240 bzw. 237 gehen (getestet in TLOuS2) Das heist im Rivatuner einfach 115FPS Limit einstellen und man bekommt maximal 230FPS im Spiel mit sauberer Bildausgabe und ner vernünftige Bewegtbildschärfe.

Freu mich grad ein bissl :D Musste ich wieder in den tiefen des Reddits wühlen um an diese Info zu kommen.

PS: Das FrameGen direkt im Spiel (TLOuS2) ist zumindest auf AMD broken. Eingestelltes FPS Limit greift zwar genauso wie die fast verdoppelten FPS > aber alles mit Tearing.

robbitop
2025-04-23, 07:04:25
Kann man bei AMD kein V-Sync im Treiber setzen? Dann rennt man in den V-Sync sobald man die vrr range lerlässt und braucht keinen framelimiter.

Pinhead_Xp
2025-04-23, 07:19:54
Kann man bei AMD kein V-Sync im Treiber setzen? Dann rennt man in den V-Sync sobald man die vrr range lerlässt und braucht keinen framelimiter.
Kann man setzten, funktioniert leider in den Games die ich probiert hab nicht, wird quasi ignoriert.

Kann mir vorstellen das das bei Nvidia besser funktioniert.

Iscaran
2025-04-23, 08:32:26
Kann man setzten, funktioniert leider in den Games die ich probiert hab nicht, wird quasi ignoriert.

Merkwürdig funktioniert bei mir überall, in Spielen die selbst V-Sync anbieten aber auch in Spielen die selbst kein V-Sync haben. Bist dir sicher, dass da mal wieder nicht irgendwas anderes reinmurkst? (z.B. 3rd Party tools, OC-Dream etc.)

][immy
2025-04-23, 09:31:52
Also mir reichen bislang 60fps auch auf 4k. Wobei das eher mit der Bilddiagonale zu tun hat (IMHO). Je größer der Bildschirm, desto eher fallen niedrige FPS auf, weil sich einfach von Bild zu Bild mehr verschiebt.
Auf Zwischenbilder verzichte ich weil mich die Artefakte mehr stören. Einziger Einsatz von framegen den ich nutze sind bei spielen die auf 30fps fixiert wurden. Das ist bei heutigen Bilddiagonalen einfach unschön.

Gouvernator
2025-04-27, 07:56:27
Der alte billige Plasma aus 2010 von Panasonic (S10), den man bei Kleinanzeigen für 50Euro bekommt, ist mit das Beste was man heute für's zocken kriegen kann. Er ist heller, schneller und kleiner als die letzten Plasmas. Unter 50" gab es später nichts mehr. Und der ist 42\46" - gut für Pixeldichte. Doom 2 RayTraced sieht damit ohne Scheiß wie auf einem 46" widescreen CRT aus. Gerade für solche Games bzw. so bis ins Jahr 2010, muss man den Plasma besitzen. Wo wenig 3D Details durch hohe Bewegtbildschärfe kompensiert werden. Speziell bei diesem neuem RayTraced Zeug fällt einem die Kinnlade herunter, wenn man die alte 2D Sprites sieht.

robbitop
2025-04-27, 07:58:51
Die Samsung Plasmas waren heller.

Gouvernator
2025-04-27, 10:52:31
Mein Panasonic S10 habe ich nur nach einem zuverlässigen Review gekauft. Zu damaligen Zeit war es das beste bezahlbarer Gaming-Plasma. Alternate hatte noch ein weiteres Store wo man 50 Geräte begutachten konnte, und Samsung war auch dabei. Mich hat aber deren Inputlag immer abgeschreckt. Der S10 hat gegen CRT selbst getestet max. 30ms, das ist wohl auch der einzige Nachteil. Aber da wir damit keine online Shooter zocken wollen reicht es für Doom 2 allemal. Laut Reviews hat der S10 auch mit die beste Bewegtbilddarstellung von allen Plasmas. Das kann ich auch bestätigen. In seiner vollen Glory hat man den ja noch nicht mal gesehen, dank 4K DSR und Ray Tracing. Ich hänge jetzt LaunchBox dran und zocke alles was seit 1985 so rausgekommen ist. Mich interessieren vor allem Gamecube, Xbox, 360,PS3 Games in 4K. Das ist wie ein Breitbild CRT mit Downsampling. Ich glaube ich hab den sogar seinerzeit in Factory-Settings massiv getweakt, so von Farben und Kontrast ist er nicht wirklich schlechter als der OLED des Legion Tab Extreme. Ich hab den Plasma ziemlich gut auf den Legion Tab nachkalibrieren können.

Es ist ein Retro-Himmel. Man bekommt quasi eine 8K Unterstützung für Doom 1, ohne das 8K vorliegen würden oder ein echter 8K es jemals besser machen können wird. Was interessant ist, man bekommt dermaßen viel Raytracing Action mit, das es durch Details Overload die nicht verschmiert wurden, mit echten 8K mithalten kann.

PS.
Dank Balkonkraftwerk, der gerade über 400W reinballert ist auch das alte leidige Thema des Stromverbrauchs des Plasmas vom Tisch.

Gouvernator
2025-05-14, 07:33:34
Also ich habe den 65 Zöller 8K 60Hz mit BFI ausgiebig in Last Epoch angezockt. Von der gebliebenen Helligkeit war es sogar ziemlich unaufällig, vielleicht sogar Stück heller als S10 Plasma. Aber das Flimmern war so sichtbar wie ein 60Hz TV CRT, zum Glück nicht durchgehend. Die Bewegtbildschärfe war um gefühlt 50% schlechter als Plasma. Dennoch, gerade im 8K Modus deutlich besser als kein BFI. Ich weiß jetzt zumindest, das gesamter 8K Content "kostenlos" sehr gut aufgewertet werden kann. Nach 6 Jahren schon mittlerweile "8K", ist es die einzige mögliche Verbesserung.

Troyan
2025-05-14, 08:37:39
Der alte billige Plasma aus 2010 von Panasonic (S10), den man bei Kleinanzeigen für 50Euro bekommt, ist mit das Beste was man heute für's zocken kriegen kann. Er ist heller, schneller und kleiner als die letzten Plasmas. Unter 50" gab es später nichts mehr. Und der ist 42\46" - gut für Pixeldichte. Doom 2 RayTraced sieht damit ohne Scheiß wie auf einem 46" widescreen CRT aus. Gerade für solche Games bzw. so bis ins Jahr 2010, muss man den Plasma besitzen. Wo wenig 3D Details durch hohe Bewegtbildschärfe kompensiert werden. Speziell bei diesem neuem RayTraced Zeug fällt einem die Kinnlade herunter, wenn man die alte 2D Sprites sieht.

Bester Plasma ist der P42ST33 von Panasonic: 1 Frame Lag (schneller geht bei Plasma nicht), 1080p, gutes Upscaling, guter Schwarzwert.

Trotzdem leiden Plasma massiv unter Nachleuchten und Einbringen. Helligkeit ist so lala und 30 FPS bei 60Hz produziert doppelte Bildartefakte.

Gouvernator
2025-05-15, 06:14:21
Ich denke ich hab jetzt meine Quest beendet, wenn es angeht rauszufinden was heute besser ist als Plasma, CRT, ect. Zumindest auf moderne detailreiche 3D Games bezogen.

Es ist tatsächlich mein 8K 65" in nativ 8K mit BFI. Man muss dafür jede Menge den TV tweaken z.B. spielt Anti-Judder Interpolation eine Rolle, man muss da einen gewissen Sweetspot finden - bei mir so zwischen 30-60%. TAA\FXAA spielt übrigens auch große Rolle --> abschalten. Und dann möglichst saftig und hell aussehendes Bild mit Blacklevel, High Contrast Spielereien erreichen. Mit durchgehenden 60 FPS sieht es dann definitiv "anders" als normal aus. Dann kann es auch nicht mehr mit CRT\Plasma verglichen werden, weil völlig anderer next-gen Eindruck entsteht.
Übrigens 4K + BFI mit denselben Einstellungen reicht bei weitem nicht diesen Eindruck zu erreichen.

Platos
2025-05-15, 07:58:07
Bist du endlich weg von deinen 300PPI Tablets :D ?

8k TV ist leider nicht weiter wie vor 5 Jahren. Samsung ist aufgrund Dolby Vision unbrauchbar und allg. sind die 8k TVs eig. von den Features (abseits 8k) normalerweise viel schlechter und weiter hinterher als 4k TVs, wenn der Preis nicht ganz absurd sein soll.

wolik
2025-05-15, 10:28:44
Bist du endlich weg von deinen 300PPI Tablets :D ?

8k TV ist leider nicht weiter wie vor 5 Jahren. Samsung ist aufgrund Dolby Vision unbrauchbar und allg. sind die 8k TVs eig. von den Features (abseits 8k) normalerweise viel schlechter und weiter hinterher als 4k TVs, wenn der Preis nicht ganz absurd sein soll.
:confused: 8K haben in 4K Modus VRR und bis 144Hz. (bessere DPI so wieso), wo siehst du "weiter hinterher" ist mir ein Rätsel.

Platos
2025-05-15, 15:07:59
DV, Audioformate, Displaygrössen (in bezahlbar). Die OLEDs von LG sind quasi unbezahlbar in gross bzw. das P/L ist schlecht. Übrig bleibt Samsung mit ihren DolbyVision-unfähigen TVs...

Damit fällt und steht ein TV dann schnell.

Und ja, in 4k kann der vlt. 144Hz :D

wolik
2025-05-15, 19:44:35
DV, Audioformate...

Willst du wirklich auf 8K, Filme oder -Sendungen schauen, die in Full HD (im besten Fall) aufgenommen wurden?
8K ist nur fürs Zocken sinnvoll.
Ein 55-Zöller kostet inzwischen auch nicht mehr die Welt.
Und für ANNO-Fetischisten ist 8K schon ein muss.

x-force
2025-05-15, 20:07:55
Filme oder -Sendungen schauen, die in Full HD (im besten Fall) aufgenommen wurden?

seit rtx vsr gilt das nicht mehr.

Gouvernator
2025-05-15, 23:02:50
Bist du endlich weg von deinen 300PPI Tablets :D ?

8k TV ist leider nicht weiter wie vor 5 Jahren. Samsung ist aufgrund Dolby Vision unbrauchbar und allg. sind die 8k TVs eig. von den Features (abseits 8k) normalerweise viel schlechter und weiter hinterher als 4k TVs, wenn der Preis nicht ganz absurd sein soll.
Ich baue mir eine 6kWp PV-Insel... mit 16kWh Speicher. Damit ich vom Tablet upgraden kann.

x-force
2025-05-15, 23:48:59
Ich baue mir eine 6kWp PV-Insel... mit 16kWh Speicher. Damit ich vom Tablet upgraden kann.

wie viele jahre könntest du von der summe den strom bezahlen?

und im winter wird gestrickt? :wink:

Gouvernator
2025-05-16, 04:33:25
wie viele jahre könntest du von der summe den strom bezahlen?

und im winter wird gestrickt? :wink:
Bei jetzigen Strompreisen zwischen 5-7 Jahre. Wenn ich jede freie Minute zocke. Bei Energie-Krise dramatisch weniger. 6kWp sollte auch im Winter genügend Grundlast liefern, zumindest für den 8k TV 24\7. Von April bis Oktober kann man auch andere Verbraucher anklemmen und da das Geld noch reinholen. Auf jeden Fall ist der Akku drauf ausgelegt den TV über die Nacht zu versorgen, 14 Stunden 800Watt Last = 11kWh.

Gouvernator
2025-05-16, 13:45:36
Man sieht in 4K BFI den Blur-Effekt wie einen grafischer Glitch. Sprich ohne BFI ist es vollkommener Matsch. Und dann mit BFI ist es wie ein künstlich erzeugter Effekt auf einem CRT, den man unbedingt abschalten will. Und dann kommt 8K ins Spiel. Es behandelt diesen Effekt wie einen regulären 3D-Effekt wenn man die Auflösung hochschraubt. Aka Motion-Blur Effekte werden dann viel weniger sichtbar. Gefühlt halbiert sich dann dieser Fake-Motion-Blur bis zum erträglichen Zustand.
Mit 16K würde ich vermuten, hätten wir dann tatsächlich die CRT\Plasma Bewegungsschärfe-Qualität erreicht.

Platos
2025-05-16, 19:52:35
Willst du wirklich auf 8K, Filme oder -Sendungen schauen, die in Full HD (im besten Fall) aufgenommen wurden?
8K ist nur fürs Zocken sinnvoll.
Ein 55-Zöller kostet inzwischen auch nicht mehr die Welt.
Und für ANNO-Fetischisten ist 8K schon ein muss.

Aha, gleich übertreiben;) Ist ja nicht so, dass die meisten (grösseren) neuen Filme in 4k verfügbar sind.

Aber du musst das etwas weiter denken:

1. Gibt es Spiele mit DV/Dolby Atmos usw.
2. Will ich vlt. Spiele in 8k Spielen ODER 4k Filme mit DV schauen und dann nicht einen 2. TV dafür kaufen. Es sagt ja niemand, dass ich Filme in 8k und DV schauen will.

Und ja, wie gesagt: Für grosse Diagonalen (also 98") gibts hald wirklich gar nix bezahlbares. Aber selbst für 85" gibts nichts bezahlbares mit oben genannten Features.

seit rtx vsr gilt das nicht mehr.

Hast du das mal für 4k Filme ausprobiert und dann auf 8k Upgegraded?

Weil bisher bin ich nicht begeistert von RTX VSR.

Ich baue mir eine 6kWp PV-Insel... mit 16kWh Speicher. Damit ich vom Tablet upgraden kann.

Ok ^^

Aber 6kWp ist doch viel zu viel nur für nen 8k TV und ein Gaming-PC. Da sollte doch 2kWp genügen (wenn man nicht gerade 8h am Tag zockt).
-> Der Speicher wird aber sau teuer.

ChaosTM
2025-05-16, 20:22:20
8K auf 4k downscaled schaut wirklich besser aus als nativ 4k..

Spielt aber keine Rolle wenn man eine gewisse Entfernung der Betrachtung überschnitten hat !°

°PPD* > DPI -- *alles über 50 ist "Retina"

x-force
2025-05-16, 20:26:12
Hast du das mal für 4k Filme ausprobiert und dann auf 8k Upgegraded?

Weil bisher bin ich nicht begeistert von RTX VSR.


ich hab keinen 8k tv und will deshalb auch nicht mit dldsr spielen.

hast du manuell die höchste stufe forciert?
wenns keinen strom frisst, bringt es auch nicht so viel.

imo ist das weit über allem was madvr an scaling bietet.

wolik
2025-05-16, 23:51:15
ich hab keinen 8k tv und will deshalb auch nicht mit dldsr spielen.


Bei 8K gibts kein DLDSR.

Gouvernator
2025-05-17, 02:47:28
Ok ^^

Aber 6kWp ist doch viel zu viel nur für nen 8k TV und ein Gaming-PC. Da sollte doch 2kWp genügen (wenn man nicht gerade 8h am Tag zockt).
-> Der Speicher wird aber sau teuer.
Gestern getestet, man braucht um die 10kWp um rund um die Uhr mit 1kw (700W PC + 350W TV) zocken zu können. Der Balkonkraftwerk hat am sonnigen Tag 5kWh erzeugt. PV Insel muss also den Tages-Verbrauch und für die Nacht aufladen: 12kWh+12kWh = 24kWh.
1kWp= 5kWh Ertrag, 24kWh/5kWh= 5kWp. Bei Wolken würde es nicht mehr reichen. Am besten noch einen Laderegler mit 6kwp.
Das ist jetzt keine Theorie sondern Praxiserfahrung. Denn 8K ist zwingend mit einer top High-end Grafikkarte für smoothe 60Hz zu kombinieren.

Mit dieser Rechnung würde sich die PV-Insel nach 2 Jahren selbst bezahlen. Wo ich nicht zocke, würde 24/7 dann irgendwelches KI Zeug rendern ..

MarcWessels
2025-05-17, 03:55:44
Ich meine, die Samsung F8500 Plasma war sogar ein gutes Stück heller als der VT60 ^^

Dafür mit schlechterem Schwarzwert. Der STW60 ist deutlich heller als der VT60.

Platos
2025-05-17, 08:54:25
Gestern getestet, man braucht um die 10kWp um rund um die Uhr mit 1kw (700W PC + 350W TV) zocken zu können. Der Balkonkraftwerk hat am sonnigen Tag 5kWh erzeugt. PV Insel muss also den Tages-Verbrauch und für die Nacht aufladen: 12kWh+12kWh = 24kWh.
1kWp= 5kWh Ertrag, 24kWh/5kWh= 5kWp. Bei Wolken würde es nicht mehr reichen. Am besten noch einen Laderegler mit 6kwp.
Das ist jetzt keine Theorie sondern Praxiserfahrung. Denn 8K ist zwingend mit einer top High-end Grafikkarte für smoothe 60Hz zu kombinieren.

Mit dieser Rechnung würde sich die PV-Insel nach 2 Jahren selbst bezahlen. Wo ich nicht zocke, würde 24/7 dann irgendwelches KI Zeug rendern ..

Ja eben, bei 24/7. Aber bei normalen Menschen, die nicht jeden Tag 24/7 ihren Rechner laufen lassen, bräuchte es weit weniger.

Aha, AI-Zeugs. Was machst du da 24/7? Pornos selber erstellen oder sowas :D ?

Gouvernator
2025-05-17, 16:27:36
Ja eben, bei 24/7. Aber bei normalen Menschen, die nicht jeden Tag 24/7 ihren Rechner laufen lassen, bräuchte es weit weniger.

Aha, AI-Zeugs. Was machst du da 24/7? Pornos selber erstellen oder sowas :D ?
Ja zum Lernen macht das die erste Zeit am meisten Fun. ;D Aber ich will später in andere Genres expandieren. Die AI kann jetzt alles, Sprache, Musik, Video... Wo ich nicht zocke, kann man das wie eine Rendering-Farm immer weiterlaufen lassen.

Platos
2025-05-17, 19:06:23
"Zum Lernen" :freak:

Ja, man kann ja schon eine "Farm" machen, aber wofür denn. Also bei Musik kann es ja noch sinn machen, aber was will du denn im Bereich Sprache und Video erstellen?

Bist du ein Künstler, der neue Dinge "erschaffen" will? Ich für meinen Teil verbessere mit KI nur Dinge, die bereits da sind (Filme, Serien, Games). Es lohnt sich aber eig. nur das zu verbessern, was man gerade braucht. Im Voraus zu verbessern lohnt sich eig. nie, da man in ein paar Jahren das selbe viel schneller machen kann.

Gouvernator
2025-06-13, 23:50:18
Ich bin komplett auf BFI des 8K TVs umgesattelt. Es stellte sich heraus, mit Verzicht auf Game-Mode kann man doch noch einiges an Helligkeit herauskitzeln. Zusätzlich habe ich HDR reingeknallt und in NV Color Settings den Kontrast\Helligkeit\Gamma hochgezogen. Von der Helligkeit ist es nun ziemlich normal, manche Leute würden das sogar als ZU hell bezeichnen... Das i Tüpfelchen kam noch dazu, da ich eh auf den Inputlag pfeife - durch die Entdeckung das konstante 60 Fps im displayinternen Fake-120Hz Framegeneration-Mode auf seiner stärksten Stufe keine oder so gut wie keine Artefakte produzieren.
Da droppt einem echt die Kinnlade herunter was man hier sieht. Paar kleine Problemchen sind noch da, teilweise auf hellem Hintergrund sichtbares flackern, der Inputlag und 60 FPS in 8K... Für slow-motion Games wie Indiana Jones voll geeignet. Ich dachte mein Plasma wäre besser als CRT, aber das toppt es nochmal. Es ist quasi sehr helles 65" 8K CRT mit Inputlag. Das ist so gut ich würde am liebsten den Gamepad irgendeiner KI geben und nur zugucken. Und ja, dank dem Peak HDR von angeblich 3000 Nits kann man die Szenen trotz BFI Modus noch als echtes HDR genießen. Einmalig.

Platos
2025-06-14, 01:48:52
Bist du dir sicher, dass der TV auch unter 8k 60Hz auf 120Hz per Interpolation machen kann (Also Interpolation von 60FPS auf 120, aber anzeigen muss der TV ja auch noch 120Hz)?

UND das ganze dann auch noch mit BFI (unter 8k) gleichzeitig aktiviert ? Kann dein TV das wirklich? Bei einigen 8k TVs fällt gefühlt die Hälfte aller Features weg, wenn man auf 8k stellt.

Kannst du denn die 120FPS Interpolation auch am PC einstellen, so dass du bei Steam die Games quasi in 120FPS hast (weil da du ja keine 120Hz nativ kannst unter 8k, wirst du auch kein Framegen nutzen wollen). Oder gehts nur bei Konsole?

Was für ein Modell hast du denn ?

Am besten man wartet auf 8k120Hz und nutzt dann Framegen. Das ist tausend mal besser als standart-Interpolation ohne Motion-Vectors. Dummerweise muss man dafür auf HDMI 2.2 warten. Also geht noch 1-2 Jahre (und dann brauchts noch 8k-Tvs mit Dolby Vision, sonst kann man die eh rauchen).

Gouvernator
2025-06-14, 14:29:23
https://www.digitalfernsehen.de/tests/samsung-gq75q950r-8k-tv-im-test-549457/2/
Die Bewegtbildschärfe des Q950R erreicht mittels Zwischenbildberechnung exzellentes 120-Hz-Niveau
Das ist so eine Zwischenbildberechnung auf 120Hz. Das was nicht funktioniert ist VRR mit BFI.
Wie gesagt HDR+BFI+120Hz Zwischenbildberechnung+8K 60Hz läuft super bis auf Inputlag. Irgendwelche Rennspiele kannst du vergessen. Für Sachen wo du auf Felsen hängst Uncharted, Tomb Raider, Indiana - perfekt. Die Texturen sehen einfach phänomenal aus. Das ist glaube ich noch besseres Upgrade als nativ 16K. Normales 4K sieht zur Not auch brauchbar aus, wenn man mit 60 FPS Ray Tracing nutzen will.

Gouvernator
2025-06-24, 00:41:50
Heute Serios Sam HD gezockt, 8xAA+8K60+ mein helles BFI. Ich hatte das Gefühl das perfekteste 3D Gaming zu sehen. Von so einer BQ kann man nicht mal träumen, weil völlig unvorstellbar.

Gouvernator
2025-06-24, 09:41:04
Ich wollte es jetzt echt wissen und hab Riven 2023 angeworfen, weil das war meine bisherige peak 3D Experience mit 280ppi 16" 4K--->8K DSR. Der native 8K BFI Modus aus 1.8m Entfernung ist quasi genau das. Buchstäblich in 65". Kein Wunder also warum Serios Sam so jaw dropping aussieht. Es sieht aus wie Riven 2023 in 280ppi mit Explosionen, nur auf 65" und in Bewegung. Ihr könnt euch kaum vorstellen wie geil so Laser und Raketen im den riesigen Arenen aussehen.

Gouvernator
2025-06-25, 07:31:27
Der neuste Samsung 8K von 2025 mit 8K120 hat auch noch kein BFI@120Hz. Das 60Hz Flickern ist der einzige noch vorhandene Nachteil. Von der Helligkeit und so gibt es von mir nichts zu beanstanden. Retroarch NES Games sehen mit dieser Helligkeit ziemlich bombastisch aus, quasi wie ein 65" CRT mit 500nits. Bin hin und her gerissen zwischen PC Games in 8K und altem 2D. Wenn ich gerade begrenztes Budget hätte würde ich alles in eine High-End Samsung 8K Glotze stecken und verbliebenen Rest in eine Grafikkarte... Der Nutzen von hellem BFI in 65" ist so gewaltig.

Gouvernator
2025-08-01, 17:32:18
RIDE 4 kann man 16K@20FPS fahren. Mit BFI verlagert sich die Bildqualität ganz wo anders hin. Ohne BFI ist 8K@16K Downsampling halt bisschen schärfere Kanten, mehr auch nicht. Mit BFI man fühlt sich wie auf einer echten Straße, sprich die Augen können sich komplett auf die Landschaft 400 Meter weiter und an der Seite entlang konzentrieren, während man mit peripheral vision sein Bike lenkt. Alles was entlang der Strecke steht, Bäume, Häuser... sind plötzlich interessante Objekte wie wenn man an der Autobahn fährt und sich nicht wirklich auf Fahren konzentriert. So fotorealistisch sieht das ganze aus.