PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 10-Bit-Monitor


MAX|HASS
2022-12-05, 13:14:52
Habe mir folgenden Monitor bestellt https://geizhals.de/samsung-odyssey-g5a-s27ag500nu-s27ag502nu-ls27ag500nuxen-ls27ag502nuxen-a2548768.html?hloc=at&hloc=de .

Um ehrlich zu sein, erstmal nur zum ausprobieren, weil ich 1080p und 1440p bereits zu Hause habe und langsam mal die Eigenschaften beider Monitore in einem verbinden möchte. Längere Geschichte, kann was dazu schreiben, bringt aber bei meiner Frage hier im Moment nichts.

Die da wäre: da der Monitor nur mit DP1.2 daherkommt, müßte man also den Kompromiss zwischen 8bit@165hz oder 10bit@120hz eingehen. Die hz-Zahl ist mir ziemlich wurscht, spiele ja heute noch zufrieden auf dem 24"er bei 75hz. Und es ist wahrscheinlich, daß ich (wenn ich den Samsung tatsächlich behalten sollte) hier auch wieder meine 60fps deckele, um Stromverbrauch, Abwärme und Lautstärke zu reduzieren. Aber hätte man einen optischen Nutzen aus den 10bit? Bei HDR wohl schon, aber der Odyssey hat wie fast alle anderen auch natürlich nur crappy Pseudo-HDR, das interessiert mich überhaupt nicht. Sollte ich trotzdem 10bit einstellen beim TFT (und wahrscheinlich auch im nV-Treiber), auch wenn ich absolut kein Interesse an HDR habe?

r3ptil3
2022-12-05, 15:00:32
Eigentlich ist es alleine schon ein Fehler, dass man die ganzen Gaming Monitore mit 8bit + FRC überhaupt als 10bit Monitore vermarkten darf. Praktisch alle Gaming-Monitore mit "10bit", sind nicht wirklich 10 Bit Monitore, sondern 8bit+FRC, sprich Fake-10bit Monitore.

Richtige 10bit Monitore sind nochmals in einer ganz anderen Preisklasse und können auch nur 60Hz liefern. Dort kann man immerhin aber auch von einem deutlichen Unterschied in der Bild- bzw. Farbqualität sprechen.

In deinem Fall würde ich es einfach selber probieren. 120Hz vs. 165Hz spüre ich selber. Da wären mir die 165Hz lieber.
Nebenbei finde ich es ziemlich krass, dass Samsung hier die Frechheit besitzt noch DP 1.2 einzubauen.

Gast
2022-12-05, 15:07:49
Prinzipiell ja, 10bit erlaubt mehr Farbabstufungen, und insbesondere im Blaubereich sind wir sehr empfindlich und 8bit für eine Bandingfreie Darstellung oft zu wenig.

Die Frage ist eher wann es dir was bringt. Wenn die Quelle in 8bit/Channel Bild ist bringt es logischerweise wenig, bei der Signalübertragung 10bit/Channel zu verwenden.

Ob HDR oder nicht ist relativ egal, HDR enthält Metadaten die steuern welcher Bereich des gesamten Farbraums gerade dargestellt wird, wodurch sich auch mit 8bit/channel ordentliches HDR darstellen lässt.

00-Schneider
2022-12-05, 15:23:41
Richtige 10bit Monitore sind nochmals in einer ganz anderen Preisklasse und können auch nur 60Hz liefern.


Sind 10bit nicht HDR? Oder wovon redest du? :confused:

aufkrawall
2022-12-05, 15:41:09
Nein, 10 Bit sind nur mehr Farbabstufungen zwischen den äußeren chromatischen Koordinaten eines Farbraums vs. 8 Bit, also einfach weniger/kein Banding. Oder praktisch auch nicht, weil temporales Dithering mit 8 Bit Output ziemlich gut funktioniert.
Mir fiele deshalb gerade nicht ein, welche Eigenschaft eines Monitors unwichtiger wäre als 10 Bit.

MAX|HASS
2022-12-05, 16:12:34
Danke erstmal, dann lese ich da wohl raus, daß man ihn eher "normal" in 8bit und 165hz laufen lassen sollte. Einfach weil man von den 165hz auch was hat, von den 10bit wenig bis gar nichts.

Aufgrund der 165hz und des Namens Odyssey gehe ich mal davon aus, daß ihn Samsung sowieso im Bereich Spieler-Monitor sehen möchte und nicht im gehobenen Anwendungsbereich, was wiederum DP1.2 erklärt. Der durchschnittliche Käufer wird die hohe hz-Zahl haben wollen.

Und warum habe ich mich überhaupt auf diesen kompromissbehafteten Monitor eingelassen? Weil es mir egal war, welche Ausstattung er abseits zB. einer Höhenverstellung hat. Mir war nur ein gutes schnelles Bild wichtig und der G5 soll zumindest auf Augenhöhe mit der Allzweckwaffe LG 850-B liegen (https://www.rtings.com/monitor/tools/compare/lg-27gp850-b-vs-samsung-odyssey-g5-s27ag50/24452/26280?usage=3623&threshold=0.10), das werde ich dann ja sehen. Was auch kein Wunder wäre, habe ich doch schon zweimal gelesen, er solle das gleiche LG-Panel verbaut haben. Aber derzeit eben 100€ günstiger. Mal gucken, danke nochmal, shiiit 10bit lassen wir dann einfach aus.

Wuge
2022-12-05, 18:46:54
Interessehalber: wie wird eigentlich gerendert? 3x10 Bit und der Output wird dann auf 3x8 Bit runter gedithert?

Gast
2022-12-05, 19:24:48
Eigentlich ist es alleine schon ein Fehler, dass man die ganzen Gaming Monitore mit 8bit + FRC überhaupt als 10bit Monitore vermarkten darf.

8bit + FRC ist kaum von "echten" 10bit zu unterscheiden.

Ganz im Gegensatz zu 6+FRC wie es bei den meisten TNs zum Einsatz kommt.

Gast
2022-12-05, 19:35:06
Oder praktisch auch nicht, weil temporales Dithering mit 8 Bit Output ziemlich gut funktioniert.

Temporales=FRC Dithering funktoiniert nur mit einem 10bit Input-Signal gut.

Gast
2022-12-05, 19:36:08
3x10 Bit und der Output wird dann auf 3x8 Bit runter gedithert?

Üblicherweise wird heute 3xFP16 gerendert und dann per Tonemapping das entsprechende Outputsignal erzeugt.

MAX|HASS
2022-12-06, 00:05:33
Ich kann ja auch einfach beides mal anstellen und gucken, ob ich bei Webseiten/Spielen/.. auch nur irgendeinen Unterschied erkenne.

aufkrawall
2022-12-06, 00:31:03
So ziemlich alles ohne HDR ist eh nur 8 Bit Content und der Großteil des Bandings in Filmen und Spielen kommt durch Rechenformats- oder Mastering- oder Kompressions-Fuck-Ups zustande, und nicht durch den Target-Präzisionsunterschied vs. 10 Bit. Ist Zeitverschwendung.

Gast
2022-12-06, 07:35:17
Ich kann ja auch einfach beides mal anstellen und gucken, ob ich bei Webseiten/Spielen/.. auch nur irgendeinen Unterschied erkenne.

Bei Webseiten garantiert nicht, da gibt es praktisch kein Material das mit >8bit vorliegt.
Bei Spielen eventuell, besonders im Himmel können feine Blauverläufe zum Banding neigen.

Der Windows Standard Desktop-Hintergrund ist so ein Kandidat der extrem zum Banding neigt, da würde 10bit definitiv helfen, leider nur würde, weil das Bild selbst eben in keiner höheren Farbtiefe vorliegt.

Niall
2022-12-06, 08:08:22
8bit + FRC ist kaum von "echten" 10bit zu unterscheiden.

Ganz im Gegensatz zu 6+FRC wie es bei den meisten TNs zum Einsatz kommt.

This.
Wenn Du im professionellen Bereich arbeitest und deine Software einen nativen 10 Bit Display-Workflow hat, mag es sinnvoll sein, ansonsten ist quasi noch immer alles da draußen 8 Bit. (HDR Content ausgeklammert, ich meine "stumpfe" Farbtiefe.)

Genau der gleiche Schwurbel mit den riesigen Farbräumen - im professionellen Umfeld richtig und wichtig seit Jahrzehnten, im "normalen" Betrieb sieht - wenn Du im Wide Gamut Modus bleibst - nichts mehr aus wie es "soll", jedenfalls unter Windows und mit den allermeisten Anwendungen.

Daher empfehle ich immer wieder, im "Normalbetrieb" in Modi zu schalten, die die Darstellung auf sRGB runterdampfen. Ob am Monitor selbst, im Radeon Control Panel, oder über diese kleine Extra-Applikation für NVIDIA Karten. Außer man steht auf völlig übersättigte Rottöne etc.

Echt ein Trauerspiel dass Microsoft das seit Jahrzehnten nicht in den Griff bekommt.

MAX|HASS
2022-12-06, 09:15:31
Ok, ich dampfe runter. Soll heißen, mal gucken, was mich da erwartet :redface:.

Schreibe dann Mittwoch oder Donnerstag mal, wenn die Kiste da ist.

Asaraki
2022-12-06, 09:44:52
This.
Wenn Du im professionellen Bereich arbeitest und deine Software einen nativen 10 Bit Display-Workflow hat, mag es sinnvoll sein, ansonsten ist quasi noch immer alles da draußen 8 Bit. (HDR Content ausgeklammert, ich meine "stumpfe" Farbtiefe.)

Genau der gleiche Schwurbel mit den riesigen Farbräumen - im professionellen Umfeld richtig und wichtig seit Jahrzehnten, im "normalen" Betrieb sieht - wenn Du im Wide Gamut Modus bleibst - nichts mehr aus wie es "soll", jedenfalls unter Windows und mit den allermeisten Anwendungen.

Daher empfehle ich immer wieder, im "Normalbetrieb" in Modi zu schalten, die die Darstellung auf sRGB runterdampfen. Ob am Monitor selbst, im Radeon Control Panel, oder über diese kleine Extra-Applikation für NVIDIA Karten. Außer man steht auf völlig übersättigte Rottöne etc.

Echt ein Trauerspiel dass Microsoft das seit Jahrzehnten nicht in den Griff bekommt.

Ist doch egal was du nimmst. Audio ist jämmerlich implementiert, Farbräume werden behandelt als wäre es irgendwas Exotisches für Nischen-Nerds und die Leute feiern schlechtes HDR ab wie vor >10 Jahren die HDR-Fotografie (a.k.a. let's rape dynamics in the ass)...

Egal wo du hinschaust, sobald du dich um etwas halbwegs ernsthaft kümmerst dann hast du verloren :D

That said : Wenn man nie einen kalbrierten Monitor hatte, dann ist es de facto auch egal wenn man eh nur zockt. Man sieht es nicht, man merkt es nicht und daher stört es einen auch nicht.
Hier haben die Leute ja auch 'viel zu günstige' Audiosysteme an ihren Rechnern mit viel Extra Bass damit es wummst in unbehandelten Räumen. Da würde ich auch schreiend rausrennen - aber das nimmt denen ja zum Glück nicht die Freude :)

HOT
2022-12-06, 10:40:19
Eigentlich ist es alleine schon ein Fehler, dass man die ganzen Gaming Monitore mit 8bit + FRC überhaupt als 10bit Monitore vermarkten darf. Praktisch alle Gaming-Monitore mit "10bit", sind nicht wirklich 10 Bit Monitore, sondern 8bit+FRC, sprich Fake-10bit Monitore.

Richtige 10bit Monitore sind nochmals in einer ganz anderen Preisklasse und können auch nur 60Hz liefern. Dort kann man immerhin aber auch von einem deutlichen Unterschied in der Bild- bzw. Farbqualität sprechen.

In deinem Fall würde ich es einfach selber probieren. 120Hz vs. 165Hz spüre ich selber. Da wären mir die 165Hz lieber.
Nebenbei finde ich es ziemlich krass, dass Samsung hier die Frechheit besitzt noch DP 1.2 einzubauen.

Jo blöd. Der G7 mit VA-Panel hat echte 10Bit. Das ist aber nur bei HD-Content sinnvoll nutzbar und das kann gar kein G7 gut.

Niall
2022-12-06, 10:47:04
Jo blöd. Der G7 mit VA-Panel hat echte 10Bit. Das ist aber nur bei HD-Content sinnvoll nutzbar und das kann gar kein G7 gut.
Selbst bei HD Content hast Du von 10Bit Color Depth erstmal null komma nüscht.

MAX|HASS
2022-12-06, 14:59:14
Tja, höre gerade, bei meiner Abgabe-Adresse ist das Paket gerade eingetrudelt. Ein bis zwei tage vor dem vorhergesagten Eintrudeltermin :mad:/:). Vielleicht kann ich nachher schon was berichten.

Am meisten wird mich folgendes interessieren: wie ist die Qualität des low-budget-Samsung Im Vergleich zu meinem 6 Jahre alten BenQ mit AHVA-IPS.

aufkrawall
2022-12-06, 15:09:20
Wenn du kein Gurken-Panel bez. Bleeding und Dead/Stuck Pixel erwischst, sollte es an dem Gerät laut rtings nur wenig auszusetzen geben: https://www.rtings.com/monitor/reviews/samsung/odyssey-g5-s27ag50
Hat mit VRR offenbar gar kein Overdrive :freak: , aber dafür ist das Panel auch so recht fix.

MAX|HASS
2022-12-06, 15:59:56
Ich kenne den Artikel ja, hatte oben auch den Vergleich zur Standart-Empfehlung von LG verlinkt https://www.rtings.com/monitor/tools/compare/lg-27gp850-b-vs-samsung-odyssey-g5-s27ag50/24452/26280?usage=3623&threshold=0.10 .

Ich spiele immer sehr minimalistisch. Nicht billig, aber habe eben wenig Interesse an neuen Technologien. Manches begeistert mich dann doch (wie freesync zum beispiel), aber so einige sind einfach nur verkaufsfördernde Argumente ohne Mehrwert. Wecken eines Bedarfes, wo keiner existiert. So wie obiges shiiit HDR, Hauptsache, wir dürfen es auf den karton drucken. Gleich neben einer ms-Zahl, die nicht relevant ist und Kontratwerten, die keine Aussagekraft haben. Daher kann ich im Moment auch mit VRR wenig anfangen. Googel aber gleich mal.

Ich muß generell erstmal ein bisschen gucken. Ich war nie bekümmert, mich damals nicht für 144hz entschieden zu haben. Meine 3060ti schafft nicht mal bei derzeit aktuellen Spielen überall die gleiche Anzahl an fps. Nun sollen schnelle panels aber dann noch "spürbar" sein, wenn man zB. wie ich bei 60Bilder/s spielt. 60fps auf einem 144hz-Panel sollen sich noch besser anfühlen als 60fps@60hz. Allerdings habe ich dann wiederum keine Ahnung, was passiert, wenn man (und das werde ich wollen) mit freesync spielt. Spiele ich dann im grunde doch @60hz, weil freesync ja die Frequenzen an die Bildraten anpaßt? Und fühlt sich das dann immer noch besser an? Weil rtings zeigt ja auch auf bei den Monitortests: bei 60hz auf einem 144hz-Bilddschirm verringern sich immer auch die responsetimes. Ich werde von so einigem erstmal keine Ahnung haben, da brauche ich erstmal ne halbe Stunde für.

Ich hatte auch schon von Leuten gelesen, die halten wie ich beileibe nicht in jedem Spiel ihre 144fps. Die begrenzen dann auch weit weit darunter, weil es eben Momente gibt, wo sie zB. unter 90fps gelangen und dann fühlt sich alles plötzlich alles jaggy an. Da muß ich erstmal ein bisschen probieren, was wenn wann passiert.

**edit: ach, jetzt wo ich nochmal drüber lese, es wird variable refresh rate sein, also freesync etc.

Asaraki
2022-12-06, 16:06:46
. Nun sollen schnelle panels aber dann noch "spürbar" sein, wenn man zB. wie ich bei 60Bilder/s spielt. 60fps auf einem 144hz-Panel sollen sich noch besser anfühlen als 60fps@60hz. Allerdings habe ich dann wiederum keine Ahnung, was passiert, wenn man (und das werde ich wollen) mit freesync spielt. Spiele ich dann im grunde doch @60hz, weil freesync ja die Frequenzen an die Bildraten anpaßt? Und fühlt sich das dann immer noch besser an? Weil rtings zeigt ja auch auf bei den Monitortests: bei 60hz auf einem 144hz-Bilddschirm verringern sich immer auch die responsetimes. Ich werde von so einigem erstmal keine Ahnung haben, da brauche ich erstmal ne halbe Stunde für.


Egal welches Signal : Schneller ist immer besser. Bei 60fps @ 144hz hast du alle 144/60 Frames ein neues Bild. Je schneller das Panel, desto eher siehst du das neue Bild. Wenn es zu lange dauert entsteht da ein spürbares Stück Lag. Zwischen diesen Bildern dürfte es mathematisch gesehen keinen Unterschied machen, aber bei der ganzen Processing Magic wäre ich da nicht mal so sicher.

Falls du dich mit Audio auskennst, dann kannst du das sehr gut mit Boxen vergleichen, die zwar eine unglaubliche Range haben (von mir aus 20hz-20khz) aber die Treiber (oder oft das Gehäuse) nicht in der Lage sind schnell genug zu reagieren. Dann hast du trotzdem immer Matsch, völlig egal wie teuer die Boxen waren und dass die Range "die Beste der Welt ist". ^^

Ganz streng genommen funktioniert der Monitor nur perfekt bei einem teilbaren Verhältnis von FPS zu Hz. Aber das ist in der Realität (den meisten Leuten) egal.

P.S: Ich bevorzuge z.B. 72fps @ 144hz, da ich zwar 165hz könnte aber das nicht mehr teilbar ist :D (Jk, ich nehme an das ist irgendein teilbarer 164.xx oder so, aber 72 ist perfekt für Sims/Aufbauspiele etc und dann bleibt der PC schön kühl)

aufkrawall
2022-12-06, 16:09:49
Wofür gibt es wohl VRR.

MAX|HASS
2022-12-06, 21:14:04
Also. Angeschlossen, ausprobiert. Für insgesamt gut befunden.

Keinen einzigen Pixelfehler, wäre schön, wenn da auch die nächsten Tage nichts mehr auftaucht. Aus dem Grunde am Anfang immer gleich mal paar Stunden mit arbeiten, damit jeder Pixel gleich weiß, was er die nächsten 7 Jahre zu tun hat.

Gutes Bild, links unten blutet er ein bisschen, wenn der Monitor weiter unten auf seiner maximalen Höhe ist (und damit nicht auf Gesichtshöhe). Tut nicht weh, aber mein AOC 24G2U5 (Dez.19 für 119€ gekauft) hat dagegen ein hammerhomogenes Bild, nämlich komplett schwarz. Hat mich damals schon für ein IPS gewundert. Ich habe bisher in zwei reviews gelesen, anhand der von Samsung herausgegebenen Panel-ID hätte man identifiziert, daß hier auch ein LG-Panel verbaut wurde. Hier beim Bluten paßt das wie Arsch auf Eimer, genau dort unten links sind auch die ganzen GP850 nicht völlig schwarz. Aber das ist minimal, da gibt es nichts zu meckern. Muß ja schon froh sein, ohne Fehler und halbgrauen Bild durch die Lotterie gekommen zu sein. traurig.

Unter'm Strich ist aber einfach alles an dem Ding Standard, weswegen ich oben schrieb, insgesamt gut. Das ist ein hundsgewöhnliches Consumer-Produkt für den schlanken Taler. Nichts, was man nicht schon 2015 in der Form hätte kaufen können. Aber gut, den Stillstand kennen wir ja schon. Freue mich wie gesagt über das gute Bild und schnell ist er auch.

Diesbezüglich (Schnelligkeit) nochmal zu VRR. Ja, aktiviert man es, kann man einige Optionen nicht mehr onthefly ändern. Stellt man aber erst zB. 120hz ein, bleiben die auch erhalten, wenn VRR dann aktiviert wird. Wäre ja auch noch schöner. Anders sieht es beim overdrive aus, hier sehe ich nämlich keinen Unterschied. Egal, ob Standard oder schneller, mit VRR sehe ich hier keinen Unterschied. ich muß daher auf rtings's Testergebnisse vertrauen, daß sich die gemessene Reaktionszeit um diese 1,5ms da erhöht oder was das war. Unter#m Strich ist das Wurst, das panel ist wirklich schnell, steht meinem kleinen 24" ips "gaymer"-TFT in nichts nach. Ich habe dafür auch noch orbmuk (oder wie der hieß) sein VRR-tool runtergeladen, ja, wenn man @60fps mit VRR spielt, wird auch das panel auf 60hz runtergefahren. Und trotzdem sehe ich nicht, daß hier was gefühlt langsamer wird. Ist ok.

Generell kann man auch schon mal mit VRR aus spielen, je mehr hz anliegen, ist ja bekannt. Bei FH5 fiel mir vorhin bei beispielhaften 120hz schon kein Verriß mehr auf, bei Anno 1800 war es noch leicht wahrzunehmen. Diese scheiß Anno-engines sind aber leider schon seit 20 Jahren anfällig dafür, obwohl du nur von links nach rechts scrollst. Probiere nachher aber nochmal ein bisschen mit allen hz-Stufen, VRR an/aus, mal gucken. und eben auch 165hz, freesync aus, vielleicht sieht man da gar nichts mehr, auch wenn ich dann wieder mit 60fps weiter spiele.

Ist dieses 1:2-Verhältnis für irgendwas wichtig? Las vorhin oben was mit gecappten 72fps bei 144hz (wenn es schon nicht für 144/144 reicht), ist das noch "ruhiger"?

Ach, HDR fällt mir gerade noch ein. Wenn man es in W10 aktiviert, wird ja der Monitor kurz dunkel, rappelt sich neu ein. Das Bild sieht dann in der Tat ganz anders aus, da wird also auch auf dem Desktop was völlig anderes ausgegeben. Habe Forza dann auch mal auf HDR umgestellt und konnte erstmal nicht sagen, ob es nun einfach anders aussieht oder auch besser. Aber wenn man dann HDR wieder ausmacht, wirkt das Bild doch sehr platt im Vergleich. Komisch. Muß man da eigentlich nichts mehr im Treiber umstellen? Nur Windows? Hätte mal 165hz einstellen und dann in Windows auf HDR umschalten sollen vorhin. Dürfte ja eigentlich nicht gehen bei DP1.2. Mache ich später noch zum probieren.

So, mehr gibt es auch nicht zu sagen. Alles auf gutem Niveau, es existieren 25 andere Monitore mit den Eigenschaften. Ja, manche sind über 100€ teurer. Wollen wir hoffen, daß Samsung nicht wieder Billig-Kondensatoren u.ä. verbaut hat, die nach 4 Jahren plötzlich aufquellen, nur um den Preis realisieren zu können. Andere sind aber wahrscheinlich auch gut dabei, mit so Pfennig-Artikeln kleine Schweinereien am Kunden zu provozieren.

Wer aufmerksam gelesen hat, konnte sehen, daß ich an die nähere Zukunft denke. Das bedeutet, daß er Stand heute Abend glaube ich da bleibt. Gerade mal ein gutes Ding gekriegt, will man nicht wieder auf die Suche gehen nach einem anderen und noch besserem Exemplar.

aufkrawall
2022-12-06, 21:21:59
Besser wirst du in der Preisklasse eher nicht bekommen. Für ein garantiert Bleeding-freies Ergebnis braucht es bei IPS gegen Druckstellen evtl. eine aufwändigere Panel-Aufhängung im Gehäuse, die eher bei Highend zu finden sein dürfte, sofern Hersteller da nicht auch mit dem Begriff "Gamer" verarschen und abzocken.
Gibt massiv teurere 27" 1440p Nano-IPS-Geräte, die für etwas bessere Reaktionszeiten fast die Hälfte an Kontrast wegschmeißen und vermutlich eher noch übleres Bleeding haben...

Asaraki
2022-12-06, 22:00:30
Aus dem Grunde am Anfang immer gleich mal paar Stunden mit arbeiten, damit jeder Pixel gleich weiß, was er die nächsten 7 Jahre zu tun hat.


:D Nice one.

Von wegen 72 aus 144. Wenn VRR gut läuft dann ist das auch wieder egal. Ist ein rein mathematisches Ding, je weniger du daran denkst desto weniger fällt es auf, von daher.... scheiss drauf und geniess den Monitor <3

MAX|HASS
2022-12-06, 22:27:46
Ich hatte ja oben geschrieben, daß ich Eigenschaften aus meinem 24"er und dem 27"er vereinen wollte.

Den 27"er Benq hatte ich 2015/16 über Kleinanzeigen gekauft. 200€, gleich um die Ecke. Ein fast fertiger Student, der zurück nach Stuttgart ging, hatte den des guten Bildes (siehe oben AHVA-IPS) gekauft. Zu dem Zeitpunkt war er nicht mal ein Jahr alt und Geizhals rief noch fast 420€ für neu auf. Den mußte ich einfach mitnehmen. Das Bild ist wirklich gut, leider kein Sync, aber das störte mich damals nicht. Mit 58fps war immer alles tutti, bis auf genannte scheiß Anno-Engines.

Dann kam Dez. 2019, RDR². Die 1070 ging in die Knie oder runterstellen auf Quake-Niveau. Das war der Zeitpunkt, wo plötzlich die ganzen kleineren IPS aufploppten, also mal Richtung 24 Zoll geschaut. Spiele-Monitor sollte er sich schimpfen. Die AOC schnitten sehr gut ab, war mir nicht sicher, ob der mit 75hz oder 144hz. Dann kam der 19.12. und das 75hz-Modell ging für einen einzigen (bis heute) Tag auf 119€ runter, da habe ich den einfach bestellt. Hatte rein gar nichts erwartet, aber wurde wirklich positiv überrascht. Total gutes IPS-Bild, vernünftige Schwarz-Werte und gesynct, welch ein Traum. Es dauerte eine Woche und ich hatte meinen 27er vergessen. Mochte es plötzlich, wieder alles so mit einem Blick im Auge zu haben + bessere flow überhaupt. Schaltzeiten etc. und 75hz sind eben auch 25% mehr als 60hz. Uuuuuund, deswegen ja alles: die 1070 hatte plötzlich wieder fast 70% mehr Luft und hielt noch bis Sommer 2022 durch! Hossa!

Stichwort vereinen: durch die vor wenigen Monaten verbaute 3060ti ergab sich wieder ein bisschen mehr Luft und zudem merke ich langsam mit der 4 vorne, daß Fissel-Spiele wie 1800.. naja, man rückt manches Mal schon näher an den TFT, um zu gucken, ob man den Baum da richtig rum pflanzt. Comprende? Daher wieder eine Stufe rauf auf 27 Zoll, aber eben mit freesync. Komischerweise ist es nur Anno, bei anderen Spielen wie shootern und Renn-Kram stört einen das ja nicht, schön grob alles. Im Grunde hätte mir ein 27er mit 60 oder 75hz auch vollkommen ausgereicht. Ich müßte jetzt schon andertalb € auf den Tisch legen, um ne Karte zu kaufen, die 1440p durchgehend mit über 100fps schafft. Da habe ich kein Bock zu und mit UE5, Stalker2, Atomic Heart etc. kommen bald Spiele, da kannste meine ti gleich wieder wegschmeißen.

Ich habe nun also 280€ ausgegeben, um best of both worlds zu bekommen. Toll oder? Und werde trotzdem mit 60fps weiterspielen.. :facepalm: Dafür fliegt der Benq jetzt in den Müll, kannste nicht mehr gebrauchen, wenn du erstmal an freesync gewöhnt bist. Vielleicht Kleiderschrank, mal gucken. Auf jeden Fall dableiben tut der 24" AOC. Der hat mir soviel Freude bereitet und vielleicht brauche ich den bald wieder für neuere Spiele :redface:.

Zickt nV eigentlich noch rum, wenn man zwei Monitore anstöpselt, verbrauchstechnisch, trotz Leerlauf aufn Desktop zum Beispiel?

aufkrawall
2022-12-06, 22:32:36
Zickt nV eigentlich noch rum, wenn man zwei Monitore anstöpselt, verbrauchstechnisch, trotz Leerlauf aufn Desktop zum Beispiel?
Kann dir keiner sagen, da abhängig von GPU, Treibern und Monitoren. Generell ist Multi-Monitor ein Tor zur Bug-Hölle.

MAX|HASS
2022-12-06, 23:31:02
Nur falls ich mich mal entschließen sollte, tatsächlich den kleineren noch mit dranzuhängen.

Bisschen rumgespielt. Anno 1800 teart bei 165hz (aber gedrosselt auf 60fps) ohne vrr minimalst. So wenig, daß ich die Millisekunde kaum wahr nehme. Forza5 zeigt überhaupt keine Auffälligkeiten oder ich nehme sie noch weniger wahr. GTA5 ganz anders: teart schon auf dem Bürgersteig beim gehen. Also mal Monitor auf 60hz runtergedreht, aber vrr aus beibehalten. Teart fröhlich weiter. Es geht aber mit 60/60, wenn man im Spiel selber 165hz einstellt. Da blicke ich nicht mehr dran lang. Zumal ich im Treiber unter bevorzugte Aktualisierungsrate "Höchste verfügbar" und nicht "anwendungsgesteuert" eingestellt habe.

Da muß ich nochmal gucken, was für mich das beste wäre. Vielleicht ein bisschen Geschwindigkeit mitnehmen und 75fps mit vrr machen, also demnach auch 75hz. Mal gucken.

aufkrawall
2022-12-06, 23:42:43
VRR an, Vsync an, fps-Limiter an und nicht weiter drüber nachdenken, ob VRR an oder aus.

MAX|HASS
2022-12-06, 23:52:08
Denke auch. Schließlich habe ich ihn ja gekauft, um groß+sync zu haben. Obwohl bei 60/60 dann natürlich 100hz verschenkt sind :wink:.

**edit: aaaaah, gerade gelesen, auch FSR3 soll ja irgendwann nächstes Jahr zu haben sein. Wollen wir hoffen, daß es gut umgesetzt wird, dann entsteht da wieder ein bisschen Puffer (welcher wahrscheinlich wieder bei dem einen oder anderen Entwicklerstudio dadurch aufgefressen wird, daß man vorzeitig die Optimierungsarbeiten einstellt, gerade weil den letzten Rest dann die upscaler erledigen sollen). Und vielleicht öffnet sich dlss3 ja doch nochmal für die 3er Reihe, falls das technisch überhaupt geht.