PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-Sync einrichten


Lawmachine79
2020-05-25, 23:37:31
Hey Leute, mein neuer Ilyama 34" ist das - wir richte ich ihn für G-Sync ein?

Habe in der NV-Systemsteuerung bei Monitortechnologie "G-Sync-Kompatbilität" eingestellt, außerdem in "G-Sync einrichten" G-Sync für Fenster- und Vollbild eingestellt.

Was muss ich denn bei Vertikale Synchronisierung a) im Treiber und b) im Spiel einstellen?

Dytec
2020-05-25, 23:51:13
Hallo Lawmachine, du musst im Treiber nichts weiter einstellen. In den Spielen dann VSync deaktivieren (oder direkt auf GSync sofern das Spiel dies erlaubt) und fertig.

Andi Y
2020-05-26, 00:53:19
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/
Da steht alles drin.

Mache ich auch so und läuft gut.
Also Treiber G-SYNC Compatible an und V-SYNC an.
Zusätzlich noch Framelimit im Treiber, bei mir auf 73 da Monitor bis 76 Hz geht und Low Latency Mode auf ON.
Im Spiel Sync aus, ebenso Double und Triple Buffer.

Lawmachine79
2020-05-26, 01:46:44
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/14/
Da steht alles drin.

Mache ich auch so und läuft gut.
Also Treiber G-SYNC Compatible an und V-SYNC an.
Zusätzlich noch Framelimit im Treiber, bei mir auf 73 da Monitor bis 76 Hz geht und Low Latency Mode auf ON.
Im Spiel Sync aus, ebenso Double und Triple Buffer.
Du meinst G-Sync an, nicht V-Sync, richtig? Edit: schon gut, in dem Guide steht auch V-Sync.

Wieso das Framelimit im Treiber? Und wieso nicht 76? Meiner hat 144, stelle ich da nicht 144 ein?

Andi Y
2020-05-26, 10:45:47
Zitat: "Set (a minimum of) 3 FPS limit below display’s maximum refresh rate (57 FPS @60Hz, 97 FPS @100Hz, 117 FPS @120Hz, 141 FPS @144Hz, etc)."

Weil der Limiter dafür sorgt, dass du nie über die 144 kommst (3 Frames zur Sicherhat, ist ja nicht ganz exakt). So hast du dann auf jeden Fall kein Tearing und weniger Input-Lag falls die Framrate mal über 144 in deinem Fall geht, gerift dann nur V-Sync, was mit Input-Lag verbunden ist. Du bleibst halt dann definitiv in der G-Sync Range.
Beim Limiter kannst natürlich auch RTSS nehmen, ich finde es aber über den Treiber weniger umständlich.

Döner-Ente
2020-05-26, 10:52:27
Wenn er Ultra Low Latency einschaltet, fungiert das automatisch als Frame Limiter, bei 144 Hz mit 138 Fps. Da ULL bei DX 12 und Vulkan nicht greift, braucht man dafür noch extra den Limiter.

Lawmachine79
2020-05-26, 11:07:34
Danke Euch! Also ich dachte ja immer, dass das Schnickschnack ist...aber 144 Hz und G-Sync ist schon krass. Da kann mein 4k 49" Fernseher nicht mithalten.

Doom Eternal sieht nochmal ganz anders aus mit HDR, obwohl der Monitor nur "HD Ready" ist.

Döner-Ente
2020-05-26, 11:12:44
Danke Euch! Also ich dachte ja immer, dass das Schnickschnack ist...aber 144 Hz und G-Sync ist schon krass.


Japp, das ist ein Game Changer ggü. 60 Hz und VSync. Ist nur irgendwie schwer rüberzubringen und muss man selbst erlebt haben, weil man den Vorteil nicht in Balkendiagrammen, Fps oder YT-Videos anschaulich vermitteln kann.

cR@b
2020-05-26, 12:56:24
Wie könnt ihr nur low resolution mit high refreshrate einem 4k vorziehen!? Tststs ihr bösen Puben!

Ganz ehrlich aber ich werde das vermutlich noch die nächsten 10 Jahre genießen. Das Gameplay Feeling ist dadurch einfach smooth as fuck, ich scheiß auf 4k und sogar auf 2k!!!

Blub
2020-05-26, 14:49:36
Wie könnt ihr nur low resolution mit high refreshrate einem 4k vorziehen!? Tststs ihr bösen Puben!

Ganz ehrlich aber ich werde das vermutlich noch die nächsten 10 Jahre genießen. Das Gameplay Feeling ist dadurch einfach smooth as fuck, ich scheiß auf 4k und sogar auf 2k!!!


Wie wärs mit 4k bei 120Hz?

Dytec
2020-05-26, 17:53:56
Wie wärs mit 4k bei 120Hz?
Wie wäre es stattdessen mit 34“, 21:9, 3440x1440 @ 120 Hz (GSync) und Quantum Dots?
Wo gibt es das? —>LG 34GK950 G. :)

cR@b
2020-05-26, 17:57:12
Wie wärs mit 4k bei 120Hz?

Tja wenn du dich mit der Materie auseinandergesetzt hättest, würdest du wissen, dass das nichts bringt ;) Mit ner 4K Auflösung sind sogut wie nie 120fps drin (ok außer bei Solitär vielleicht) und damit auch kein Vorteil der 120Hz vorhanden ;)

Gast
2020-05-26, 19:07:33
Japp, das ist ein Game Changer ggü. 60 Hz und VSync. Ist nur irgendwie schwer rüberzubringen und muss man selbst erlebt haben, weil man den Vorteil nicht in Balkendiagrammen, Fps oder YT-Videos anschaulich vermitteln kann.

Noch besser ist allerdings 144Hz strobing backlight.

Blaire
2020-05-27, 14:50:46
Tja wenn du dich mit der Materie auseinandergesetzt hättest, würdest du wissen, dass das nichts bringt ;) Mit ner 4K Auflösung sind sogut wie nie 120fps drin (ok außer bei Solitär vielleicht) und damit auch kein Vorteil der 120Hz vorhanden ;)

Kannst du die Detail-Schalter nicht bedienen oder was hindert dich daran? :) Mit aktuellen SLI Gespannen bist du da sehr häufig in Bereichen > 4K/144fps... -> mit NextGen-Highend dann auch für Single-Grafikkarten in Reichweite ;) Außerdem genug Optionen dank verschiedener Scaling-Methoden stets ein ordentliches Ergebnis zu erhalten, falls einige Games etwas anspruchsvoller zu Werke gehen sollten.
Darüber hinaus bieten höhere Bildwiederholfrequenzen auch dann Vorteile, wenn du die anvisierten 120fps@120Hz nicht erreichst (Stichwort: Reaktionszeit, Bewegtschärfe, Ruckler+Tearing Minimierung etc.)

TommyLee
2020-05-27, 17:05:55
In Anlehnung an den "Leitfaden" oben: Ich habe nicht alles zu 100% so eingestellt, habe ich dadurch irgendwelche Nachteile?

Ich habe ne GTX 1070 (siehe mein anderer Beitrag da) und an der hängt ein AOC 24g2u5/BK, 75hz.

Im Treiber ist eigestellt: Latenz-Modus nur "ein" (nicht Ultra). Vertikaler Sync ganz unten im Menü auf aus (in Spielen auch). FPS gedeckelt (früher Afterburner, jetzt auch nur noch ausschließlich über's Menü). Unter "G-Sync einrichten" und unter den 3D-Einstellungen ist das Richtige aktiviert.

Merke ich das jetzt, wenn ich ohne vsync spiele? Durchbrechen nach oben können die fps ja nicht. Und was würde sich ändern, wenn ich den Latenzmodus auf Ultra stellen würde?

Döner-Ente
2020-05-27, 18:56:37
Merke ich das jetzt, wenn ich ohne vsync spiele? Durchbrechen nach oben können die fps ja nicht. Und was würde sich ändern, wenn ich den Latenzmodus auf Ultra stellen würde?


Wenn du die Fps knapp unterhalb der GSync-Range gecapped hast, imho nicht. VSync bei GSync ist innerhalb der Gsync-Range nicht aktiv und wird oberhalb der Gsync-Range aktiv, um Tearing zu verhindern - was nicht passieren kann, wenn du die Fps limitierst. In Kombination mit einem Framelimiter ist VSync=On bei Gsync quasi nur der allerletzte Rettungsschirm, falls der Limiter wider Erwartungen irgendwo mal nicht greift.
Latency auf Ultra...probiere es aus, gibt imho nochmal nen merklichen Schub in Richtung niedrige Eingabelatenz und das (zumindest hier und bisher) ohne Nachteile.

TommyLee
2020-05-27, 19:25:11
Hm, ich hatte das ja schon mal eingeschaltet. Konnte da keinen Unterschied feststellen.

Zu dem vsync: Das hatte mich ja oben gewundert. Latenzmodus, vsync, irgendwie fungiert alles als limiter unter gysnc und dann nochmal obendrein selber limitieren unterhalb der eigentlich möglichen refreshrate? Kann ich doch auch selber drunter halten?! Das meinte ich ja.

Andi Y
2020-05-27, 20:42:25
Nachteil ULL auf Ultra, die Grafikkarte taktet immer volle Luzi.

TommyLee
2020-05-27, 22:06:51
Wirklich? Trotz der Einstellung "Optimale Leistung" in diesem Energie-Reiter da?

Im Moment finde ich es ja gerade gut, daß die Karte nur auf 50% Takt dahin dümpelt und dennoch nicht völlig dicht ist bis obenhin. Naja, niedrige, gedeckelte fps halt.

Andi Y
2020-05-27, 23:47:46
Zumindest bei mir.
World of Tanks mit "ON" 1200 Mhz mit "Ultra" 1985 Mhz je nach Temperatur (Max Frames auf 73 im Treiber).
Zur Info: Ultra kappt bei einem 75 Hz Monitor auf 73,4 Frames automatisch (DX 11).

TommyLee
2020-05-28, 09:37:56
Schaue ich mir nachher bei mir mal an.

Ich probiere nebenher noch, einen 27"er IPS mit anzustöpseln als Zweitmonitor (der ist ohne freesync), da fällt mir das tearing schon auf. Mit vsync kriege ich den ja wieder beruhigt, aber ich will doch nachher mal schauen, ob ich dann auch mit Latenz Ultra den vsync-bedingten lag etwas rauskriege. Ein Novum für mich, habe ich in meinem ganzen Leben noch nicht benutzt. Noch nie, nicht eine Stunde.

cR@b
2020-05-29, 00:20:39
Kannst du die Detail-Schalter nicht bedienen oder was hindert dich daran? :) Mit aktuellen SLI Gespannen bist du da sehr häufig in Bereichen > 4K/144fps... -> mit NextGen-Highend dann auch für Single-Grafikkarten in Reichweite ;) Außerdem genug Optionen dank verschiedener Scaling-Methoden stets ein ordentliches Ergebnis zu erhalten, falls einige Games etwas anspruchsvoller zu Werke gehen sollten.
Darüber hinaus bieten höhere Bildwiederholfrequenzen auch dann Vorteile, wenn du die anvisierten 120fps@120Hz nicht erreichst (Stichwort: Reaktionszeit, Bewegtschärfe, Ruckler+Tearing Minimierung etc.)

Doch aber bringt bei einer Karte einfach nix ;) Und bitte Blaire fang nicht mit SLI an! Das ist das schlimmste was es je gab... bis Heute nach bereits 10 Jahren oder so absolut unausgereift diese Technologie :rolleyes: Kommt mir NIE wieder in den Rechner dieser Multi GPU Bullshit.

Die höheren Bildwiederholfrequenzen bringen durchaus ein bisschen was, auch unterhalb den max. möglichen FPS, trotzallem kein Vergleich durchgehend oben rum zu sein! Ich merke sofort, auch wenn G-Sync einen tollen Job macht was Ruckler anbelangt, sobald die Frames zwischen 60-80 rumgurken...

Also von daher geht m.E. nix über 1080p + 144Hz, zumindest nach meiner eigenen Erfahrung.

Blaire
2020-05-29, 01:10:56
Die höheren Bildwiederholfrequenzen bringen durchaus ein bisschen was, auch unterhalb den max. möglichen FPS, trotzallem kein Vergleich durchgehend oben rum zu sein! Ich merke sofort, auch wenn G-Sync einen tollen Job macht was Ruckler anbelangt, sobald die Frames zwischen 60-80 rumgurken...

Also von daher geht m.E. nix über 1080p + 144Hz, zumindest nach meiner eigenen Erfahrung.

Liegt ja an dir, weniger an der Technik und wenn du dich ggü. MultiGPU verschließt ebenfalls. Ist ja auch nichts schlimmes, nur solltest dann nicht so argumentationslos falsche Tatsachen wiedergeben. Nichts für ungut. :)

TommyLee
2020-05-29, 01:26:57
Liegt ja an dir, weniger an der Technik und wenn du dich ggü. MultiGPU verschließt ebenfalls.

Man muß sich nicht mal mehr aktiv verschließen. Die Technik ist tot.

Nun muß man ja um tot zu sein erstmal lebendig gewesen sein und war SLI jemals lebendig? Nein.

Blaire
2020-05-29, 10:03:34
Man muß sich nicht mal mehr aktiv verschließen. Die Technik ist tot.

Nun muß man ja um tot zu sein erstmal lebendig gewesen sein und war SLI jemals lebendig? Nein.

Das gleiche gilt auch für dich, wäre ja schon aus Prinzip und deiner Fragestellung heraus, sehr ratsam erstmal die eigenen Wissenslücken rund um VSync zu schließen und das beurteilen von SLI-/MultiGPU-Tech denen zu überlassen, die sich auch damit auskennen. Zusammenhanglos zu zitieren muss ja auch nicht sein.

Andi Y
2020-05-29, 11:20:20
@Blaire
Nachteil ULL auf Ultra, die Grafikkarte taktet immer volle Luzi.

Ist das so gewollt das die GPU bei Ultra voll aufdreht, zwecks Mehrbelastung?
Bei On alles normal.

TommyLee
2020-05-29, 11:30:47
Das gleiche gilt auch für dich, wäre ja schon aus Prinzip und deiner Fragestellung heraus, sehr ratsam erstmal die eigenen Wissenslücken rund um VSync zu schließen und das beurteilen von SLI-/MultiGPU-Tech denen zu überlassen, die sich auch damit auskennen. Zusammenhanglos zu zitieren muss ja auch nicht sein.

Meine Wissenslücken bzgl. vsync haben absolut nichts mit der Situation von MultiGPU zu tun. Gar nichts.

Es ist kein Hirngespinst, wenn man schreibt, das diese Technologie tot ist. Immer tot war, da nur von wenigsten "Enthusiasten" genutzt. Heute quasi mumifiziert, da kaum noch von einem Spiel unterstützt. Ich kenne deine Nähe zu einem bestimmten Hersteller, aber wenn diese auch nur annähernd noch etwas darauf geben würden, wären wir heute diesbezüglich in einer ganz anderen Lage.

Wir haben das Jahr 2020 und noch immer spielen laut dem mir größten bekannten öffentlich einsehbaren Spielerpool (Steam) etwa 75% aller Spieler mit 1080p oder sogar darunter (ich auch, wieder). Für wen soll sich irgendjemand auch nur die Mühe machen, da noch etwas zu investieren? Aus diesem Grunde macht es auch keiner mehr.

MartinRiggs
2020-05-29, 12:15:37
Mich würden eher die Erfahrungen zu dem günstigen iiyama vom Threadstarter interessieren.

Preis ist klar ok, aber wie ist das Panel, Verarbeitung etc.?

PH4Real
2020-05-29, 12:19:49
Mich würden eher die Erfahrungen zu dem günstigen iiyama vom Threadstarter interessieren.

Preis ist klar ok, aber wie ist das Panel, Verarbeitung etc.?

Würde mich auch interessieren - insbesondere da ich mit den LG 34GN850 liebäugel, aber der ist fast doppelt so teuer...

Lawmachine79
2020-05-29, 13:51:23
Also ich bin beeindruckt von dem Monitor. Ich bin aber auch unempfindlich was Backlight Bleeding/Lichthöfe angeht, wenn es da objektivierbare Tests gibt, mache ich die gerne.

Das Bild ist top; die Farben sind nicht ganz so "satt" wie auf meinem BenQ PD2700Q (auch IPS, Zweitmonitor), aber das ist verschmerzbar. Tja, ansonsten weiß ich nicht was ich sagen soll, das Bild ist besser als auf meinem VA-Home Office Monitor (bis auf das "schwarz" "grau" ist, aber das ist bauartbedingt), über TN müssen wir nicht reden und die anderen Eigenschaften wie 144Hz, G-Sync usw. sind ja Eigenschaften, die sich immer identisch gestalten. G-Sync funktioniert übrigens problemlos über NV-Treiber, man sollte darauf achten, dass man die Skalierung nicht über "Anzeige" sondern "GPU" machen lässt, sonst hat man mit G-Sync eine flackernde rechte Bildhälfte.

Der Rahmen des Monitors ist angenehm dünn, er wirkt insgesamt kleiner als erwartet (er ist halt so flach wie ein 27"er), die Verarbeitung ist gut. Die Menüführung ist scheiße, weil die Knöpfe unten auf der Rückseite sind, hatte aber nie einen Monitor, der das gut gelöst hast (wobei doch, das waren aber alles CRT-Monitore). Insgesamt verursacht der Monitor bei mir einen durchaus angemessenen Ständer beim Zocken. Es ist alles so derbe flüssig und das Bild so scharf und perfekt, aber das macht jeder Monitor mit IPS, 144hz, der Pixeldichte und G-Sync genauso gut (wahrscheinlich - ich habe ja keinen Vergleich).

cR@b
2020-05-29, 16:32:47
Liegt ja an dir, weniger an der Technik und wenn du dich ggü. MultiGPU verschließt ebenfalls. Ist ja auch nichts schlimmes, nur solltest dann nicht so argumentationslos falsche Tatsachen wiedergeben. Nichts für ungut. :)

Das liegt sicher nicht an mir ;) Ich habe meine Erfahrungen mit SLI gesammelt und weder AFR noch SFR sind in der Lage für ein ruhiges Bild analog einer Single GPU zu sorgen!!! -> demnach keine falschen Tatsachen. :rolleyes: Ich weiß nicht warum du hier die Werbetrommel für eine beschissene Technologie rührst!?

Und um auf das eigentliche Thema zurück zukommen, schafft eine Single GPU bei 4k in den meisten Games einfach keine 100-120 fps durchgehend. Alles unter 100fps fühlt sich trotz G-Sync nicht so geschmeidig an wie über 100fps. Probier das mal mit den entsprechenden Games aus. Das sind Welten und dieses Spielgefühl ist unschlagbar und > jede 4k Auflösung.

Ich finde es halt immer wieder nur lustig, dass die Daseinsberechtigung diverser 1080p Monitore in Frage gestellt wird. Sorry aber sie erfüllen voll und ganz ihren Zweck, Punkt aus um...

TommyLee
2020-05-29, 17:16:35
Ich finde es halt immer wieder nur lustig, dass die Daseinsberechtigung diverser 1080p Monitore in Frage gestellt wird. Sorry aber sie erfüllen voll und ganz ihren Zweck, Punkt aus um...

Na, hat doch aber hier keiner im Beitrag getan :wink:.

Wenn ich diesbezüglich schreibe, daß ich fast 5 volle Jahre auf oben genanntem 27"er gespielt habe und Weihnachten 2019 zurück bin auf 1080p, dann springt dem einen oder anderen vermutlich der Draht aus der Mütze. Vordergründig war es wegen RDR2, weil die alte labbrige 1070 da ganz schön schnaufen mußte (**edit: hat aber ihre 60fps gehalten, im Gegensatz zum Prozessor, der in St. Denise gerne mal auf 50 einsackte). Nun aber hunderte € für eine aktuelle Karte ausgeben, um das aufzufangen, sah ich auch nicht ein. Also zugeschlagen bei einem Angebot von A*azon, 115€ für 24" IPS (https://www.youtube.com/watch?v=oRtj0Ur5Bbc). Es hat mich 6 volle Wochen gekostet, mich daran zu gewöhnen, aber dann fing es an, daß ich wie früher mochte, alles wieder so direkt im Blickfeld zu haben (ich sitze nur ca. 40cm vom Bildschirm entfernt). So bla bla, Mitte der Woche hatte ich den alten 27" nochmal reaktiviert und bräuchte jetzt wieder einige Wochen, um mich zurückzugewöhnen. Mir ging es tierisch auf die Nüsse, wie lang mir die Mauswege vorkamen. Ich habe in die Mitte des Displays geguckt und konnte an den Rändern schon nichts mehr sehen, ohne mich richtig da hinzudrehen, teils aus meiner Position den Kopf zu erheben. Bei NFS-igen Spielen scheißegal, bei Fisselkram wie Company of Heroes, Anno usw. nicht. Tja, das war beim Kauf mal anders, da überwog eindeutig die Geilheit auf die schiere Größe. Habt ihr sowas abgespactes schon mal gelesen? :biggrin:

Blaire
2020-05-29, 18:10:08
Meine Wissenslücken bzgl. vsync haben absolut nichts mit der Situation von MultiGPU zu tun. Gar nichts.

Es ist kein Hirngespinst, wenn man schreibt, das diese Technologie tot ist. Immer tot war, da nur von wenigsten "Enthusiasten" genutzt. Heute quasi mumifiziert, da kaum noch von einem Spiel unterstützt. Ich kenne deine Nähe zu einem bestimmten Hersteller, aber wenn diese auch nur annähernd noch etwas darauf geben würden, wären wir heute diesbezüglich in einer ganz anderen Lage.

Wir haben das Jahr 2020 und noch immer spielen laut dem mir größten bekannten öffentlich einsehbaren Spielerpool (Steam) etwa 75% aller Spieler mit 1080p oder sogar darunter (ich auch, wieder). Für wen soll sich irgendjemand auch nur die Mühe machen, da noch etwas zu investieren? Aus diesem Grunde macht es auch keiner mehr.

Ich wollte das Thema SLI/MultiGPU garnicht weiter vertiefen, es ging primär darum aufzuzeigen, das es diese Möglichkeiten gibt! Wenn man diese natürlich ignoriert und nicht in Betracht zieht... tja
Nichts gegen deine Meinung, aber du liegst halt etwas falsch mit deinen Ansichten. Mit immer steigenden Auflösungen wird MultiGPU stets ein Thema bleiben, wenn auch in veränderter Form, ob dir das nun gefällt oder nicht. In Games wie RDR2 ist man froh die Kraft der beiden GPU-Herzen nutzen zu können. Und ja SLI/MultiGPU bringt eben dann Leistung, wenn man sie braucht und wenn es stört, kann man es ja abschalten. Für den Casual-Gamer auch nie gedacht und stellt auch nicht diesen Anspruch. Und das alte "SLI" erhält selbstverständlich bis heute noch offiziellen Treiber + Profile-Unterstützung.
Ich kann dir das auch nicht mal für übel nehmen, denn der Informationsgehalt im Netz speziell zu diesem Thema ist in der Tat rar gesät und von reichlich Vorurteilen geprägt. DX12 hatte es allgemein schwer, man könnte auch von gescheitert sprechen, die mangelnde MultiGPU-Unterstützung seitens der Game-Entwickler ist da nur eine unschöne Begleiterscheinung.

Das liegt sicher nicht an mir ;) Ich habe meine Erfahrungen mit SLI gesammelt und weder AFR noch SFR sind in der Lage für ein ruhiges Bild analog einer Single GPU zu sorgen!!! -> demnach keine falschen Tatsachen. :rolleyes: Ich weiß nicht warum du hier die Werbetrommel für eine beschissene Technologie rührst!?

Na offensichtlich doch! Und ob du etwas gut findest oder nicht, tut überhaupt nichts zur Sache, das muss es auch garnicht. Nur sind dir die Möglichkeiten offenbar nicht ganz bewusst. Zum Glück gibt es genug Optionen um flexibel auf jeden Anwendungsfall vorbereitet zu sein, unabhängig der Auflösung. Einige valide Beispiele hatte ich ja bereits genannt. Nur informieren, das musst du dich schon selber...

@Blaire
Ist das so gewollt das die GPU bei Ultra voll aufdreht, zwecks Mehrbelastung?
Bei On alles normal.

Ultra Low Latency? Nein ist nicht normal, das kann allerdings je nach Game spezifisch variieren , daß die niedrigere Eingabeverzögerung ihren Preis hat und das "just in time" Frame-Scheduling ein wenig mehr Leistung kostet, speziell auf Systemen mit langsameren CPU's.

Andi Y
2020-05-29, 18:44:41
THX, bis jetzt ist es mir nur bei World of Tanks aufgefallen, da dort meine 2070 brav bei 1200 MHz steht da ich nur 73 FPS benötige (G-Sync). Bei RDR2 usw. hat die GPU je eh deutlich mehr zu tun, da fällt es nicht auf.
Ist ein 3600X schon wieder zu langsam :)

Blaire
2020-05-29, 19:39:34
THX, bis jetzt ist es mir nur bei World of Tanks aufgefallen, da dort meine 2070 brav bei 1200 MHz steht da ich nur 73 FPS benötige (G-Sync). Bei RDR2 usw. hat die GPU je eh deutlich mehr zu tun, da fällt es nicht auf.
Ist ein 3600X schon wieder zu langsam :)

Da RDR2 Vulkan/DirectX12 nutzt, bleibt das LL-Feature dort auch wirkungslos. Die Anzahl der pre-rendered Frames wird gameseitig festgelegt. Einige DX12-Titel wie z.b. Battlefield V oder The Division II bieten das auch optional an.

cR@b
2020-05-29, 20:23:07
Na offensichtlich doch! Und ob du etwas gut findest oder nicht, tut überhaupt nichts zur Sache, das muss es auch garnicht. Nur sind dir die Möglichkeiten offenbar nicht ganz bewusst. Zum Glück gibt es genug Optionen um flexibel auf jeden Anwendungsfall vorbereitet zu sein, unabhängig der Auflösung. Einige valide Beispiele hatte ich ja bereits genannt. Nur informieren, das musst du dich schon selber...


Scheinbar liest Du nicht was ich geschrieben habe und gerade Du Blaire solltest die Technologie kennen... SLI ist für mich einfach keine Alternative um high FPS beizubehalten, da es wie bereits erwähnt nach wie vor grottig läuft bzw. nicht vergleichbar mit den Frametimes einer Single GPU ist.

Details für Single GPU runter drehen bringt meistens nur bedingt was und wenn dann muss man manchmal sogar richtig visuelle Abstriche hinnehmen, die eine höhere Auflösung meistens nicht mehr rechtfertigen kann. Aber ich weiß, Hauptsache es stehen viele Pixel auf der Monitorverpackung :ugly: Das erinnert mich stark an die Megapixel einer Digicam... umso höher umso geiler :crazy:

Blaire
2020-05-29, 22:23:24
Scheinbar liest Du nicht was ich geschrieben habe und gerade Du Blaire solltest die Technologie kennen... SLI ist für mich einfach keine Alternative um high FPS beizubehalten, da es wie bereits erwähnt nach wie vor grottig läuft bzw. nicht vergleichbar mit den Frametimes einer Single GPU ist.

Die ist ein öffentliches Forum und wenn du blindlings und auch noch falsch pauschalisierst (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12319801&postcount=12), musst du auch mal mit etwas Gegenwind rechnen. Dir muss SLI ja nicht gefallen, es reicht wenn's mir gefällt! :D Und die 4K bei 120fps sind nun wahrlich keine unüberwindbare Hürde...
Es wäre halt gut, auch mal andere Meinungen zu respektieren und weniger emotional zu reagieren, langsamer werden die nächsten Grafikkarten ja schließlich auch nicht, also... belassen wir es dabei.

Daredevil
2020-05-29, 22:31:16
Wer dauerhaft 4K+120/144 HighFPS spielen will, hat aktuell folgende Optionen:
1. Mit weniger FPS zufrieden sein
2. Auflösung auf WQHD senken
3. Details runterschrauben
4. SLI

Wem das alles zu doof ist, sollte sich keine 4K Kiste holen und HighFPS Gaming wollen.
PS: Ich "arbeite" gerade mit Option 2 und wenn neue Karten da sind mit HDMI 2.1, wird es Option 3 sein. Weil wenn es geht, sollten die 120hz @Gsync auch stable sein. ^^
Insofern ist SLI für den ein oder anderen halt auch eine Option. :)

cR@b
2020-05-30, 01:08:50
Die ist ein öffentliches Forum und wenn du blindlings und auch noch falsch pauschalisierst (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12319801&postcount=12), musst du auch mal mit etwas Gegenwind rechnen. Dir muss SLI ja nicht gefallen, es reicht wenn's mir gefällt! :D Und die 4K bei 120fps sind nun wahrlich keine unüberwindbare Hürde...
Es wäre halt gut, auch mal andere Meinungen zu respektieren und weniger emotional zu reagieren, langsamer werden die nächsten Grafikkarten ja schließlich auch nicht, also... belassen wir es dabei.

Ich pauschalisiere ja nicht ohne Grund. Schaut man sich die Reviews an, wird man oft feststellen, dass man unter 100fps @ 4k liegt, ergo ist es also ein Fakt! Klar kann man Details runterdrehen aber dann gehen halt auch diverse Effekte verloren.

Und SLI sorry... darüber möchte ich nicht mehr reden. Wenn die Technologie so gut und ausgereift wäre, hätte die Mehrheit evtl. schon zwei Karten im Rechner, ich vermutlich auch. Aber nach der Misere damit ist das absolut keine bzw. eine schlechte Option. Scheinbar wirst Du schon zu lange von nV gefüttert und deshalb kannst hierbei garnicht mehr anders als Werbung machen... anders kann ich mir deine Meinung zu SLI nicht erklären......

Also ein guter Rat an die Leute hier, lasst die Finger von SLI! Das ist keine Option sondern eine Zumutung...

TommyLee
2020-05-30, 10:37:36
Das Thema SLI müßte nun in diesem Beitrag hier aber erledigt sein oder? Er hatte doch oben geschrieben, es ging ihm darum, aufzuzeigen, daß es diese Möglichkeit gibt und ja, das kann man unterschreiben. Auch wenn es fast keiner nutzt, es gibt SLI. Punkt.

Wenn die Technologie so gut und ausgereift wäre, hätte die Mehrheit evtl. schon zwei Karten im Rechner, ich vermutlich auch.

Das glaubst aber auch nur du. Du darfst nicht vergessen, wenn du hier, im Luxx oder bei Computerbase bist, befindest du dich in Foren, wo ein großer Teil seine Freizeit damit verplempert, Videospiele zu spielen. Ja, es ist so, Hobby hin oder her, das sind teilweise geeks, bei denen die Spieldauer jenseits von Gut und Böse liegt (solche Phasen hatte ich auch mal vor langer Zeit).

Das ist aber nicht die Masse. Wenn SLI gut wäre, würden es dann vielleicht über 1% nutzen. Bei der überwältigenden Mehrheit wird es aber so sein, daß dort immer noch die 250/300€-Grenze im Kopf ist, welche auf keinen Fall überschritten wird. So würde ich auch behaupten, daß diese Mehrheit nicht mal weiß, daß es die Möglichkeit zweier GPUs überhaupt gibt, geschweige denn, ob es gut funktioniert oder nicht. Allein eine 2070s dürfte heute wohl immer noch nicht unter 550€ (keine Ahnung) zu kriegen sein. Wundern einen da Statistiken, wo 1060, 1070, teils 970, 1050 etc. dominieren (oder die jeweiligen AMD-pendants)? Gepaart mit einer moderaten Auflösung, die keine Probleme für diese Karten darstellen? Diese Leute sind so weit von SLI entfernt wie.. ... Mario Barth von einem lustigen Comedian :smile:.

Blaire
2020-05-30, 11:11:48
Das Thema SLI müßte nun in diesem Beitrag hier aber erledigt sein oder? Er hatte doch oben geschrieben, es ging ihm darum, aufzuzeigen, daß es diese Möglichkeit gibt und ja, das kann man unterschreiben. Auch wenn es fast keiner nutzt, es gibt SLI. Punkt.

Danke, genau das war mein Punkt. Ist nun mal kein Casual und man sollte vorher wissen, was man damit anstellen möchte, welche Möglichkeiten es gibt und sich auch zu helfen wissen. Sonst wird man damit nicht glücklich. ;) Nun früher war das hier mal ein Enthusiasten-Forum, heute ist davon leider nicht mehr viel übrig geblieben...

cR@b
2020-05-31, 23:15:31
Das Thema SLI müßte nun in diesem Beitrag hier aber erledigt sein oder? Er hatte doch oben geschrieben, es ging ihm darum, aufzuzeigen, daß es diese Möglichkeit gibt und ja, das kann man unterschreiben. Auch wenn es fast keiner nutzt, es gibt SLI. Punkt.


Es ist eine Möglichkeit, wenn diese auch gut laufen würde. Hier wird aber eine Technologie hochgepriesen, die einfach nur schlecht ist. Was bringen die hohen Frames wenn die Frametimes scheiße und Profile teilweise stark fehlerhaft sind oder erst garnicht funktionieren? Demnach kann man diese Möglichkeit als Alternative ausschließen. Es bleibt dabei, mit der heutigen Hardware ist 4k noch nicht optimal spielbar @144Hz. Ob das eine 3080 Ti ändert, wird sich noch zeigen müssen.

Um in den vollen Genuss von 144Hz+ zu kommen benötigt man niedrigere Auflösungen. 2k ist sicherlich etwas besser für 144Hz geeignet auch wenn 1k sicherer ist und für 240Hz brauchste dedinitiv ne 1k Auflösung um es gänzlich ausreizen zu können.

TommyLee
2020-05-31, 23:43:31
Die Möglichkeit existiert auch wenn sie scheiße ist. Sie ist doppelt so teuer, produziert nahezu doppelte Abwärme, Profilfrickelei, läuft nicht sauber, skaliert nicht 1:1 und das teils für unter zwei Jahre, wo eine Nachfolgegeneration in den Startlöchern steht, die mit Singlelösung in ähnliche Bereiche vordringt. Wissen wir alle und deswegen nutzt es auch niemand mehr.

Daher meine Aussage, die Technologie ist tot. Blaire kann ja schlecht anders schreiben und beharrt darauf, daß sie es nicht und ja, da hat er Recht. Sie existiert noch. Wenn man aber jene gebräuchlichen Maßstäbe ansetzt, die man mit den Stichworten Akzeptanz, Marktdurchdringung etc. verbindet, dann ist sie eben jenes: toter als tot. PCGH, Computerbase hatten letztes Jahr auch mal kleinere Artikel dazu und da war das Resümee ähnlich.

Da wird überhaupt nichts mehr forciert und das wird sich nicht ändern, bis die Karten wieder in akzeptable Preisbereiche kommen und zudem im Doppel ein sauberes Ergebnis liefern. Ich würde behaupten, der Preis ist das viel stärkere Argument. Von SLI an sich wissen nicht alle und schon gar nicht, daß es ein holpriges Erlebnis bringt, aber keiner ist dagegen gewillt, über 1000€ für 2 Karten auf den Tisch zu legen. Von den absurden 3er- und 4er-Lösungen mal völlig abgesehen.

Gast_9437
2020-06-07, 18:31:44
Hi Forum,

ich bin auch glücklicher Besitzer eines UWQHD 34" Monitors nebst 8700K und einer RTX 2080 Super.
Ich möchte das Feature keinesfalls mehr missen.
Das war so die zweite Offenbahrung in dieser Dekade nebst SSDs.
Ich habe aber ein Problem: solange die Graka voll ausgelastet ist, Läuft alles butterweich. Ist sie das aber nicht, meistens in UE4 Engine Spielen, wie PUBG, Insurgency Sandstorm, WW3 oder Hell let Loose, kommt es in diesen Games immer wieder zu ekligen Frametimespikes. Deaktiviere ich GSync, ist es "etwas" besser. Was macht ihr, damit ihr diese Spikes nicht habt?
Wenn ich die FPS begrenze, habe ich trotzdem Spikes.
Angenommen, ich habe permanent über 90 FPS und setze einen Limiter bei 80 FPS, droppt es manchmal trotzdem auf 87 oder 88 FPS. Mach ich den Limiter wieder raus, habe ich wieder permanent über über 90 FPS. Dabei ist es egal, welchen Limiter ich nehme. Sei es der Nvidia eigene oder RTSS.
Energiepläne auf Höchstleistung etc. bringt nichts, ebenso wie das Deaktivieren von HT.
Wie macht ihr das oder fällt euch das nicht so auf? Dadurch, dass Gsync generell ein ruhigeres Bild erzeugt, fällt mir persönlich das Ganze extrem auf und nervt einfach...

cR@b
2020-06-09, 21:37:45
Irgendwie widerspricht sich das was du da schreibst. Scheinbar nutzt du nicht die korrekten bzw. besten Einstellungen oder dein Monitor ist nicht 100% G-Sync Compatible.

Gast
2020-06-09, 23:12:25
Irgendwie widerspricht sich das was du da schreibst. Scheinbar nutzt du nicht die korrekten bzw. besten Einstellungen oder dein Monitor ist nicht 100% G-Sync Compatible.

Hi cR@b,

danke für deine Antwort.
Also ich hatte einen Typo im Text.
Ich meinte natürlich, wenn ich die FPS auf 80 begrenze, dann droppt es manchmal auf 77 oder 78. Begrenze ich auf 70, dann droppt es eben auf 67 oder 68. Selbts auf 60 FPS, wo ich vorher immer über 90 habe, droppt es dann auf unter 60. Oder was meintest du mit widersprüchlich?

Monitor ist ein GSync-Monitor, kein GSync-kompatibler. Es ist ein Acer X34 mit OC 100 Hz. Das Gleiche aber auch auf meinem alten Acer XB270HU mit 144 Hz.
Eingestellt habe ich es auch schon immer so, wie es Blair empfiehlt und wie es bei den Blurbusters beschrieben ist. Ich habe aber auch schon so ziehmlich alle Varianten durch...
Standardeinstellung ist GSync im Treiber auf an, VSync auf ein, Energieverwaltungsmodus auf Adaptiv und neuerdings den Modus für geringe Latenz auf Ultra, damit ich nicht ins Limit laufe. Wobei ich zugeben muss, dass ich keinen großen Inputlag mehr bei 100 Hz spüre wenn VSync greift. Wahrscheinlich bin ich dafür schon zu alt...
Ich hatte manchmal das Gefühl, dass es geschmeidiger läuft, wenn ich VSync nicht aktiviere. Wenn ich dann aber die FPS begrenze, um innerhalb der Refresh-Range zu bleiben (98 FPS), habe ich fieses Tearing im unteren Bildbereich.

cR@b
2020-06-10, 20:25:54
Ah ok ja das ergibt dann nun mehr Sinn aber das Problem hatte ich bis Dato noch nicht sondern eher, dass wenn ich begrenze die Frames trotzdem manchmal leicht über der Begrenzung liegen z.B. in CoD MW 2019. Ansonsten gibt es immer mal Drops je nach Spiel halt. Aber meine Begrenzungen liegen minimum bei 100 fps im best Case eben bei 117 bzw. 141 fps. Drops sind aber wie gesagt je nach Game in meinem Fall normal.