Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-Sync + DSR + SLI = NO


Godmode
2015-04-14, 22:45:40
Ich habe heute schmerzlich erfahren müssen, das DSR nicht mehr funktioniert, sobald SLI aktiviert ist und ein G-Sync Monitor nur angeschlossen ist. Es wird eine technische Limitierung vermutet, aber nach etwas Rechnerei kann ich mir das nicht vorstellen.

Hier erst mal die Zahlen:

http://abload.de/img/screenshot2015-04-142c8btp.png

Ich habe ausgerechnet, wieviel Bandbreite für die Bildübertragung auf die Haupt-GPU über den PCIe Bus benötigt wird. Ich habe drei verschiedene Auflösungen genommen, ausgehend von 1440p auf 2160p auf 2880p. Als Farbtiefe habe ich 32 Bit angenommen. Die Zeilen Mb 30 und 60 FPS ergeben die Datenmenge pro Sekunde für 30 oder 60 zu übertragende Bilder. Das sind 60 oder 120 FPS insgesamt, da ja zwei GPUs arbeiten, aber nur eine davon die Bilder zur anderen GPU übertragen muss.

Das seltsame ist jetzt, dass sobald ein normaler Monitor - ohne G-Sync - angeschlossen ist, DSR ohne Probleme funktioniert. Warum also funktioniert das ganze aber mit G-Sync nicht mehr? G-Sync dürfte den PCIe-Bus nicht zusätzlich belasten, weil die Bilder müssen ja bei SLI immer zur GPU1 übertragen werden?

Eine Limitierung könnte ich mir bei 120 FPS und 2880p auf PCIe 2.0 x8 vorstellen, aber hier bei mir stehen zwei mal 16 Lanes zur Verfügung? Bei allen anderen Konfigurationen sollte die Bandbreite aber locker reichen. Außerdem wird man in 2880p selten 120 FPS erreichen.

Hat irgend jemand eine Idee oder Erklärung wo hier das Problem liegen könnte? Vor allem der technische Hintergrund wäre hier sehr interessant.

Liszca
2015-04-14, 23:04:56
:tongue:

nVidia the way its ...

Schade ich weiß aber irgendwie war sowas zu erwarten nicht umsonst wurde adaptive sync eingeführt.

samm
2015-04-14, 23:23:22
Ich habe heute schmerzlich erfahren müssen, das DSR nicht mehr funktioniert, sobald SLI aktiviert ist und gleichzeitig ein G-Sync Monitor angeschlossen ist. Es wird eine technische Limitierung vermutet, aber nach etwas Rechnerei kann ich mir das nicht vorstellenDito. Würde da vermuten, dass eine Treiber-Lösung möglich ist.

Nightspider
2015-04-14, 23:46:09
Das Problem wurde schon mehrmals angesprochen hier in den Threads und keiner weiß woran es liegt. Nvidia wird das sicherlich irgendwann beheben aber warum das ein Problem ist weiß nur Nvidia.

fondness
2015-04-14, 23:52:34
Habe ich das richtig verstanden? Sobald ein G-Sync-Monitor angeschlossen ist geht es nicht mehr, nicht sobald G-Sync aktiviert ist? Das wäre natürlich grotesk.

Godmode
2015-04-15, 09:13:03
:tongue:

nVidia the way its ...

Schade ich weiß aber irgendwie war sowas zu erwarten nicht umsonst wurde adaptive sync eingeführt.

Warum war so etwas zu erwarten? Ich würde erwarten das man G-Sync zumindest abschalten könnte und DSR dann wieder da ist. Was hast das mit Adaptive Sync zu tun? :confused:

Dito. Würde da vermuten, dass eine Treiber-Lösung möglich ist.

Ich glaube nicht mehr daran, weil sich seit Oktober nichts getan hat. Wir haben jetzt April, das sind 6 Monate.

Das Problem wurde schon mehrmals angesprochen hier in den Threads und keiner weiß woran es liegt. Nvidia wird das sicherlich irgendwann beheben aber warum das ein Problem ist weiß nur Nvidia.

Habe ich das richtig verstanden? Sobald ein G-Sync-Monitor angeschlossen ist geht es nicht mehr, nicht sobald G-Sync aktiviert ist? Das wäre natürlich grotesk.

Ja, genau! Es reicht wenn der Rog Swift nur angeschlossen ist, man muss G-Sync nichtmal aktiviert haben. :freak:

fondness
2015-04-16, 13:17:49
Ja, genau! Es reicht wenn der Rog Swift nur angeschlossen ist, man muss G-Sync nichtmal aktiviert haben. :freak:

Was ergibt das für einen Sinn? Wenn G-Sync ausgeschaltet ist sollte sich ein G-Sync-Monitor nicht anders verhalten wie jeder andere. Aber vielleicht benötigt das NV-Modul irgend eine Sonderbehandlung ka.

Godmode
2015-04-16, 13:22:26
Was ergibt das für einen Sinn? Wenn G-Sync ausgeschaltet ist sollte sich ein G-Sync-Monitor nicht anders verhalten wie jeder andere. Aber vielleicht benötigt das NV-Modul irgend eine Sonderbehandlung ka.

Genau das frage ich mich ja auch? Mich regt es einfach so tierisch auf, dass sich seit Oktober nichts getan hat. Da kauft man den teuren Krempel und bekommt nicht das, was man eigentlich will.:mad:

Wenn die Treiber wenigstens offen wären, dann könnte die Community das wohl fixen, aber so ist man ihnen einfach komplett ausgeliefert.

robbitop
2015-04-16, 13:36:42
Ist bekannt - und darüber habe ich mich im Sommer 2014 schon aufgeregt (mein SLI Problemthread). Ein von vielen Gründen mehr gegen SLI.

NV hat im Herbst allerdings offiziell in Aussicht gestellt, dass sie an SLI + G-Sync + DSR arbeiten.

Godmode
2015-04-16, 13:42:31
Aber war auch bekannt dass es reicht, nur wenn der Monitor angeschlossen ist und G-Sync nichtmal aktiviert sein muss? Mir ist das neu.

robbitop
2015-04-16, 14:23:45
Ja war leider bekannt.

Godmode
2015-04-16, 14:35:53
Verdammt ich war sogar in deinem Thread aktiv, muss das aber verpasst haben. Habe übrigens gerade deinen Post gelesen, wo du die Tabelle verlinkt hast (SLI, GSYNC, DSR) und drunter der Kommentar von dir, vom Oktober 2014:

http://abload.de/img/nvdsrxfrot.png

Yes! Das schiebt mich doch deutlich dahin, das SLI System zu behalten! SLI + DSR + G-Sync. Ab dem nächsten Treiber. :up:

:unono:

derguru
2015-04-16, 14:47:35
hab mit sli auch keine DSR option und das ohne gsync monitor.

edit: sehe gerade in der tabelle das es auch für 4k monitore gilt, na supi. :down:

Godmode
2015-04-16, 14:54:09
Das ist aber seltsam, weil wenn ich nur den Dell u2711 anstecke habe ich DSR. Oder hast du einen 4K Monitor?

Aber gut dass du das erwähnst, weil ich wollte jetzt schon raus und einen 4K Monitor besorgen.

Edgecrusher86
2015-04-16, 15:07:55
Das hab ich leider auch erst im Dezember nach Kauf erfahren - aus dem Grund wird im Sommer, so er denn erscheint, der 4K IPS G-SYNC dazu geholt - leider zwar "nur" 60Hz - aber besser, als SLI haben und keine anständige Auflösung.
Hätte ich das vorher gewusst, wäre der Swift vermutlich nicht bestellt worden, da ich immer auf SLI setze. Gut, anspruchslosere Spiele laufen auch mit SGPU und DSR, aber halt längst nicht alles - wenn, dann mit leichten Abstrichen bei der X (bzw. damals zum Kauf GTX 980) - dafür kaufen wir aber kein SLI. ;)

Eine Schande, dass so etwas nur im Geforce-Forum oder auf ner NV Dev-Seite steht, aber nicht großartig vorher bekannt gemacht wurde.

boxleitnerb
2015-04-16, 15:39:11
Wann soll der 4K G-Sync von Asus denn kommen?

Godmode
2015-04-16, 15:42:02
Jmd. meinte August oder so.

CD-LABS
2015-06-24, 21:58:16
DSR funktioniert auch nicht in Kombination mit Optimus. Bis vor kurzem funktionierte es sogar nicht mal auf Notebooks OHNE Optimus...
...sollte das wirklich mal gefixt werden, werden sie es sicher wieder bei Optimus+GSYNC verhauen. Ich trau ihnen auch zu, dass sie das SLI-Problem fixen werden, es dann aber unter DX12 wieder zurückkehren wird oder solche Späße...
...ganz ehrlich: Ein ambitionierter Hobbyentwickler von Grakatools wie Durante oder Orbmu2k, hätte sowas in zwei Wochen gefixt! :down::down::down:

MorPheuZ
2015-07-07, 13:50:32
DSR funktioniert bereits bei Multimonitor Betrieb (ohne SLI) nicht.

Palpatin
2015-07-07, 14:48:50
DSR funktioniert bereits bei Multimonitor Betrieb (ohne SLI) nicht.
Meinst du NVIDIA Surround ?
Bei normalen Multimonitor Betrieb empfiehlt es sich immer wenn möglich den 2te Monitor an das Mainboard zu hängen und nur den Gaming Monitor über die NV Karte laufen zu lassen, dann sollte auch DSR keine Probleme machen.

MorPheuZ
2015-07-08, 01:02:40
Ja natürlich sorry. Im "normalen" Multimonitor Betrieb wo nur ein Monitor (bei mir der in der Mitte :smile:) die Musik zum Tanzen bringt funktioniert DSR. Sobald NV Surround aktiv ist, wird die Option nicht mehr angezeigt.

MorPheuZ
2015-07-08, 01:05:13
Es stellt sich die Frage ob die Auflösung jenseits von 4k (8-12K?) überhaupt im Treiber unterstützt wird. Wohl eher nicht und der Speicher bei einer 970 eh nicht reichen würde.

Rente
2015-07-08, 01:10:42
Werden sie auf jeden Fall, über das DSR-Tool von Orbmu2K (oder direkt in der Registry) lassen sich auch Werte > 4x einstellen und funktionieren auch.

Die 3,5-4GB der 970 dürften aber in der Tat zu wenig sein, selbst die 6GB der 980 Ti sind schon knapp dafür.

robbitop
2015-07-08, 10:13:54
Abgesehen davon, dass die Leistung auch bei unendlich viel VRAM nicht reichen würde. Hohe Faktoren machen eigentlich nur bei alten Titeln Sinn.
Dort greift aber idR auch GeDoSaTo. Und das hat deutlich bessere Downsamplingfilter.

Neulich bei Mass Effect getestet (max Details 1440p). 4x4 Downsampling bringt meine übertaktete Titan X extrem zum Kotzen. Habe es nur kurz in der Citadel getestet. Da hat man 20...30 fps.
3x3 Downsampling ist das Maximum. Kann man aber durch SMAA/FXAA + Lumasharpen etwas aufhübschen.

Bei älteren Spielen geht aber idR auch SGSSAA, was wesentlich effizienter ist. Insofern sind hohe DSR Faktoren für die Spielepraxis idR aktuell gar nicht notwendig.

robbitop
2015-07-09, 11:41:25
AMD hat heute mit dem Catalyst 15.17 offenbar geschafft, was NV (noch?) nicht geschafft hat.

VRR + AFR + DSR zu kombinieren.

Godmode
2015-07-09, 12:43:17
AMD hat heute mit dem Catalyst 15.17 offenbar geschafft, was NV (noch?) nicht geschafft hat.

VRR + AFR + DSR zu kombinieren.

Ich hoffe Nvidia fixt das Problem endlich. Es ist jetzt fast ein Jahr vergangen.

samm
2015-07-09, 13:05:13
Jetzt wo es der Konkurrent kann, haben sie einen weiteren Antrieb. Ausserdem sollte wohl bald auch eine neue G-Sync-Version gelauncht werden (gerade im Review von diesem interessanten Monitor hier (http://www.tftcentral.co.uk/reviews/acer_xr341ck.htm) gesehen, der einen G-Sync-Bruder bekommen soll). Denke also, die Chancen stehen gut, dass sie das angehen.

Troyan
2015-07-09, 13:08:44
Naja, was der Konkurrent bietet, ist wohl kaum nennenswert.
Kein VSR mit mehr als 60Hz bei 1440p. Kein 21:9 Support. Limitierte Einstellung bei alles unter GCN 1.2. Über 4K gibt es sowieso nichts im Gegensatz zu DSR.

Traurig ist es trotzdem, dass man es nach 9 Monaten nicht hinbekommen hat.

Hübie
2015-08-06, 10:49:56
Hast du das hier schon alles getestet??

http://abload.de/img/g-sync3gqp7.png (http://abload.de/image.php?img=g-sync3gqp7.png)

Letzteres ist standardmäßig auf 0x00000000 gestellt.

Godmode
2015-08-06, 11:09:29
Hast du das hier schon alles getestet??

http://abload.de/img/g-sync3gqp7.png (http://abload.de/image.php?img=g-sync3gqp7.png)

Letzteres ist standardmäßig auf 0x00000000 gestellt.

Ich glaube das habe ich schon alles probiert, werde es aber heute Abend nochmal testen. Danke für den Tipp. Wenn das aber was bringen würde, stände es sicher schon im offiziellen Thread im Geforce Forum.

Hübie
2015-08-06, 11:17:47
Na ja man weiß nie wie clever andere sind ;D
Die letzten drei Optionen findest du weiter unten im Inspector unter "Other". Ändere das globale Profil und mache einen Neustart. Viel Erfolg :up:

Godmode
2015-08-06, 19:07:10
Hat nichts gebracht, wäre aber auch ein Wunder wenn das nach fast einem Jahr der Fix wäre.

Hübie
2015-08-06, 20:13:03
Ändert sich etwas wenn du DDC abstellst? Damit wird ja der Monitor identifiziert. Welchen Anschluß nutzt du? DP? Teste den ROG mal mit Adapter auf DVI-D. Is ja voll ätzend so wie jetzt.

Edit: Und hast du denn schon mit den letzten Optionen unter "other" etwas herum probiert? Da gabs teilweise ja 4 Auswahlmöglichkeiten.

robbitop
2015-08-06, 20:47:26
Laut Blair ist die im Thread benannte Kombination (das ist doch hier gemeint?) nicht einmal im Treiber implementiert - da bringt das ändern von diesen Werten garantiert nichts.

snake1125
2015-08-10, 10:29:10
Wenn man auf G-SYNC verzichten kann, soll es nen (umständlichen) Fix geben, siehe dieser Link (https://www.reddit.com/r/nvidia/comments/36ei3u/so_its_been_a_while_whats_the_situation_on/).

Habs noch nicht selbst ausprobiert.

Bin hier mit 2 GTX 980 Ti und nem ROG Swift unterwegs.

Godmode
2015-08-10, 10:57:01
Danke für den Tipp, das werde ich heute Abend mal testen.

snake1125
2015-08-10, 16:16:10
In deiner Signatur steht kein 3D-Vision, hast du das Problem noch?
Bei mir läuft das auf dem ROG SWIFT mit SLI nämlich unproblematisch.

Godmode
2015-08-10, 17:07:29
Du kannst auf dem Rog Swift SLI und 3D-Vision gleichzeitig nutzen und beide Karten werden ausgelastet? Das wäre mir nur. Sobald ich 3D-Vision aktiviere, arbeitet nur mehr eine Karte bei mir.

snake1125
2015-08-10, 18:00:33
Teste ich heute Abend nochmal aus, ist für den DSR-Fix ja eh nötig...

Godmode
2015-08-10, 18:52:37
SLI + DSR funktionieren so wirklich, danke für den Tipp! Ich suche danach schon seit fast einem Jahr, und Nvidia war nicht im Stande das mitzuteilen. Da merkt man schon, wie wichtig ihnen das alles ist. Das schlimmste ist, es funktioniert ja anscheinend nur wollen sie keine Option im NVCPL dafür einbauen. Da kann man nur den Linus machen. (§#$! You Nvidia!)

3D-Vision funktioniert aber so leider auch nicht mit SLI. Sobald ich 3D aktiviere, geht die Last bei Karte 2 auf 0%.

Btw. jetzt schulde ich dir wohl ne Kiste Bier. ^^

snake1125
2015-08-10, 19:10:35
Passt schon.

Hast übrigens recht, bei mir wird bei aktiviertem 3D-Vision auch nur eine Karte ausgelastet. :-(

Da es bei mir GPU2 ist, können wir zusammenlegen und bekommen ein funktionierendes System. ;-)

Wir haben übrigens ziemlich ähnliche Systeme, schau mal auf meine Hardware-Daten, habs vorhin mal eingetragen.

Godmode
2015-08-10, 20:23:27
Ja das dachte ich mir fast. Das ist so schade.... mit SLI würde ich mit 3D sogar etwas DSR schaffen und trotzdem die 60 FPS halten können.

Stimmt, dein System ist recht ähnlich. Hoffentlich bekommen sie das mit 3D und SLI noch irgendwann in den Griff, sonst muss ich die zweite Karte wirklich noch verkaufen...

snake1125
2015-08-10, 21:40:24
Benutzt du bei der Auflösung (2560*1440) auch SFR?

Godmode
2015-08-10, 22:16:37
Benutzt du bei der Auflösung (2560*1440) auch SFR?

Meinst du Split Frame Rendering? Gibts das überhaupt noch? IIRC skaliert das recht schlecht. Ich verwende eigentlich nur AFR. Da ich aber momentan aber nur mit 3D-Vision The Witcher 3 spiele, gibt es leider kein SLI für mich. :mad:

snake1125
2015-08-11, 01:58:37
Genau das. Man kann es über den nvidia Inspector in den Spiele Profilen forcieren. Insbesondere bei niedrigeren Frameraten fühlt es sich massiv flüssiger an. Da ist halt nichts mit den AFR typischen Frametimeproblemen/Microstuttering.

Ist nicht ganz so performant wie AFR, das sollte dich mit 2 Titan-X aber nicht weiter stören.

Ich spiele seit mehreren Grafikkartengenerationen nur noch in dem Modus.

Godmode
2015-08-11, 08:22:08
Das muss ich echt mal ausprobieren. Ich habe SFR schon seit Jahren nicht mehr verwendet. Hast du mal die Skalierung gemessen? Also was bringt die zweite GPU an FPS in % der ersten?

snake1125
2015-08-11, 14:40:09
Das muss ich echt mal ausprobieren. Ich habe SFR schon seit Jahren nicht mehr verwendet. Hast du mal die Skalierung gemessen? Also was bringt die zweite GPU an FPS in % der ersten?

So, ich hab die Skalierung jetzt mal mit dem einfachsten Test, der mir eingefallen ist, getestet.

Battlefield 4, 2560*1440, Resolution Scale 200 %, Grafikeinstellungen ULTRA, 4x MSAA, kein FXAA, HBAO, keine Bewegungsunschärfe
MAP: Test-Range
Messung der FPS zu dem Zeitpunkt, wenn die Drohne nach dem Einstieg direkt über dem Fadenkreuz fliegt.

Es gab sehr interessante Ergebnisse:

Single GPU: 48 FPS
SFR: 106,5 FPS
AFR: 92 FPS

Die Ergebnisse wurde jeweils nach einem Rechnerneustart gemessen.

Warum SFR besser und sogar über 100% Zuwachs performt, kann ich mir gerade nicht erklären. Warum es über AFR performt auch nicht, vielleicht hat das was mit Nvidias "Anti-Ruckel-Optimierungen" für AFR zu tun.

Aufgrund der Ergebnisse habe ich die Testreihe ein Zweites mal wiederholt, mit gleichen Abweichungen als Ergebnis.

snake1125
2015-08-11, 14:41:54
Den Test in Witcher 3 mit meinem aktuellen Savegame mache ich heute Abend.

Godmode
2015-08-11, 15:48:55
Sehr interessant das Ganze. Ich werde das heute Abend mal beim Witcher testen.

Mit SFR starte The Witcher 3 bei mir nicht einmal. IIRC wird der Modus ja schon länger nicht mehr unterstützt.

snake1125
2015-08-11, 19:45:39
Bei mir startet es schon,
es scheint da aber keinen Framerateunterschied zu geben, wahrscheinlich ists einfach nicht kompatibel mit dem Spiel.

Single-GPU: 53 fps
AFR: 70-74 fps
SFR: 70-74 fps

Die Skalierung ist also auch ziemlich schlecht.

Godmode
2015-08-11, 20:16:56
Wie stellst du das um? Im NVCP oder über den Inspector? Im Inspector muss man nämlich an drei Stellen die SLI Rendering Modi ändern.

snake1125
2015-08-12, 09:31:10
Nur im Inspector, da muss man auch nur die Einstellung für den passenden Renderpfad (also entweder DX9 oder DX1x) ändern.

Im Falle von Witcher 3 also die Dx1x-Variante auf "Force SFR" stellen.

Blaire
2015-08-12, 16:44:40
SFR funktioniert nur dann, wenn die SLI DX1x-Compatibility-Flags im NV Inspector mit einer "2" enden, diese haben immer Priorität! Völlig unabhängig davon, was bei den anderen SLI Rendering-Modes eingestellt bzw. ausgewählt wurde.
Battlefield4 SLI-Flag "0x080116F5" (Default) steht für AFR (4-Way), somit wäre also Hex-Value "0x080116F2" oder "0x0000002" nötig, um SFR (4-Way) in Battlefield 4 zu erzwingen. Und das funktioniert nicht wirklich performant.
In älteren Games funktionierte SFR teils ganz gut, bei neueren Games (DX10 aufwärts) hingegen, konnte ich mit SFR nirgends irgendwelche Performance-Zuwächse verzeichnen.

snake1125
2015-08-12, 19:23:55
Gilt das auch für 2-way SLI?

Blaire
2015-08-12, 21:13:43
Gilt das auch für 2-way SLI?

Ja, egal ob 2- oder 4-Way es wird immer die max. Anzahl GPUs genutzt, bei 2-Way logischerweise auch nur derer zwei.

snake1125
2015-08-12, 21:50:48
Und wie erklären sich dann die fps-Unterschiede, wenn unter DX10 rendering modus "FORCE SFR" statt AFR ausgewählt wird?