PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-Sync + SLI geht nicht


Seiten : [1] 2

robbitop
2014-10-11, 10:33:37
Im Laufe dieses Threads sind wir durch den Zufall eines HW Defekts an meiner Infrastruktur zu einer wichtigen Erkenntnis zu NVIDIAs SLI gekommen:

Sobald ein G-Sync Monitor bei einem SLI System erkannt wird (G-Sync noch nichteinmal deaktiviert), wird der gesamte SLI Traffic (Framebuffertransfer) statt über die SLI Bridge über den PCIe geschoben.

Ermittelt wurde das durch folgende Messungen:

Benchmarks:

Randbedingungen
- vsync = aus
- gsync = aus (3D Settings und im Unterpunkt g-sync) (wobei G-Sync = an das selbe "Problem" zum Tragen kommt)
- ein Benchmark/Spiel, welches SLI vollständig unterstützt
- gemessene Szene sollte eine fps von 50 - 100 haben
- SLI = an
- 2 Monitore, die mit gleicher Auflösung angesteuert werden (interpolieren oder DS geht auch) -> G-Sync Monitor + ein Nicht-G-Sync Monitor

Messwerte von folgenden Szenarien:
PCIe 3.0 + G-Sync Monitor (ASUS ROG SWIFT)
PCIe 3.0 + normaler Monitor
PCIe 1.0 + G-Sync Monitor (ASUS ROG SWIFT)
PCIe 1.0 + normaler Monitor

Hier die Messungen von Grestorn: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10393554&postcount=141

Was messen wir da?

Durch meine ursprünglichen Messungen kam mir der Verdacht, dass sobald ein G-Sync fähiger Monitor erkannt wird, der gesamte SLI-Traffic nicht mehr über die Bridge läuft, sondern über den PCIe. Dieser ist je nach Szene sowieso schon belastet durch Datentransfer zwischen GPU und CPU.
In dem wir die Bandbreite des PCI Express runterskalieren (3.0 -> 1.0), versuchen wir dieses Problem zu provozieren.
Ist an meinem Verdacht nichts dran, sollte es bei PCIe 1.0 zwischen einem normalen Monitor und einem G-Sync Monitor keine Leistungsunterschiede geben.
Sind Leistungsunterschiede da, belegt das den Verdacht.

Grestorns und meine Messungen belegen, dass tatsächlich sobald ein G-Sync Monitor erkannt wird der SLI Traffic nicht mehr über die SLI Bridge läuft und damit den PCIe belastet.
Weiterhin zeigen unsere Messungen, dass erst ab 2x PCIe 3.0 16x kein erkennbares Limit mehr vorhanden ist.

Letzteres ist besonders ungünstig, da Intels Sockel 1050 Plattform nur 2x PCIe 2.0 mit 8x Lanes liefert. Dort liegt dann in der Praxis ein Limit vor.

(G-Sync war definitiv ausgeschaltet - das sieht man beim ROG SWIFT an der roten LED ob es an oder aus ist)




Ich habe mir ein Titan SLI Setup und einen ASUS ROG SWIFT mit G-Sync gekauft (System siehe Systeminfos in meinem Profil, 344.16 Treiber und Win8.1).

Ich bekomme G-Sync + SLI nicht gleichzeitig zum Laufen. Hier die Historie aus dem Nachbarthread:

Also ich habe ein wenig weiter untersucht:

Ich habe 2x Monitore mit jeweils DP. Da Unter SLI kein Monitor in die GPU Nr.2 gesteckt werden kann habe ich Monitor Nr. 2 in den DP des Mainboard gesteckt und die Intel IGP genutzt.

Ich habe die Intel IGP mal ausgeschaltet. Und schon war das komische Heruntertaktproblem gelöst unter SLI!

Ich habe in den Windows Energie Settings und im NV CP jeweils "Höchstleistung" eingeschaltet.

Nun habe ich den Boost-Takt der Titans anliegen. Schaue ich aber auf die Auslastung (benutze das OSD vom MSI Afterburner) sehe ich bei der 2. GPU nur 10-30 %.
Selbst mit vollen Settings und Downsampling (bei Shadows of Mordor im Spiel).

Getestet:

Crysis 3
Shadows of Mordor (das neue LotR Spiel)
Watch Dogs

Out of the Box - also keine Profile (wobei ich für alle 3 Spiele auch keine SLI Bits hier gefunden habe)

Ich habe noch keine fps Messung SLI vs NonSLI gemacht - aber bei der bescheidenen Auslastung wird SLI wohl kaum was bringen.

Ist das bei den obigen Spielen normal?

Ich beginne langsam ernsthaft meine Entscheidung für SLI zu bereuen...

Da is was faul, robbitop. Ich würde als einfachste Variante erst mal empfehlen den Treiber auf Urzustand zurückzusetzen oder ggf. eine Neuinstallation vorschlagen.
In allen drei von dir getesteten Spielen konnte ich keine SLi-Fehler bzgl. Auslastung feststellen.

ps: Ich bin auch nicht mehr so begeistert von SLi, aber was solls X-D Wir sind Sklaven unserer Leidenschaft.

Habe die "Lösung" gefunden :freak:

Ich tüftle und tüftle die letzten Tage verzweifelt herum, warum meine Titans im SLI nicht miteinander wollen. Im Nebenthread erwähnte jemand, dass G-Sync + SLI Probleme machen könnte... hmm...

Also deaktiviere ich G-Sync im NVCPL, starte neu und tada: Crysis 3 läuft mit SLI butterweich. Die GPUs takten nicht mehr herunter, ich habe sofort mehr Leistung und habe eine Auslastung von 98 % + 50...70 % (GPU2).

Mit G-Sync habe ich eine Auslastung von 98 % + 10 % in Crysis 3.

Ich kann es sogar reproduzieren.

Ich kann also von meiner Seite aus sagen: G-Sync + SLI bereitet derzeit Probleme!!

welches level? Ich reproduziere ebenfalls gerne :)

Egal welches Level. Egal welches Spiel. Sogar der Furmark. Alle 3D Anwendungen. 344.16, Win8.1 System siehe Systeminfo
Sobald ich G-Sync anschalte geht SLI bei mir nicht mehr. Schalte ich es aus, gehts. Auslastung und FPS steigen. Habe im Netz ein wenig recherchiert und es scheint noch eine ganze Menge andere Leute mit Problemen dieser Konstellation zu geben.

Wenn du den zweiten Monitor abklemmst, funktioniert es dann? Könnte eine technische Limitierung sein. Zeig mal ein paar Links von anderen Usern? Mir war dazu bisher nichts bekannt. Aber schreib das bitte in den entsprechenden Treiber-Thread, hier ist das ziemlich offtopic.

-------------------------------------------------------------------------


Ich habe es natürlich auch schon mit 1x Monitor probiert. Ich habe auch die IGP schon deaktiviert. Keine Wirkung. Treiber ist der 344.16 (also der aktuelle Desktop WHQL).

Was Probleme mit G-Sync und SLI angeht, braucht man nicht weit zu suchen:

https://www.google.de/webhp?sourceid=chrome-instant&ion=1&espv=2&ie=UTF-8#safe=off&q=g-sync%20SLI

Google ist voll davon:

https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&cad=rja&uact=8&ved=0CEoQFjAD&url=https%3A%2F%2Fforums.geforce.com%2Fdefault%2Ftopic%2F770405%2Fgsync-sli-unsmooth-gsync-sli-smooth%2F&ei=Qug4VPi6C8rcPeblgOAG&usg=AFQjCNHhnHaxuqea4TCuAi8unNGWJK3vgw&sig2=LtaM9ZwMPkkhLIRSEMN24Q&bvm=bv.77161500,d.ZWU

https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&cad=rja&uact=8&ved=0CFQQrAIwAw&url=https%3A%2F%2Fforums.geforce.com%2Fdefault%2Ftopic%2F771452%2Fgeforce-drivers%2Fg-sync-not-working-well-with-sli%2F&ei=Qug4VPi6C8rcPeblgOAG&usg=AFQjCNE-Fa-HoOq2rGQza9Wtp0oZAi7Xzw&sig2=_993SljJ0-U-Mpp-QslCCA&bvm=bv.77161500,d.ZWU

https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&cad=rja&uact=8&ved=0CFUQrAIwAw&url=https%3A%2F%2Fforums.geforce.com%2Fdefault%2Ftopic%2F670580%2Fgsync-not-smooth%2F&ei=Qug4VPi6C8rcPeblgOAG&usg=AFQjCNGXFjVv0KB6R4m9UnsPuKWQmgKxsw&sig2=Q5rwExVaIACn9fnF9dIs5g&bvm=bv.77161500,d.ZWU

https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=7&cad=rja&uact=8&ved=0CGkQFjAG&url=http%3A%2F%2Frog.asus.com%2Fforum%2Fshowthread.php%3F51618-G-SYNC-and-SLI-seem-to-be-incompatible-stuttering-and-lagging&ei=Qug4VPi6C8rcPeblgOAG&usg=AFQjCNFHnVL3nJEHL022zCwh5fR5mwiU2A&sig2=hyAn7DeFZSi_gUxdR4d7QQ&bvm=bv.77161500,d.ZWU

https://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=8&cad=rja&uact=8&ved=0CHwQrAIwBw&url=http%3A%2F%2Fforums.blurbusters.com%2Fviewtopic.php%3Ff%3D5%26t%3D616&ei=Qug4VPi6C8rcPeblgOAG&usg=AFQjCNGlAYEHDl_6Yswv1VNj6uINAkseRA&sig2=1COQJ50G-ZSscM3nsr4KMg&bvm=bv.77161500,d.ZWU


ectpp.


In den meisten Threads die ich über Google gefunden habe (die meisten sind bei Blurbuster) wird das Thema leider nicht untersucht sondern nur sinnlos diskutiert. "bei mir stottert es" -> "bei mir geht's super" :rolleyes:

Keiner misst GPU-Auslastung oder versucht der Ursache irgendwie auf den Grund zu gehen.

Vieleicht können wir es ja hier im 3DC. User mit SLI + G-Sync Monitoren sind hier also heiß gesucht, um gemeinsam Licht in's Dunkle zu bringen.

Was habe ich übersehen? Was könnte man noch probieren?

Gemacht habe ich bisher:

- NV Treiber neu installiert (über die "Neuinstallationsoption" im Treiber, bei dem der "alte" Treiber restlos entfernt wird)
- 2. Monitor rausgezogen
- IGP deaktiviert
- SLI an-aus-an-aus und jedes Mal auch mit Neustarts
- ich hab die Titans jeweils im Single Mode getestet (läuft)
- G-Sync deaktiviert -> SLI läuft!
- G-Sync aktiviert -> SLI läuft nicht! (siehe Auslastung GPU2 und niedrige FPS)

Ich teste im Moment immer mit Crysis 3 und Furmark gegen.

4Fighting
2014-10-11, 10:55:33
ob gsync aktiv ist "liest" du denk ich mal über die rote LED am Monitor ab oder?

hast du die treiber mal per DDU gelöscht und neuinstalliert?
welches DP kabel wird verwendet? (ich habe glaub ich 4 verschiedene gehabt bis ich eins hatte was die hertzzahl trotz dp 1.2 specs geliefert hat. ggf. gibts da ja noch andere probleme?)
beide karten laufen per pcie 2.0 8x oder?

(auch wenn nicht alle fragen unbedingt direkt bezug zu deinem Problem haben, wäre es trotzdem gut zu wissen, da ja manches immer zu problemen führen kann :D )

hast du mal den 340.52 iirc probiert?

robbitop
2014-10-11, 11:02:31
4Fighting - auf dich ist immer Verlass! :up:

ob gsync aktiv ist "liest" du denk ich mal über die rote LED am Monitor ab oder?
Peinlich für mich: welche rote LED? :D

Ich stelle es im NVCPL ein und gehe davon aus, dass es läuft.

hast du die treiber mal per DDU gelöscht und neuinstalliert?
Wieder peinlich für mich: was ist DDU? :)

welches DP kabel wird verwendet? (ich habe glaub ich 4 verschiedene gehabt bis ich eins hatte was die hertzzahl trotz dp 1.2 specs geliefert hat. ggf. gibts da ja noch andere probleme?)
Das hattest du ja IIRC in meinem Wakü-PC Thread schonmal erwähnt. Ich habe einfach auf blauen Dunst 2x 3m DP1.2 Kabel gekauft. 144 Hz +1440p ging mit beiden sofort. Bei ebay für 6 €. Keine Markenware.


beide karten laufen per pcie 2.0 8x oder?
Aktuell 2x 8 Lanes PCIe 3.0.

Habe auch PCIe 2.0 und "Auto" im BIOS schon probiert. Keine Wirkung.


(auch wenn nicht alle fragen unbedingt direkt bezug zu deinem Problem haben, wäre es trotzdem gut zu wissen, da ja manches immer zu problemen führen kann :D )
Ach iwo. Ohne Testen und Probieren gibt es keine direkte Lösung. Insofern sind Vorschläge und Fragen und Brainstorming genau das was ich suche. Also vielen lieben Dank dafür :)
Und gerne mehr davon!!

hast du mal den 340.52 iirc probiert?
Ehrlich gesagt nein. :)
Also per DDU den 344.16 deinstallieren und dann den 340.52 installieren? (sobald du mir sagst was DDU ist)

Du hast ja auch 2x Titans und einen ROG Swift. Berichte doch mal von deinen Erfahrungen. :)

4Fighting
2014-10-11, 11:24:05
4Fighting - auf dich ist immer Verlass! :up:

Immer gerne=)


Peinlich für mich: welche rote LED? :D


Wenn Gsync aktiv ist wird die weiße LED (im Desktopbetrieb weiß - rechts unten am Monitor) rot.




Wieder peinlich für mich: was ist DDU? :)

ist sowas wie der driver cleaner oder der nachfolger. Bei problemen o.ä. würde ich den mal im abgesicherten Modus drüberlaufen lassen.

http://www.guru3d.com/files-details/display-driver-uninstaller-download.html


Das hattest du ja IIRC in meinem Wakü-PC Thread schonmal erwähnt. Ich habe einfach auf blauen Dunst 2x 3m DP1.2 Kabel gekauft. 144 Hz +1440p ging mit beiden sofort. Bei ebay für 6 €. Keine Markenware.


dann hast du glück gehabt :D...Mittlerweile habe ich ja auch eins was geht:freak:


Aktuell 2x 8 Lanes PCIe 3.0.

Habe auch PCIe 2.0 und "Auto" im BIOS schon probiert. Keine Wirkung.


oki


Ach iwo. Ohne Testen und Probieren gibt es keine direkte Lösung. Insofern sind Vorschläge und Fragen und Brainstorming genau das was ich suche. Also vielen lieben Dank dafür :)
Und gerne mehr davon!!


Hast du ne Möglichkeit eine andere Windows partition wo aufzusetzen?


Ehrlich gesagt nein. :)
Also per DDU den 344.16 deinstallieren und dann den 340.52 installieren? (sobald du mir sagst was DDU ist)


ich würds mal probieren...kostet ja nix




Du hast ja auch 2x Titans und einen ROG Swift. Berichte doch mal von deinen Erfahrungen. :)

Gsync ist natürlich ein tolle Sache und der Monitor ist für TN Verhältnisse auch brauchbar. Ist halt immer ein Trade-Off.

hab aber leider nur 2 780ti's. Eigentlich bin ich mit dem System äußerst zufrieden, weil es selbst mit niedrigen Voltages und clocks sehr gute Performance liefert, aber das was NV neuerdings mit dem SLI Support macht finde ich wirklich schade.

Die beiden 780tis sind ja auch durch maxwell "nix" mehr wert, sodass ich das jetzt erstmal aussitze bis das nächste Upgrade kommt (vermutlich aber nur noch sgpu)

robbitop
2014-10-11, 11:57:43
Wenn Gsync aktiv ist wird die weiße LED (im Desktopbetrieb weiß - rechts unten am Monitor) rot.
Das wußte ich noch gar nicht. Habe aber gerade mal drauf geachtet. Sehr gut! So weiß ich immer, wann G-Sync an ist. :up:



ist sowas wie der driver cleaner oder der nachfolger. Bei problemen o.ä. würde ich den mal im abgesicherten Modus drüberlaufen lassen.

http://www.guru3d.com/files-details/display-driver-uninstaller-download.html
Danke. :)




Hast du ne Möglichkeit eine andere Windows partition wo aufzusetzen?

Ginge alles. Mein Windows ist allerdings noch super frisch. Quasi gerade erst installiert und gerade mal 3-4 Spiele drauf.





Gsync ist natürlich ein tolle Sache und der Monitor ist für TN Verhältnisse auch brauchbar. Ist halt immer ein Trade-Off.
Ich meine explizit zu G-Sync + SLI. Ist das ein Vorteil bei SLI?

Ich muss sagen, dass durch die 144 Hz der Unterschied von V-Sync aus zu G-Sync nicht sooo groß ist. Aber dafür kein Tearing. (wobei bei 144 Hz das irgendwie nicht sooo sehr zu sehen ist)


hab aber leider nur 2 780ti's. Eigentlich bin ich mit dem System äußerst zufrieden, weil es selbst mit niedrigen Voltages und clocks sehr gute Performance liefert, aber das was NV neuerdings mit dem SLI Support macht finde ich wirklich schade.

Die beiden 780tis sind ja auch durch maxwell "nix" mehr wert, sodass ich das jetzt erstmal aussitze bis das nächste Upgrade kommt (vermutlich aber nur noch sgpu)
GM204 ist eh die Mainstreamkarte als Highend verkleidet, um die Leute zu verarschen. Also sollte man als High End Käufer auch keine NV Produkte mit einer 4 im Codenamen kaufen. Zumal es als GK110 Besitzer eher ein Sidegrade wäre.


Was meinst du eigentlich mit SLI Support seitens NV? Ich bin in der "Szene" extrem neu und habe praktisch keine Ahnung! Plaudere mal ein wenig aus dem Nähkästchen. :)


-----------------------------------------------------------------

Komische Beobachtung eben. Ich starte den PC. G-Sync aus und SLI läuft. Crysis 3 bringt hohe FPS. -> dann wollte ich nochmal das mit der roten LED testen -> G-Sync an. -> Crysis 3 startet. LED wird rot. -> und ich habe 98 % + 70 % Auslastung. SLI läuft. WTF?? :freak::freak:

Irgendwas muss im NVCPL buggy sein. Ich frickle ewig dran und jetzt gehts? G-Sync an-aus-an? Mal schauen, ob es so bleibt.
Das Dumme ist, ich kann den Grund nicht nachvollziehen.

Geht bei dir G-Sync + SLI richtig?

Kartenlehrling
2014-10-11, 12:13:16
du schreibts immer von SLI, g-sync und 144hz ...

was ich so mit bekomemn habe funktioniert g-sync nur unter Vollbild also kein Fenstermode, auch würde ich 120hz nehmen und wurde so viele overlay deaktiveren bzw. vermeiden wie es nur geht.

4Fighting
2014-10-11, 15:14:40
Ich meine explizit zu G-Sync + SLI. Ist das ein Vorteil bei SLI?

Ich muss sagen, dass durch die 144 Hz der Unterschied von V-Sync aus zu G-Sync nicht sooo groß ist. Aber dafür kein Tearing. (wobei bei 144 Hz das irgendwie nicht sooo sehr zu sehen ist)

Naja meine bisherige Beobachtung war das man (oh was ein Wunder) die "smootheste" Ausgabe natürlich per sgpu und Gsync hatte. Jedoch kann eine zweite Karte ja auch nie schaden.

btt:

Nutzt Du 144 oder 120hz?



Was meinst du eigentlich mit SLI Support seitens NV? Ich bin in der "Szene" extrem neu und habe praktisch keine Ahnung! Plaudere mal ein wenig aus dem Nähkästchen. :)

Früher war alles besser:freak:...spaß bei Seite.

Was mir zu denken gibt:

-Watch Dogs war ein NV(gameworks) Titel und NV hat es bis dato nicht für nötig gehalten eine würdige SLI Implementierung anzubieten, obwohl es eben eigene nv-Technologien anbietet wie TXAA etc. Das halte ich bis heute für sehr ärgerlich;(
-Bei Titanfall wurde erst 4,5 oder 6 Monate später der bereits zu release angekündigte SLI-Support verpasst
-Shadows of Mordor, auch wieder ein NV-Titel, bietet auch keinen nativen SLI Support. Und das ist ein wirklicher AAA-Titel. Ebenfalls wieder *kopfschüttel*
-Eigene proprietäre Technologien wie Gsync + SLI + DSR funzen einfach nicht und selbst wenn ich Gsync ausschalte, kriegt der Treiber es nicht gebacken. Danke, dass ich Gsync nutze!:(
-Dead Rising 3 (kein NV-titel) und Risen 3 sind Titel die bis dato überhaupt kein SLI anbieten. Ebenso Wolfenstein. Bei Wolfenstein war es kein Wunder wegen id-Tech 5, aber bei den bei den anderen beiden relativ großen Titeln ist es schon dumm. Sowas gab es natürlich auch schon früher (CoH 2), aber ich habe leider das Gefühl das man SLI nicht mehr so fördert, wie es (aus meiner Sicht) nötig wäre;D


Das man mit SLI immer ein bisschen frickeln muss, ist ja jedem klar. Aber irgendwie hat man das Gefühl das NV in letzter Zeit einiges schleifen lässt. Das wirkt bei weitem nicht mehr so gut verzahnt und durchdacht (Stichwort Gsync+SLI+DSR) wie es sein sollte.


-----------------------------------------------------------------

Komische Beobachtung eben. Ich starte den PC. G-Sync aus und SLI läuft. Crysis 3 bringt hohe FPS. -> dann wollte ich nochmal das mit der roten LED testen -> G-Sync an. -> Crysis 3 startet. LED wird rot. -> und ich habe 98 % + 70 % Auslastung. SLI läuft. WTF?? :freak::freak:

Irgendwas muss im NVCPL buggy sein. Ich frickle ewig dran und jetzt gehts? G-Sync an-aus-an? Mal schauen, ob es so bleibt.
Das Dumme ist, ich kann den Grund nicht nachvollziehen.

Geht bei dir G-Sync + SLI richtig?

Gsync + SLI geht ohne Probleme bei mir.

Hast du mal den Mem-OC zurückgefahren bei der Karte? C3 sollte doch auf beiden GPUs 98% liefern oder?

robbitop
2014-10-11, 18:33:34
Ich habs natürlich komplett ohne OC gemacht. Erst als SLI lief habe ich übertaktet.

Und ich nutze natürlich ausschließlich 144 Hz.

Na ich werde mir SLI eine Weile anschauen. Wenn GM200 kommt muss ich dann mal schauen ob ich dann 2 kaufe oder einfach bei einer bleibe.

Eigentlich will ich für doppelte Investition schon in etwa doppelten Nutzwert/Leistung haben. Oder wenigstens 80 %.
Wenn man microruckeln mit einrechnet hat man wohl gefühlt ca 50% mehr Leistung oder? Das sollte ja dann ca eine GM200 schaffen.

4Fighting
2014-10-11, 19:37:21
Ich habs natürlich komplett ohne OC gemacht. Erst als SLI lief habe ich übertaktet.

Und ich nutze natürlich ausschließlich 144 Hz.

Na ich werde mir SLI eine Weile anschauen. Wenn GM200 kommt muss ich dann mal schauen ob ich dann 2 kaufe oder einfach bei einer bleibe.

Eigentlich will ich für doppelte Investition schon in etwa doppelten Nutzwert/Leistung haben. Oder wenigstens 80 %.
Wenn man microruckeln mit einrechnet hat man wohl gefühlt ca 50% mehr Leistung oder? Das sollte ja dann ca eine GM200 schaffen.

was ich beobachten kann ist wenn der Mem-OC zu stark ist, sinkt die GPU Auslastung gerne auf 60% anstatt komplett abzustürzen. ggf. erklärt das die Probleme mit deinen 70% bei C3.

Versuch das ganze Mal mit 120hz. Nutzt du auch 144hz auf dem Desktop? Das würde ich dir nämlich nicht raten:freak:

robbitop
2014-10-11, 20:24:14
144 Hz überall. Sieht butterweich aus. Ohne OC habe ich auch nicht mehrh Auslastung. Wieso? Wo ist das Problem mit 144 Hz? :)

4Fighting
2014-10-11, 20:25:57
144 Hz überall. Sieht butterweich aus. Ohne OC habe ich auch nicht mehrh Auslastung. Wieso? Wo ist das Problem mit 144 Hz? :)

bei 144hz takten die Karte nicht im Desktopbetrieb herunter. d.h. sie läuft mit 3d clocks + voltage, was imo ja nicht sein muss

Ich ziehe daher (faulheit ahoi) die 120hz vor.

Kartenlehrling
2014-10-11, 21:14:58
auch soll die latenz unter 120hz besser sein, jedenfall haben das die mausklick test vor einem halben jahr gezeigt.

robbitop
2014-10-11, 22:07:31
Generell oder nur auf dem Desktop (Latenz)?

Wenn ich im Desktop 120 Hz einstelle und man beim Spiel (kommt öfter vor) die Refrehrate nicht ändern kann: wie stelle ich für Games denn 144 Hz ein?

@4Fighting
Was hast du in Crysis 3 für eine Auslastung der GPUs?

4Fighting
2014-10-12, 09:09:29
Generell oder nur auf dem Desktop (Latenz)?

Wenn ich im Desktop 120 Hz einstelle und man beim Spiel (kommt öfter vor) die Refrehrate nicht ändern kann: wie stelle ich für Games denn 144 Hz ein?

@4Fighting
Was hast du in Crysis 3 für eine Auslastung der GPUs?

du kannst die refreshrate einfach am Monitor hoch"boosten" auf 144hz ingame.

Wenn du das Spiel schließt, bist du wieder auf dem Desktop mit den 120hz

C3 läuft mit guten 90+ auf beiden Karten inkl. Gsync:)

Hattest Du mal den Treiber deinstalliert?

robbitop
2014-10-12, 09:34:05
du kannst die refreshrate einfach am Monitor hoch"boosten" auf 144hz ingame.
Stimmt. Mit dem Turbo Knopf. Den müsste ich dann aber jedes Mal wieder drücken, wenn ich ein Spiel starte oder?




C3 läuft mit guten 90+ auf beiden Karten inkl. Gsync:)

Hattest Du mal den Treiber deinstalliert?

Hatte ich noch nicht, weil ja SLI + G-Sync jetzt lief. Welchen Treiber nutzt du?

Was ich seltsam finde, ist dass GPU 2 98% hat und die Auslastung von GPU1 aber schwankt. Je nach Situation in C3 zwischen 50 und sogar 80 %. Meistens aber im Bereich von 60...70%. GPU2 hingegen ist konstant auf 98 %.

Ich verstehe nicht, warum die Auslastung von GPU1 so schwankt und bei GPU2 so extrem konstant ist. Und warum hat eigentlich nicht GPU1 die hohe Auslastung?

Also irgendwas scheint immer noch faul zu sein. Ich werde wohl den 340er mal testen.

Gast
2014-10-12, 09:36:44
Generell oder nur auf dem Desktop (Latenz)?

Wenn ich im Desktop 120 Hz einstelle und man beim Spiel (kommt öfter vor) die Refrehrate nicht ändern kann: wie stelle ich für Games denn 144 Hz ein?


Mit einem G-Sync Monitor kann man per ControlPanel die "Bevorzugte Atualisierungsrate" pro Anwendung einstellen:
Entweder Desktop oder höchstmögliche Erzwingen.

robbitop
2014-10-12, 09:53:06
Habe 120 Hz in Wondows getestet. Die Karten bleiben bei 836 MHz Core. (ich habe in Windows die Energieverwaltung allerdings auch auf "Höchstleistung" gestellt und im NVCPL auch. So wie man mir es im Nachbarthread empfohlen hatte)

Und ich merke von der Klicklatenz keinen Unterschied. 144 Hz und 120 Hz sind beide butterweich in Windows und alles reagiert sofort. Wobei ich auch keine Maschine bin. :)

edit:
Neustart + NVCPL auf "adaptiv" und Energieoptionen auf "ausgeglichen" und schon takten die GPUs herunter. Insbesondere die für SLI sekundäre GPU (was GPU 1 zu sein scheint -> WTF? GPU2 scheint die primäre GPU für SLI zu sein obwohl der Monitor an GPU 1 angeschlossen ist -> GPU 2 taktet hoch wenn ein bisschen was passiert und die 1 bleibt unten)

Könnte ich mit den Settings "Ausgeglichen" + "Adaptiv" Leistungseinbußen in Spielen haben?

robbitop
2014-10-12, 10:19:26
So: DDU + Neuinstallation des 340er Treibers. Gleiche Auslastung, gleiches Verhalten.

Ich kann mir nur vorstellen, dass es an Crysis 3 liegt. Furmark lastet beide GPUs mit 99 % aus.

4Fighting
2014-10-12, 10:26:29
Stimmt. Mit dem Turbo Knopf. Den müsste ich dann aber jedes Mal wieder drücken, wenn ich ein Spiel starte oder?


korrekt:(...Aber imo besser als die Karten unnötig im 3D-Modus auf dem Desktop zu belassen



Hatte ich noch nicht, weil ja SLI + G-Sync jetzt lief. Welchen Treiber nutzt du?

Was ich seltsam finde, ist dass GPU 2 98% hat und die Auslastung von GPU1 aber schwankt. Je nach Situation in C3 zwischen 50 und sogar 80 %. Meistens aber im Bereich von 60...70%. GPU2 hingegen ist konstant auf 98 %.

Ich verstehe nicht, warum die Auslastung von GPU1 so schwankt und bei GPU2 so extrem konstant ist. Und warum hat eigentlich nicht GPU1 die hohe Auslastung?

Also irgendwas scheint immer noch faul zu sein. Ich werde wohl den 340er mal testen.

nutze den 344.24.

Ich kann mich da leider nur wiederholen: Wenn bei mir GPU1 auf 60% abgesackt ist, dann habe ich es mit dem Mem-OC übertrieben. GPU2 lieferte fröhlich weiter 98% und GPU1 war in irgendeinem Stadium zwischen Treiber-Reset und Normalzustand:freak:

Habe 120 Hz in Wondows getestet. Die Karten bleiben bei 836 MHz Core. (ich habe in Windows die Energieverwaltung allerdings auch auf "Höchstleistung" gestellt und im NVCPL auch. So wie man mir es im Nachbarthread empfohlen hatte)

Und ich merke von der Klicklatenz keinen Unterschied. 144 Hz und 120 Hz sind beide butterweich in Windows und alles reagiert sofort. Wobei ich auch keine Maschine bin. :)

edit:
Neustart + NVCPL auf "adaptiv" und Energieoptionen auf "ausgeglichen" und schon takten die GPUs herunter. Insbesondere die für SLI sekundäre GPU (was GPU 1 zu sein scheint -> WTF? GPU2 scheint die primäre GPU für SLI zu sein obwohl der Monitor an GPU 1 angeschlossen ist -> GPU 2 taktet hoch wenn ein bisschen was passiert und die 1 bleibt unten)

Könnte ich mit den Settings "Ausgeglichen" + "Adaptiv" Leistungseinbußen in Spielen haben?

Das habe ich mich auch schon gefragt: kann es sein das GPU1 in Wahrheit GPU2 im Slot ist?

Beide Karten haben leider das identische Bios daher ist es schwer rauszufinden, welche Karte nun welche ist.

Energieoptionen - damit sind die Windows Optionen gemeint? Da fahre ich i.d.R. Höchstleistung mit ein paar Abweichungen für HDDs etc. Bei Ausgeglichen könnte sogar core-parking aktiviert werden:confused:

Adaptiv fahre ich auch und es ist einfach besser so. Selbst bei einfachen VLC Videos bleiben die Karten nun endlich im Idle Betrieb. Bei Spielen ist mir noch kein Nachteil aufgefallen und sollte mal ein Spiel es nicht richtig hinkriegen, dann kannst Du für das 1 Spiel ja über den Inspector einen anderen Modus forcieren.


btw: Der Gast hat natürlich Recht. Du könntest auch jedem Spiel 144hz zuweisen, aber das wäre mir zu viel Arbeit :D

robbitop
2014-10-12, 10:54:53
Irgendwas ist faul. Ich habe 3DMark durchlaufen lassen.

Könnt ihr da drauf schauen oder muss ich noch irgendwas einstellen, damit andere die Resultate sehen können?

http://www.3dmark.com/3dm/4338479

10905 Firestrike Punkte. Die Auslastung war grottig. Die Performance entspricht wohl ca. einer Titan. Im Vergleich sind die Titan SLI System deutlich drüber. Bei ca. 15.000.

Ich habe keine Ahnung was ich noch machen soll...

robbitop
2014-10-12, 10:58:17
Ich kann mich da leider nur wiederholen: Wenn bei mir GPU1 auf 60% abgesackt ist, dann habe ich es mit dem Mem-OC übertrieben. GPU2 lieferte fröhlich weiter 98% und GPU1 war in irgendeinem Stadium zwischen Treiber-Reset und Normalzustand:freak:
Nope. Habe selbstverständlich OC rückgängig gemacht. 1006/3000 GPU/MEM.




Das habe ich mich auch schon gefragt: kann es sein das GPU1 in Wahrheit GPU2 im Slot ist?
Ist das bei dir auch so? GPU1 ist in PCIe2 und GPU2 ist in PCIe5. (das sind die beiden 16x Slots)



Energieoptionen - damit sind die Windows Optionen gemeint? Da fahre ich i.d.R. Höchstleistung mit ein paar Abweichungen für HDDs etc. Bei Ausgeglichen könnte sogar core-parking aktiviert werden:confused:

Adaptiv fahre ich auch und es ist einfach besser so. Selbst bei einfachen VLC Videos bleiben die Karten nun endlich im Idle Betrieb. Bei Spielen ist mir noch kein Nachteil aufgefallen und sollte mal ein Spiel es nicht richtig hinkriegen, dann kannst Du für das 1 Spiel ja über den Inspector einen anderen Modus forcieren.
OK - also Höchstleistung + Adaptiv. :)


btw: Der Gast hat natürlich Recht. Du könntest auch jedem Spiel 144hz zuweisen, aber das wäre mir zu viel Arbeit :D
Sollte auch anders gehen. Man kann in den globalen 3D Settings "höchste Refreshrate anfordern" einstellen. Also sollten bei Spielen dann immer 144 Hz anliegen.

4Fighting
2014-10-12, 10:58:54
Irgendwas ist faul. Ich habe 3DMark durchlaufen lassen.

Könnt ihr da drauf schauen oder muss ich noch irgendwas einstellen, damit andere die Resultate sehen können?

http://www.3dmark.com/3dm/4338479

10905 Firestrike Punkte. Die Auslastung war grottig. Die Performance entspricht wohl ca. einer Titan. Im Vergleich sind die Titan SLI System deutlich drüber. Bei ca. 15.000.

Ich habe keine Ahnung was ich noch machen soll...

für 3d mark muss du gsync ausmachen, da es den monitor auf 60hz heruntertaktet oder manuell die 120/144hz erzwingen.

ansonsten läuft es natürlich nur mit 60fps =)

Kartenlehrling
2014-10-12, 11:10:22
Ich weiss gar nicht wieso er sich soo versteift die 144hz zu behalten,
es ist doch erwiesen das im Moment alles für 120hz spricht?!

Gast
2014-10-12, 11:21:57
btw: Der Gast hat natürlich Recht. Du könntest auch jedem Spiel 144hz zuweisen, aber das wäre mir zu viel Arbeit :D

Muss man nicht. Man kann auch Global 144Hz in jedem Spiel per CP erzwingen und wieterhin auf dem Desktop mit 120Hz belassen.

Grestorn
2014-10-12, 11:48:44
für 3d mark muss du gsync ausmachen, da es den monitor auf 60hz heruntertaktet oder manuell die 120/144hz erzwingen.

Für 3DMark sollte man GSync mit dem Inspector im Profil ausschalten. Das klappt sehr gut und man muss nicht ständig daran denken, GSync ein- und auszuschalten.

robbitop
2014-10-12, 12:06:22
für 3d mark muss du gsync ausmachen, da es den monitor auf 60hz heruntertaktet oder manuell die 120/144hz erzwingen.

ansonsten läuft es natürlich nur mit 60fps =)
G-Sync war aus.

4Fighting
2014-10-12, 12:49:51
G-Sync war aus.

und die Auslastung der gpus war entsprechend auch nur bei 50-60%?

Ich komme auf ca. 19k mit meinem System.:eek:

andere SLI Bridge mal probiert?

Wirklich komisch...und wenn du einen anderen monitor nimmst läuft alles?

robbitop
2014-10-12, 15:54:07
und die Auslastung der gpus war entsprechend auch nur bei 50-60%?

Ich komme auf ca. 19k mit meinem System.:eek:

andere SLI Bridge mal probiert?

Wirklich komisch...und wenn du einen anderen monitor nimmst läuft alles?
Danke für den Hinweis. Daran habe ich auch schon gedacht.

Gesagt - getan:

Ich habe den BenQ FullHD 60 Hz Monitor angeschlossen:
Plötzlich habe ich eine Auslastung von 95-98 % auf beiden GPUs und 15.300 Firestrikepunkte (kein OC). :eek:

Es liegt also offenbar nicht an den Titans, dem Board oder der SLI Brücke.

Wie ist es eigentlich mit den Firestrikepunkten? Ist das auflösungsunabhängig? Der ASUS ROG SWIFT hat ja 1440p. Der BenQ nur 1080p.

4Fighting
2014-10-12, 15:55:46
Danke für den Hinweis. Daran habe ich auch schon gedacht.



Wie ist es eigentlich mit den Firestrikepunkten? Ist das auflösungsunabhängig? Der ASUS ROG SWIFT hat ja 1440p. Der BenQ nur 1080p.

Firestrike läuft ja nur in 1080p. Erst FSE läuft in 1440p

robbitop
2014-10-12, 16:01:18
Crysis 3: 78-90 % Auslastung.

Was auch immer faul mit SLI ist - es scheint mit G-Sync oder der Erkennung des G-Sync Moduls zusammenzuhängen.

Muss man ggf von ASUS einen Treiber für den ROG SWIFT installieren?

akuji13
2014-10-12, 16:02:00
Ich habe die .inf benutzt weil vorher der Swift nicht korrekt arbeiten wollte.

robbitop
2014-10-12, 16:11:59
Dem SWIFT wieder reingesteckt: und zack - nur noch 10.800 Punkte und wieder 55-70 % Auslastung.

4Fighting
2014-10-12, 16:16:58
irgendwie hast du einen fps lock bei 55 fps drinne. Alle deine 3d Mark tests erreichen nie FPS über 55.

Hilft dir zwar nicht, aber ist ne Beobachtung :(

robbitop
2014-10-12, 16:50:17
Naja aber auf dem BenQ habe ich das Problem offenbar nicht.

Habe jetzt mal den SWIFT an die GPU 2 gehängt. Jetzt ist die Auslastung genau umgekehrt. GPU1 hat volle konstante Auslastung und GPU2 schwankt. Schon seltsam.

edit: macht eigentlich die SLI Methode irgendwelche Unterschiede? AFR1, AFR2, nvidia recommended

edit2: falls ich eine Art Framelimiter drin haben sollte (was ich nie eingestellt habe) - wo finde ich diese Einstellung, um zu prüfen ob sowas an sein könnte? -> habs im Inspector gefunden -> war aber aus!

edit3: http://www.3dmark.com/3dm/4341529 3DMark mit GPU2 am ROG SWIFT mit SLI (deutlich schlechter als am BenQ)

robbitop
2014-10-12, 17:17:57
Es ist absolut reproduzierbar:
ROG SWIFT rein -> Auslastung schlecht und fps schlecht
BenQ rein -> Auslastung gut und fps gut.

An der Auflösung liegts auch nicht. Der SWIFT erzeugt bei C3 auch @FullHD schlechte Bildraten.

Es scheint also etwas mit dem G-Sync Modul im ROG SWIFT zu tun zu haben (obwohl ich das Feature bei den Tests nicht genutzt habe).

Ein Framelimiter scheint übrigens nicht aktiv zu sein. Ich habe die FPS während des Benchmarks beäugt. Die fps gehen auch mal über 80 fps auf dem BenQ - auch wenn das Gesamtergebnis am Ende bei 55 fps ist. Aber gecapt wird dort nichts.

robbitop
2014-10-12, 17:23:48
Ich scheine nicht der einzige mit so einem Problem zu sein:
https://forums.geforce.com/default/topic/780246/geforce-900-series/help-with-980-gtx-sli-low-3dmark-scores-problems-with-rog-swift-gsync-might-be-sticking-/


Guys I have a 2600K, Asus Maximus IV Extreme, Corsair 1200 watt PSU, 16 gig Corsair 2400Mhz and Windows 64 Premium , Asus Rog Swift. My previous setup had 3 EVGA SC GTX 780s and ran with zero problems. So I did a driver un-install and popped in 1 Gigabyte G1 980 Gtx and installed the drivers then ran 3dmark and got 13100 on Firestrike, wow that's great! I add the second card and get 13650 ? Wow whats going on with that. So I went into the drivers and made sure Gsync was Disabled and get the same score, I re enabled it and I get roughly the same score. So now im really frustrated so I re-install Windows and start all over, I get the same scores ( After installing windows I made sure to not install that windows update that causes SLI isuues ) So on a Whim I plug my old moniter in ( Acer 1920X1200 ) and I run 3dmark Firestrike and my score jumps to 17150 ( Still not high ebough for my liking ) and I wonder wtf is going on. Also I fire up GPU-Z and im only using 60 TDP on both cards, temps are in the 40s, clocks are evenly matched but 2 things stand out. First MY VOLTAGES are Different on each card under load and at rest, Load is 1.25 other card 1.868, Then in GPU-Z under Perfcap im getting VREL on the first card. Im really stumped and not sure if I should get rid of the cards and go back to my 780s. BTW my 780s with the Rog Swift work in 3dmark and Heaven and get the higher scores with Gsync off unlike the 980s. Any ideas? Also DSR is not in my settings with SLI enabled, is that normal.

Ich tippe darauf, dass es nur sehr wenige Leute gibt, die einen ROG SWIFT haben und noch viel weniger Leute, die einen ROG SWIFT und SLI. Insofern ist die Chance, dass dort irgendwelche Bugs entdeckt und untersucht werden gering.

Dieser Marcdaddy im nvidiaforum scheint sogar Windows neu aufgesetzt zu haben.

@4Fighting

welches Windows benutzt du für SLI + ROG Swift?

Blaire
2014-10-12, 17:24:56
Habe jetzt mal den SWIFT an die GPU 2 gehängt. Jetzt ist die Auslastung genau umgekehrt. GPU1 hat volle konstante Auslastung und GPU2 schwankt. Schon seltsam.
edit2: falls ich eine Art Framelimiter drin haben sollte (was ich nie eingestellt habe) - wo finde ich diese Einstellung, um zu prüfen ob sowas an sein könnte? -> habs im Inspector gefunden -> war aber aus!

edit3: http://www.3dmark.com/3dm/4341529 3DMark mit GPU2 am ROG SWIFT mit SLI (deutlich schlechter als am BenQ)

Vieleicht ein Engpass bez. PCIe-Lanes... klingt fast so, wie sind denn beide Grafikkarten angebunden?

edit: macht eigentlich die SLI Methode irgendwelche Unterschiede? AFR1, AFR2, nvidia recommended

Das ist gewiss nicht das Problem, du hast da nur die Wahl der einzelnen Render-Modi oder halt dem von NV vorgefertigten Profile.

robbitop
2014-10-12, 17:31:33
Vieleicht ein Engpass bez. PCIe-Lanes... klingt fast so, wie sind denn beide Grafikkarten angebunden?

PCIe 3.0 8x Lanes. Ist ein Z97 Chipsatz mit Haswell i7 4970K
Das entspricht PCIe 2.0 16x Lanes.

Außerdem kann es mit den Lanes nichts zu tun haben. Stecke ich meinen Standardmonitor ein, skaliert SLI wunderbar. Stecke ich den ROG Swift rein, skaliert es nicht mehr. Auch unter gleicher Auflösung nicht (FullHD).

Es sieht so aus als hätte es was mit G-Sync bzw dem Modul oder seiner Erkennung zu tun.

robbitop
2014-10-12, 17:53:33
Anbei nochmal ein Test mit OC Titan SLI@1175/3500 mit einem Standard Monitor
http://www.3dmark.com/3dm/4342063
17.000 Punkte

Kartenlehrling
2014-10-12, 18:02:46
gibt es denn überhaupt genug Messunge wieviel g-sync an FPS schluckt, das am Ende ... nicht 1:1 rausbekommt sollte eigentlich jedem klar sein.

Das wird wie mit den latenzproblem über 120fps/hz sein, da werden wohl FPS "verschluckt".

In welchen FPS Bereich spielst du überhaupt, sag bitte nicht 150-300fps.

Blaire
2014-10-12, 18:09:12
Außerdem kann es mit den Lanes nichts zu tun haben. Stecke ich meinen Standardmonitor ein, skaliert SLI wunderbar.

Ist ja logisch, ist ja auch kein G-Sync aktiv. G-Sync kommuniziert über PCI-e Bus und daher ist das keinesfalls unwahrscheinlich. Im sGPU-Modus und einer Titan gibt es keine Probleme mit G-Sync oder?

4Fighting
2014-10-12, 18:11:33
nutze windows 7 momentan. aber das kann kein generelles windows problem sein, dass ausgerechnet bei dir mit 55fps eine art lock greift.

ich tippe irgendwie eher auf die pcie oder ähnliches.

kannst du mal auf pcie 2.0 8x oder so heruntergehen?

robbitop
2014-10-12, 18:13:45
gibt es denn überhaupt genug Messunge wieviel g-sync an FPS schluckt, das am Ende ... nicht 1:1 rausbekommt sollte eigentlich jedem klar sein.

Das wird wie mit den latenzproblem über 120fps/hz sein, da werden wohl FPS "verschluckt".

In welchen FPS Bereich spielst du überhaupt, sag bitte nicht 150-300fps.
Es geht hier nicht mehr um G-Sync, sondern überhaupt darum dass SLI nicht richtig funktioniert wenn ein G-Sync Monitor (G-Sync ausgeschaltet!) erkannt wird.


Interessante Beobachtung:

Ich habe beim ASUS ROG SWIFT die Auflösung in Windows auf FullHD reduziert. Das Firestrike Ergebnis bessert sich von 10.400 auf 12.600
http://www.3dmark.com/3dm/4342267

3DMark selbst läuft zwar in FullHD aber offenbar hat die Skalierung etwas damit zu tun? Ich habe Skalierung im NVCP ausgeschaltet für obiges Ergebnis.

Ist ja logisch, ist ja auch kein G-Sync aktiv. G-Sync kommuniziert über PCI-e Bus und daher ist das keinesfalls unwahrscheinlich. Im sGPU-Modus und einer Titan gibt es keine Probleme mit G-Sync oder?
im sGPU gibt es kein G-Sync Problem. Und SLI läuft auch ohne G-Sync auf meinem ROG SWIFT nicht richtig. Ich verstehe das nicht.

nutze windows 7 momentan. aber das kann kein generelles windows problem sein, dass ausgerechnet bei dir mit 55fps eine art lock greift.

ich tippe irgendwie eher auf die pcie oder ähnliches.

kannst du mal auf pcie 2.0 8x oder so heruntergehen?
Wie gesagt: da ist kein Lock. Ich habe mir die FPS angeschaut als der Benchmark lief. Da waren auch Stellen mit 100 fps dabei. Vergiss den Lock. Das ist quatsch.

Es muss irgendwas anderes sein. Nichts von den Annahmen erklärt das Verhalten:

Monitor 1: SLI skaliert sehr gut
Monitor 2: SLI skaliert sehr schlecht

PCIe 2.0 habe ich schon probiert. Bringt nichts.

PCIe 3.0 8x ist genauso schnell wie PCIe 2.0 16x. Da gibt es praktisch keine Limitierung. Vieleicht wenige Prozent aber nicht wie in meinen Messungen gleich mal 50-70 %.

4Fighting
2014-10-12, 18:16:20
Es geht hier nicht mehr um G-Sync, sondern überhaupt darum dass SLI nicht richtig funktioniert wenn ein G-Sync Monitor (G-Sync ausgeschaltet!) erkannt wird.


Interessante Beobachtung:

Ich habe beim ASUS ROG SWIFT die Auflösung in Windows auf FullHD reduziert. Das Firestrike Ergebnis bessert sich von 10.400 auf 12.600
http://www.3dmark.com/3dm/4342267

3DMark selbst läuft zwar in FullHD aber offenbar hat die Skalierung etwas damit zu tun? Ich habe Skalierung im NVCP ausgeschaltet für obiges Ergebnis.

das war schon iirc im 11er 3dmark so, dass man je nach Skalierung mehr Punkte hatte (stretched vs centered meine ich war es damals)

vielleicht werden zu viele daten über den pcie bus geschickt?:freak: ich hab da k.A. ob das möglich ist. Aber unter 1080p wird die datenmenge ja reduziert und die karten laufen besser

ich könnte auch nochmal abgefahren auf meine kabeltheorie kommen. kannst du mal das ganze mit dem 2m kabel von asus probieren? :freak:

Blaire
2014-10-12, 18:25:04
im sGPU gibt es kein G-Sync Problem. Und SLI läuft auch ohne G-Sync auf meinem ROG SWIFT nicht richtig. Ich verstehe das nicht.

Achso, das war mir bislang neu und es auch mit deakt. G-Sync Probleme mit dem Monitor gibt. Welchen Treiber hast du aktuell installiert?
Kannst du mal bitte deine komplettes PC-System auflisten, zusätzlich die VBios-Versionen deiner beiden Titan´s. Diese kannst du in der NV Systemsteuerung/Hilfe/Systeminformationen finden.
http://abload.de/thumb/example1iko7.png (http://abload.de/image.php?img=example1iko7.png)
Ich werde dann bei NV mal nächste Woche anfragen, ob dazu etwas bekannt ist bzw. ob sie mal einen Blick darauf werfen können.
Kannst natürlich auch das off. NVIDIA Display Driver Feedback-Formular dafür nutzen -> http://surveys.nvidia.com/index.jsp?pi=6e7ea6bb4a02641fa8f07694a40f8ac6

robbitop
2014-10-12, 18:43:17
Nochmal ein paar Tests:

Titan SLI@1150/3500

BenQ Monitor: 17.000 Punkte
ROG Swift @FullHD Desktop GPU-Skalierung: 13.000 Punkte
ROG Swift @FullHD Desktop keine Skalierung: 12.600 Punkte
ROG Swift @1440p Destkop: 10.600 Punkte

zum Vergleich Titan SINGLE!!

@1150/3500: 10.460 Punkte

Reproduzierbar.

Jetzt mal eine Frage: Was passiert (rein hypotetisch!), wenn

A. eine SLI Brücke kaputt ist
B. eine SLI Brücke falsch herum aufgesteckt wird (geht sowas?)
C. eine SLI Brücke z.B nicht aufgesteckt ist

Ich überlege, ob das ggf. die Ursache sein könnte.



das war schon iirc im 11er 3dmark so, dass man je nach Skalierung mehr Punkte hatte (stretched vs centered meine ich war es damals)
OK - aber so viel? Zwischen 20 und 30 % mehr?

vielleicht werden zu viele daten über den pcie bus geschickt?:freak: ich hab da k.A. ob das möglich ist. Aber unter 1080p wird die datenmenge ja reduziert und die karten laufen besser

ich könnte auch nochmal abgefahren auf meine kabeltheorie kommen. kannst du mal das ganze mit dem 2m kabel von asus probieren? :freak:

Das kann ich mal probieren.


Achso, das war mir bislang neu und es auch mit deakt. G-Sync Probleme mit dem Monitor gibt. Welchen Treiber hast du aktuell installiert?
Kannst du mal bitte deine komplettes PC-System auflisten, zusätzlich die VBios-Versionen deiner beiden Titan´s. Diese kannst du in der NV Systemsteuerung/Hilfe/Systeminformationen finden.
http://abload.de/thumb/example1iko7.png (http://abload.de/image.php?img=example1iko7.png)
Ich werde dann bei NV mal nächste Woche anfragen, ob dazu etwas bekannt ist bzw. ob sie mal einen Blick darauf werfen können.
Kannst natürlich auch das off. NVIDIA Display Driver Feedback-Formular dafür nutzen -> http://surveys.nvidia.com/index.jsp?pi=6e7ea6bb4a02641fa8f07694a40f8ac6

Treiber: probiert habe ich 344 und 340. Im Moment den 340. (beide WHQL)

PC findest du in der Systeminfo (3DCF Profil)
vBIOS: 80.10.2C.00.02 (Titan1)
vBIOS: 80.10.2C.00.02 (Titan2)

occ-kh@Mirko
2014-10-12, 19:13:43
Bist du vielleicht an den Refresh Rate Turbo Key gekommen? Damit kann man die Frequenz beim Monitor one the fly umstellen. Manchmal steckt der Fehlerteufel im Detail.

Ansonsten hatte Nvidia geschrieben das bestimmte Anwendungen, auch Spiele GSync erstmal nicht so optimal unterstützen können wie gewünscht. Heißt wohl die Treiber müssen angepasst werden. Auch Aufzeichnungkarten werden nicht unterstützt.

NVIDIA G-SYNC arbeitet mit allen Spielen zusammen. Wir haben jedoch herausgefunden, dass manche Spiele sich nicht optimal verhalten. Für diese Spiele empfehlen wir, die in unserer Systemsteuerung vorhandene Möglichkeit zu nutzen, G-SYNC für ein einzelnes Spiel zu deaktivieren. Wenn NVIDIA Spiele entdeckt, denen G-SYNC Probleme bereitet, werden diese in unserem Treiber standardmäßig deaktiviert.
http://www.nvidia.de/object/g-sync-faq-de.html

Es geht hier nicht mehr um G-Sync, sondern überhaupt darum dass SLI nicht richtig funktioniert wenn ein G-Sync Monitor (G-Sync ausgeschaltet!) erkannt wird.
Wie hast du das festgestellt? Vielleicht liegt es einfach nur am Asusmonitor?

robbitop
2014-10-12, 19:20:50
Ich kann es natürlich nicht mit Sicherheit sagen. Ich kann durch den Kreuztest lediglich sagen, dass es mit SLI in Kombination mit dem ROG Swift Probleme gibt. Auf den Turbokey bin ich nicht gekommen.

occ-kh@Mirko
2014-10-12, 19:40:38
Achso, naja du weißt ja, als Erstkäufer hat man nicht immer die besten Karten. Ein Displayport-Verknüpfungsfehler wurde bisher aber nicht gezeigt? Könnte dann auch mit dem Kabel zusammenhängen. Hattest du den BenQ auch über DP angestepselt?

robbitop
2014-10-12, 21:54:10
Beide Monitore über DP. Keine Fehler.
Ich nehme an, dass bei Fehlen oder Defekts der SLI Bridge Fehler oder Meldungen auftauchen würden?
Vorhanden ist sie ja. Funktionieren müsste sie eigentlich auch. Ansonsten würde es mit dem BenQ nicht gehen.
Dummerweise fahre ich ab morgen für eine Woche weg. Ich kann also erst danach weitertesten.

Tzunamik
2014-10-13, 10:05:36
Hey Rob,

hier mal meine Werte als Gegenvergleich
http://www.3dmark.com/compare/fs/2842959/fs/2843000

Alles per DP am Bildschirm =)

Djinn
2014-10-14, 07:13:33
Ich tippe darauf, dass es nur sehr wenige Leute gibt, die einen ROG SWIFT haben und noch viel weniger Leute, die einen ROG SWIFT und SLI. Insofern ist die Chance, dass dort irgendwelche Bugs entdeckt und untersucht werden gering.
Hallo Robbi, ich habe ein ähnliches System wie du, nur dass bei mir 2 GTX 780 Ti verbaut sind anstelle von 2 Titanen. Mir ist ebenfalls aufgefallen, dass die 3DMark Firestrike (+Extreme) Scores seitdem ich meinen Swift habe, gesunken sind, allerdings nicht so extrem wie bei dir. Hatte natürlich ebenfalls G-Sync deaktiviert beim Benchmark. Dachte zuerst ebenfalls es läge an der 1440p-Auflösung und habe dann mal definitiv 1080p erzwungen, was jedoch keinen höheren Score brachte.

In Games habe ich jedoch keine Probleme und da passt die Performance meiner Meinung nach auch. Aber nachdem ich ebenfalls 2 Monitore habe (den Swift und einen Samsung XL2370) müsste ich mal irgendein Game hernehmen und es einmal auf dem Swift und einmal auf dem Samsung in 1080p fahren und die FPS vergleichen. Werde ich bei Gelegenheit mal machen.

robbitop
2014-10-14, 08:42:45
Schau auf die Auslastung. Sobald man sieht, dass die Auslastung einer der beiden GPUs unter 90 % fällt, ist was faul. Bei mir schwankt beim ROG SWIFT GPU2 zwischen 55 und 85 %. Auf dem BenQ ist sie aber bei 95 %.

Djinn
2014-10-14, 10:06:25
Dieses Problem hab ich jedoch nicht. GPU-Auslastung ist eigentlich ständig zwischen 95 und 99% (auf beiden GPUs). Aber trotzdem habe ich einen schlechteren Score gegenüber dem alten Monitor. Muss glaub ich nochmal mit dem anderen Monitor testen, ob der Score und die FPS wirklich monitor-abhängig sind.

4Fighting
2014-10-14, 10:08:25
Dieses Problem hab ich jedoch nicht. GPU-Auslastung ist eigentlich ständig zwischen 95 und 99% (auf beiden GPUs). Aber trotzdem habe ich einen schlechteren Score gegenüber dem alten Monitor. Muss glaub ich nochmal mit dem anderen Monitor testen, ob der Score und die FPS wirklich monitor-abhängig sind.

stell doch mal bitte den futuremark link ein :)

Djinn
2014-10-14, 11:10:10
stell doch mal bitte den futuremark link ein :)
Kann ich gerne machen, sobald ich von der Arbeit heimkomme. :)

robbitop
2014-10-14, 11:15:33
Djinn,

welches OS benutzt du? Windows 7 oder 8.1? Welchen Treiber hast du drauf?

Kartenlehrling
2014-10-14, 11:36:43
Wenn g-sync aktive ist kann/sollte die FPS leicht fallen, aber hier wird ja behaupte das Nvidias g-sync im Treiber abgeschalten ist.
Somit kann es ja nur heißen das diese nicht 100% passiert.

Hat eigentlich schon jemand die genau arbeitsweise von G-sync herausgefunden?
Was ist die Aufgabe vom Modul genau, was zb. eine iGPU oder die D-Grafikkarte nicht selber kann?

Wer macht mir mal den Heinz Rühmann und erklärt mir die Dampfmaschine "G-sync"?


Das einzige was mir Nvidia auf ihre Seite schreibt ist ... und das verstehe ich auch aber wie wird es gemacht.
Dadurch kann G-SYNC anstatt den Grafikprozessor mit dem Monitor,
den Monitor mit dem Ausgang des Grafikprozessors synchroniseren.

http://www.nvidia.de/object/how-does-g-sync-work-de.html
WIE FUNKTIONIERT NVIDIA G-SYNC?

robbitop
2014-10-14, 11:50:27
Man sieht am Monitor ob G-Sync aktiv ist oder nicht. Beim ROG SWIFT leuchtet eine rote LED, sobald G-Sync läuft. Da kann man wenig falsch machen.

G-Sync an und ausmachen geht im NV CPL:
1. über den Punkt G-Sync -> Häkchen setzen
und 2. unter 3D Settings unter Vertical Syncronisation: G-Sync

Beides muss gesetzt sein, dann ist G-Sync an. Setze ich beides auf "aus", ist es aus. Da kann man wenig verkehrt machen.

Wie G-Sync funktioniert ist auf tausenden Webseiten beschrieben.

Das G-Sync Modul wird benötigt, damit die Grafikkarte und der Monitor kommuniziern können. Die Grafikkarte sagt dem Monitor bescheid, dass sobald das Bild fertig ist, gerefresht werden muss.

Vorher war es ja so, dass der Monitor den Framebuffer im festen Intervall abgetastet hat. Da wurde also nicht wirklich kommuniziert im Sinne eines Dialogs.

Ich bitte dich, diesen Thread nicht zu de-railen, damit dir jemand G-Sync erklärt. Erstelle dazu bitte einen separaten Thread. Hier geht es eher um das Problem, warum SLI bei vorhandenem G-Sync Modul nicht zu funktionieren scheint und woran es liegt. Bei einigen scheint es ja zu gehen.

Djinn
2014-10-14, 12:16:33
Djinn,

welches OS benutzt du? Windows 7 oder 8.1? Welchen Treiber hast du drauf?
Ich hab Windows 7 x64 mit dem aktuellsten WHQL-Treiber 344.11.

Djinn
2014-10-14, 12:22:35
G-Sync an und ausmachen geht im NV CPL:
1. über den Punkt G-Sync -> Häkchen setzen
und 2. unter 3D Settings unter Vertical Syncronisation: G-Sync

Beides muss gesetzt sein, dann ist G-Sync an. Setze ich beides auf "aus", ist es aus. Da kann man wenig verkehrt machen.
Also ich befolge nur Punkt 1 um G-Sync an oder aus zu machen. Ich denke, wenn ich Punkt 1 aktiviere, ist Punkt 2 automatisch aktiv, oder?

Andere Frage an dich Robbi: hast du bei aktiviertem G-Sync auch hin und wieder das Problem, dass es nicht immer sofort greift? Bei mir kommt es ab und zu vor, dass wenn ich ein Spiel starte (obwohl G-Sync aktiviert ist), dass G-Sync nicht greift und die LED am Swift nicht rot wird. Dann beende ich das Game, starte es neu und meistens geht es dann. In seltenen Fällen benötige ich auch 3 oder gar 4 Versuche, bis G-Sync endlich "anspringt". Kann jetzt aber nicht sagen, ob dieses Problem vom Nvidia-Treiber kommt oder ein generelles SLI-Problem zu sein scheint.

4Fighting
2014-10-14, 12:29:27
Lt. Anleitung von NV musst Du auch Vsync auf Gsync stellen

Du solltest natürlich auch darauf achten, dass Vollbild (und kein rahmenloses Fenster ) bei den Spielen genutzt wird.

Je nach Spiel kann es ja mal sein, dass das nicht so ganz klappt. ALT+ENTER und gut ist in den Fällen :D

Djinn
2014-10-14, 12:41:39
Ich bilde mir ein, dass durch Setzen des Häkchens bei G-Sync automatisch im globalen Treiberprofil die vertikale Synchronisation auf G-Sync gestellt wird. Aber werde mir das nochmal ansehen.

Hast du einen Link zu dieser "Anleitung von Nvidia"? Hab kurz gegoogelt und auf der Nvidia-Seite, wo G-Sync erklärt wird, konnte ich diesbezüglich nichts finden.

Bei Spielen verwende ich generell Vollbild und kein rahmenloses Fenster. :)

Kartenlehrling
2014-10-14, 12:47:32
Lt. Anleitung von NV musst Du auch Vsync auf Gsync stellen

bei lucid virtual vsync ist das auch der fall, es muss im Spiel vsync aktive sein.
gerade wenn das Spiel mit Videos starte kann es passieren das virtual-vsync nicht greift, vielleicht leidet g-sync auch darunter.

Djinn
2014-10-14, 12:50:38
In den Spiel-Einstellungen selbst habe ich V-Sync eigentlich immer wie vorgeschrieben aus, da es ja unnötig ist, wenn G-Sync aktiv ist. Und immer achte ich eben nicht darauf, ob die rote LED anspringt und komm dann erst im Spiel selbst drauf, wenn es plötzlich Tearing gibt. Dann heißt's eben Spiel beenden und nochmal versuchen. :D

robbitop
2014-10-14, 13:01:30
Ich hab Windows 7 x64 mit dem aktuellsten WHQL-Treiber 344.11.
Das dachte ich mir. Ich beginne ein Muster zu sehen.

4Fighting und du habt beide SLI und den ROG SWIFT. Ihr habt beide das G-Sync + SLI Problem nicht. Ihr habt beide Windows 7.

Ich habe SLI und den ROG SWIFT und ich habe Windows 8.1. (und ich möchte wetten, dass der Marcdaddy aus dem nvidiaforum, der das gleiche Problem wie ich hat, auch Windows 8.1 installiert hat).

Ich werde sobald ich wieder zu Hause bin, testweise mal eine Windows 7 Installation machen.

Zu G-Sync:

man muss beides einstellen. Die VSync Einstellung des Spiels wird überschrieben. Das Spiel muss Vollbild sein. Wenn man das macht, funktioniert (bei mir) G-Sync immer reproduzierbar (rote LED leuchtet).

4Fighting
2014-10-14, 13:33:09
ich könnte noch mit einer windows 8 partition dienen. Win 8.1 kommt mir aber nicht drauf.

Vielleicht kann ich es heute Abend mal dort testen :)

robbitop
2014-10-14, 14:36:48
Gern. Warum aber kein 8.1? Ist doch eher eine Verbesserung ggü Windows 8. :)

4Fighting
2014-10-14, 14:45:46
Gern. Warum aber kein 8.1? Ist doch eher eine Verbesserung ggü Windows 8. :)

Bei 8.1 geht doch kein SweetFX oder hat sich das mittlerweile gegeben? Lumasharpen ist ein echtes Must-Have bei vielen Spielen imo :)

robbitop
2014-10-14, 15:40:36
Hm - habe ich noch nie probiert. Wobei sich die Frage dann stellt, ob Win 8 und 8.1 so gut vergleichbar sind was dieses Problem angeht.

Djinn
2014-10-14, 18:12:48
stell doch mal bitte den futuremark link ein :)
So, hier bitte sehr, ganz frisch: http://www.3dmark.com/3dm/4367212

Im Vergleich dazu ein älterer Run, wo ich den Swift noch nicht hatte (und die CPU auf 4,2 GHz anstatt wie jetzt 4,4 GHz): http://www.3dmark.com/3dm/3696968

Der Unterschied ist irgendwie enorm... :(

dargo
2014-10-14, 18:17:52
Bei 8.1 geht doch kein SweetFX oder hat sich das mittlerweile gegeben? Lumasharpen ist ein echtes Must-Have bei vielen Spielen imo :)
SweetFX geht auch mit Windows 8.1, jedenfalls bei AMD über RadeonPro. Mit Nvidia habe ich es noch nicht richtig getestet. Eventuell komme ich heute dazu.

Djinn
2014-10-14, 18:24:38
So, habe den Swift jetzt mal abgesteckt und erneut einen Firestrike Run durchgeführt: http://www.3dmark.com/3dm/4367368

Ca. 750 Punkte mehr, aber seltsamerweise immer noch weit entfernt von meinem ganz alten Run. Ok, seitdem gab es auch einige Updates beim 3DMark selbst, könnte natürlich auch daran liegen.

Jedenfalls entweder kostet es einfach Leistung, wenn am Swift die Ausgabe in 1440p erfolgt und nur intern in 1080p gerendert wird beim Firestrike Benchmark, oder es kostet generell einfach Leistung, wenn mehr als ein Bildschirm angeschlossen ist. Könnte jetzt zum Abschluss natürlich noch den Test machen, indem ich nur den Swift angeschlossen lasse und den anderen abstecke.

Djinn
2014-10-14, 18:35:34
So, hier das Ergebnis nur mit dem Swift: http://www.3dmark.com/3dm/4367614

Etwas mehr als mit beiden Monitoren, aber noch immer ca. 600 Punkte weniger als wenn mein Samsung dranhängt.

Und mein letzter Versuch nur mit dem Swift, jedoch vorher die Windows-Desktop-Auflösung auf 1080p umgestellt: http://www.3dmark.com/3dm/4367793

Scheinbar lassen sich die höchsten Scores erzielen, je niedriger die Auflösung am Monitor ist... :D

robbitop
2014-10-14, 19:27:07
Aber der Unterschied ist massiv kleiner als bei mir. ;) (BenQ vs SWIFT)

Djinn
2014-10-14, 19:43:21
Stimmt, bei dir sind die Unterschiede teilweise echt extrem... :)

Djinn
2014-10-14, 19:47:38
Hab jetzt mal einen Firestrike Run von dir mit einem von meinen verglichen. Da fällt mir auf, dass du überall höhere FPS erzielst außer beim Physics-Test, der rein die CPU auslastet. Sprich, das ist der Grund, der deinen Score nach unten zieht. Das seltsame jedoch ist, dass du einen 4790K mit 4,4 GHz hast, der eigentlich ein wenig schneller sein müsste als mein 4770K mit 4,4 GHz.

Djinn
2014-10-14, 19:49:29
Du http://www.3dmark.com/3dm/4342267 mit 26,5 FPS und ich bei meinen Runs jeweils ca. 40 FPS.

4Fighting
2014-10-14, 20:04:01
SweetFX geht auch mit Windows 8.1, jedenfalls bei AMD über RadeonPro. Mit Nvidia habe ich es noch nicht richtig getestet. Eventuell komme ich heute dazu.

bei RadeonPro steige ich aber bis dato nicht bei den Configs durch. Irgendwie sind die anders:confused:


@topic

Meine Win8 scores sind identisch:(. Also kann das (zumindest nicht pauschal gesprochen) nicht der Grund sein.

stimmt. Der cpu score ist brutal niedrig. Da habe ich auch nicht wirklich drauf geachtet :/.

@robbi
du könntest dir mit dem afterburner mal die taktraten per OSD anzeigen lassen ob sich da was tut

Grestorn
2014-10-14, 20:45:20
Das dachte ich mir. Ich beginne ein Muster zu sehen.

4Fighting und du habt beide SLI und den ROG SWIFT. Ihr habt beide das G-Sync + SLI Problem nicht. Ihr habt beide Windows 7.

Ich habe SLI und den ROG SWIFT und ich habe Windows 8.1. (und ich möchte wetten, dass der Marcdaddy aus dem nvidiaforum, der das gleiche Problem wie ich hat, auch Windows 8.1 installiert hat).

Ich habe ebenfalls einen Swift und SLI.

SLI und G-Sync laufen bei mir sowohl in Win 8.1 als auch in Win 7 einwandfrei.

Ich hab allerdings das Problem, dass einige Spiele in Win 8.1 immer mal wieder stottern (z.B. Bioshock: Infinite). Die selben Spiele liefen auf meinem alten Rechner flüssig (eine GTX680, aber auch mit G-Sync) auch unter Win8.1. Auf dem neuen auch Rechner läuft es unter Win7 ebenfalls rund.

SLI, G-Sync, OC haben darauf keinen Einfluss. Seufz. Bisher bin ich eher enttäuscht von dem neuen Rechner. Vieeeel Arbeit und der Lohn ist stottern... :(

robbitop
2014-10-14, 20:52:18
@robbi
du könntest dir mit dem afterburner mal die taktraten per OSD anzeigen lassen ob sich da was tut
Mache ich permanent. ;)

Die CPU Scores erklären nichts, weil ich nur den Monitor wechsle und damit dann von 17.000 Punkten auf je nach Auflösung 10.000 bis 13.000 sinke.

CPU ist im Moment auf Default Takt. Also 4 GHz Basistakt und 4,4 GHz Turbo. Deine Physicsscore ist nur ein Tick besser. Dein 4770K taktet laut 3DMarkt mit 4,4 GHz. Bei meinem 4790K ist bei default vermutlich auf allen Kernen weniger. Das passt schon. Das sind keine Welten...

dargo
2014-10-14, 20:55:02
bei RadeonPro steige ich aber bis dato nicht bei den Configs durch. Irgendwie sind die anders:confused:

Das ist doch völlig simpel, gerade wenn du nur Lumasharpen brauchst. Lass mich das erst testen dann gibts ne Anleitung. :)

robbitop
2014-10-14, 20:56:33
Ich habe ebenfalls einen Swift und SLI.

SLI und G-Sync laufen bei mir sowohl in Win 8.1 als auch in Win 7 einwandfrei.

Ich hab allerdings das Problem, dass einige Spiele in Win 8.1 immer mal wieder stottern (z.B. Bioshock: Infinite). Die selben Spiele liefen auf meinem alten Rechner flüssig (eine GTX680, aber auch mit G-Sync) auch unter Win8.1. Auf dem neuen auch Rechner läuft es unter Win7 ebenfalls rund.

SLI, G-Sync, OC haben darauf keinen Einfluss. Seufz. Bisher bin ich eher enttäuscht von dem neuen Rechner. Vieeeel Arbeit und der Lohn ist stottern... :(
Das mit dem Stottern haben viele. Gibt es viele Threads die man auf google findet, wenn man SLI und G-Sync eingibt.

Folgende Fragen, deren Beantwortung mir evtl. helfen könnten:

Hast du mal unter Win 8.1 auf die GPU1+2 Auslastungen geschaut?
Was wird angezeigt?
Welcher Treiber? :)
Welchen Score schaffst du im 3DMark?

robbitop
2014-10-14, 21:05:43
Hab jetzt mal einen Firestrike Run von dir mit einem von meinen verglichen. Da fällt mir auf, dass du überall höhere FPS erzielst außer beim Physics-Test, der rein die CPU auslastet. Sprich, das ist der Grund, der deinen Score nach unten zieht. Das seltsame jedoch ist, dass du einen 4790K mit 4,4 GHz hast, der eigentlich ein wenig schneller sein müsste als mein 4770K mit 4,4 GHz.
Mal vom Physics Test abgesehen - die Grafiktests sind massiv besser am BenQ:

3DMark mit BenQ:
http://www.3dmark.com/3dm/4342063

3DMark Score 17010
Graphics Score 23570
Physics Score 11654
Combined Score 7094
Graphics Test 1116.2 fps
Graphics Test 2 91.66 fps
Physics Test 37.0 fps
Combined Test 33.0 fps
Demo1.0 fps


3DMark mit ROG SWIFT:
http://www.3dmark.com/3dm/4341529

3DMark Score 10478
Graphics Score 11722
Physics Score 11589
Combined Score 5402
Graphics Test 1 53.89 fps
Graphics Test 2 48.34 fps
Physics Test 36.79 fps
Combined Test 25.13 fps
Demo 1.0 fps



Kann also nicht (nur) an der CPU liegen. Da ist (bei mir) irgendwas softwaremäßiges im Argen.

Laut OSD (Afterburner) liegen korrekte GPU Taktraten an. Nur die Auslastung ist halt schlecht.

Grestorn
2014-10-14, 21:09:08
Das mit dem Stottern haben viele. Gibt es viele Threads die man auf google findet, wenn man SLI und G-Sync eingibt.
Das Stottern hab ich auch ohne SLI und G-Sync. Das war natürlich das erste, was ich ausgeschaltet habe.

Das Stottern wirkt als würde die Übertragung ins VRAM zu langsam erfolgen, es tritt nur auf, wenn man sich im Level bewegt, nicht wenn man sich an Ort und Stelle bewegt. Die PCIe Lanes und Version stimmen aber.

Hast du mal unter Win 8.1 auf die GPU1+2 Auslastungen geschaut? Was wird angezeigt?Nicht auffällig anders als unter Win7.

Welchen Score schaffst du im 3DMark?

Firestrike Extreme: http://www.3dmark.com/fs/2903794 12246 Punkte unter Win 8.1. Die Framerate ist auch ok. Aber auch in 3DMark stottert es am Anfang der Szenen und auch immer mal wieder in der Szene, wenn auch nicht stark. Ich bin aber momentan zu frustriert um die Tests in Win7 zu wiederholen, zumal ich die OC Einstellungen des Boards neu machen müsste (BIOS Update hat die Einstellungen ge-ext).

Das Board ist sowieso richtig kacke. So was instabiles (beim Booten) habe ich in meiner Zeit noch nicht gesehen.

Mal vom Physics Test abgesehen - die Grafiktests sind massiv besser am BenQ:

Verstehe ich Dich richtig, Du hast deutlich andere Raten auf einem anderen Monitor?

Bist Du sicher, dass Du unter 3DMark G-Sync abgeschaltet hast? Sonst kann ich mir das kaum erklären! Woher sollte das denn bitte kommen, es sei denn, bei einem Monitor hast Du die Frameraten irgendwie limitiert.

Grestorn
2014-10-14, 21:11:40
Bitte löschen, war eigentlich als Edit des vorherigen Posts gedacht.

Angiesan
2014-10-14, 21:21:03
Das Stottern hab ich auch ohne SLI und G-Sync. Das war natürlich das erste, was ich ausgeschaltet habe.

Das Stottern wirkt als würde die Übertragung ins VRAM zu langsam erfolgen, es tritt nur auf, wenn man sich im Level bewegt, nicht wenn man sich an Ort und Stelle bewegt. Die PCIe Lanes und Version stimmen aber.

Nicht auffällig anders als unter Win7.


Vielleicht hat es ja was mit diversen Kompressionsverfahren zu tun.

Was mir aufgefallen ist, eine AMD verbraucht immer mehr V Ram wie ein NV sehr auffällig bei Dead Rising 3 da geht ab und an in 2560x1080 der HD 7950 schon mal die 3 GB aus und man bekommt einen harten Nachladeruckler, selten aber halt immer mal wieder, bei einer NV steht der V Ram wie festgetackert bei 2,5 GB

robbitop
2014-10-14, 21:38:08
Verstehe ich Dich richtig, Du hast deutlich andere Raten auf einem anderen Monitor?

Bist Du sicher, dass Du unter 3DMark G-Sync abgeschaltet hast? Sonst kann ich mir das kaum erklären! Woher sollte das denn bitte kommen, es sei denn, bei einem Monitor hast Du die Frameraten irgendwie limitiert.
Ich habe das Gefühl, du hast den Thread nicht vollständig gelesen.

Ja genau das meine ich. Auf meinem FullHD Non-GSync Monitor läuft SLI wie es soll. Auslastung und Performance. Sobald ich den ROG SWIFT dranstecke verliere ich massiv Leistung und Auslastung. Das gleiche Problem hat jemand im NV Forum auch (habe ich verlinkt).

Und ja: G-Sync war definitiv aus. Man sieht am leuchten der roten LED, wenn G-Sync an ist. Ich habe es im NV CP ausgeschaltet (unter dem Punkt G-Sync und unter dem Punkt Vertikale Syncronisation unter 3D Settings).

Außerdem habe ich den Treiber 2x neu installiert (DDU + "frische Installation" - also die Option bei der Installation des Geforce Treibers). G-Sync war definitiv aus.

Ich kann dieses Verhalten reproduzieren. Und ja: es ist seltsam. Aber es ist reproduzierbar.

Grestorn
2014-10-14, 21:45:35
Sorry, ich hab den Thread in der Tat gerade erst entdeckt und nicht ganz gelesen. Nur die ersten und die letzten Postings. 88 Postings sind ja nicht ganz wenig :)

Reicht es, wenn der Monitor angeschlossen und aktiv ist, oder muss das Spiel auf dem Monitor ausgegeben werden, damit die Leistung so stark begrenzt wird?

Was passiert, wenn Du das Spiel im Fenster-Modus laufen lässt? Ein Win7 hast Du nicht zur Hand, oder?

robbitop
2014-10-14, 21:55:04
Sorry, ich hab den Thread in der Tat gerade erst entdeckt und nicht ganz gelesen. Nur die ersten und die letzten Postings. 88 Postings sind ja nicht ganz wenig :)

Reicht es, wenn der Monitor angeschlossen und aktiv ist, oder muss das Spiel auf dem Monitor ausgegeben werden, damit die Leistung so stark begrenzt wird?

Was passiert, wenn Du das Spiel im Fenster-Modus laufen lässt? Ein Win7 hast Du nicht zur Hand, oder?
Ich habe zwar 2 Monitore - aber beide mit DP. Kann also nicht beide an die Titan SLI anschließen. (eine Titan hat nur einen DP - WTF? :freak: und ich kann den 2. Monitor bei SLI auch nicht an die 2. Titan anschließen - WTF? :freak:) Was ich tue, ist den 2. Monitor an die IGP anzuschließen.

Aber um jetzt Fehlern vorzubeugen, habe ich die IGP wieder deaktivert (BIOS) und nutze nur einen Monitor.

Also entweder BenQ oder ASUS ROG SWIFT. Einfach um zu testen woran's liegt.

Bisher immer Fullscreen. Fenster habe ich nicht getestet.
Ich bin dummerweise diese Woche auf Dienstreise im Ausland und kann erst Sa Abend wieder testen.

Ich plane eine HDD aus dem Schrank zu nehmen und Windows 7 draufzuschmeißen (zum Test!).

Grestorn
2014-10-14, 22:49:57
Aber den BenQ kannst du doch auch sicher mit HDMI oder DVI anschließen, oder?!

Bin aber gespannt, ob der Test mit dem Fenstermodus etwas bringt. Ich kann mir kaum einen Grund vorstellen, warum der Monitor die GPU Performance beeinflussen sollte, außer eben über den VSync.

Kartenlehrling
2014-10-14, 23:16:13
Hat das Nvidia nicht Monate lang AMD vorgeworfen mit nicht vorhanden FPS zu rechnen?

Naturlich killt der g-vsync Monitor FPS " weil er es kann ..." :)
Das es nur einen Display Anschluss gibt ist wohl nicht ohne Grund geschehen,
eine HDMI2.0 oder selbst 1.4a um seine Console anzuschliessen hätte sich wohl jeder gewünscht und 1€ dafür mehr bezahlt.

Was halt noch gar nicht geteste wurde wär wenn man eine AMD oder iGPU anschliesst, was für Werte man dann erzielt.

http://www.pcper.com/files/imagecache/article_max_width/review/2013-04-22/Vsync-3.png

robbitop
2014-10-15, 07:06:21
Aber den BenQ kannst du doch auch sicher mit HDMI oder DVI anschließen, oder?!

Bin aber gespannt, ob der Test mit dem Fenstermodus etwas bringt. Ich kann mir kaum einen Grund vorstellen, warum der Monitor die GPU Performance beeinflussen sollte, außer eben über den VSync.
Gibt's eine Möglichkeit, 3DMark im Fenstermodus zu betreiben?

Der BenQ hat noch DVI. Kein HDMI. Könnte ich theoretisch mit DVI anschließen. Müsste ich aber ein Kabel kaufen. Außerdem finde ich DVI einfach zu 1990er. Ich will gern DP nutzen (auch wenn es objektiv hier keinen Vorteil bietet). Dann halt über die IGP.

Hat das Nvidia nicht Monate lang AMD vorgeworfen mit nicht vorhanden FPS zu rechnen?

Naturlich killt der g-vsync Monitor FPS " weil er es kann ..." :)
Das es nur einen Display Anschluss gibt ist wohl nicht ohne Grund geschehen,
eine HDMI2.0 oder selbst 1.4a um seine Console anzuschliessen hätte sich wohl jeder gewünscht und 1€ dafür mehr bezahlt.

Was halt noch gar nicht geteste wurde wär wenn man eine AMD oder iGPU anschliesst, was für Werte man dann erzielt.

http://www.pcper.com/files/imagecache/article_max_width/review/2013-04-22/Vsync-3.png
Wer ließt denn hier noch alles den Thread nicht mit? Es geht längst nicht mehr um G-Sync! G-Sync ist AUS.
Es geht darum, dass SLI nicht performt, sobald der ROG SWIFT dran gesteckt wird (und G-Sync nachweislich deaktiviert ist).

4Fighting
2014-10-15, 07:43:47
du könntest noch um es wirklich 1000%-ig auszuschließen, dass da Gsync aktiv ist (oder irgendein Fehler im Monitor selber) den ULMB im Monitor aktivieren. Dann wird Gsync bereits im Monitor deaktiviert und nicht erst über die Software

Djinn
2014-10-15, 07:45:17
@Robbi: merkst du eigentlich auch Performance-Einbußen in Games? Oder ist einzig und allein der 3DMark-Score schlechter? Wenns nur der 3DMark ist, könnte man ja damit leben. Nur wenn Games statt mit 120 FPS am Benq dann am Swift nur mit 70 laufen (gleiche Auflösung natürlich), dann ist es natürlich nervig...

robbitop
2014-10-15, 07:48:22
du könntest noch um es wirklich 1000%-ig auszuschließen, dass da Gsync aktiv ist (oder irgendein Fehler im Monitor selber) den ULMB im Monitor aktivieren. Dann wird Gsync bereits im Monitor deaktiviert und nicht erst über die Software
Habe ich auch schon probiert. Kein Unterschied. Leider. :(
Außerdem würde bei G-Sync die rote LED leuchten. Man sieht sofort ein-eindeutig, wenn G-Sync läuft.

@Robbi: merkst du eigentlich auch Performance-Einbußen in Games? Oder ist einzig und allein der 3DMark-Score schlechter? Wenns nur der 3DMark ist, könnte man ja damit leben. Nur wenn Games statt mit 120 FPS am Benq dann am Swift nur mit 70 laufen (gleiche Auflösung natürlich), dann ist es natürlich nervig...
Hallo Djinn. Ja ich habe es auch mit Crysis 3 probiert. Dort soll SLI sehr gut funktionieren. Tut es auch am BenQ. Am ASUS ROG SWIFT nicht. Das Problem ist leider nicht 3DMark-exklusiv. :(

Da aber zum Vergleich nicht jeder Crysis 3 hat und außerdem Crysis 3 keine Benchmarkfunktion hat, bin ich jetzt auf 3DMark umgeschwenkt zum testen. Geht schneller, hat jeder und das Verhalten von SLI scheint dem von Crysis 3 zu entsprechen. :)

4Fighting
2014-10-15, 07:51:49
macht es einen unterschied ob du mit 60 oder 120 hz benchst?
pcie express mal auf den kleinsten wert eingestellt?
hat der asus monitor treiber was gebracht?

Djinn
2014-10-15, 08:28:15
Hallo Djinn. Ja ich habe es auch mit Crysis 3 probiert. Dort soll SLI sehr gut funktionieren. Tut es auch am BenQ. Am ASUS ROG SWIFT nicht. Das Problem ist leider nicht 3DMark-exklusiv. :(

Da aber zum Vergleich nicht jeder Crysis 3 hat und außerdem Crysis 3 keine Benchmarkfunktion hat, bin ich jetzt auf 3DMark umgeschwenkt zum testen. Geht schneller, hat jeder und das Verhalten von SLI scheint dem von Crysis 3 zu entsprechen. :)
Crysis 3 hab ich nicht, aber Crysis 2 hab ich, welches ich sogar extra nochmal installiert hatte, nachdem ich den Swift bekommen hab. Und dies funktioniert einwandfrei mit SLI + G-Sync bei mir.

robbitop
2014-10-15, 12:02:50
macht es einen unterschied ob du mit 60 oder 120 hz benchst?
Das ist ein interessanter Hinweis. Werde ich testen. :)

pcie express mal auf den kleinsten wert eingestellt?
PCIe 2.0 und 3.0 habe ich probiert. Kein Effekt.
Wäre aber auch unlogisch, wenn das Tauschen des Monitors sofort einen Effekt bringt. Der Fehler liegt also wohl nicht an der Hardware des PCs.


hat der asus monitor treiber was gebracht?
Leider gar nichts. :(

Crysis 3 hab ich nicht, aber Crysis 2 hab ich, welches ich sogar extra nochmal installiert hatte, nachdem ich den Swift bekommen hab. Und dies funktioniert einwandfrei mit SLI + G-Sync bei mir.

Crysis 2 kann ich auch nochmal installieren. Schön wäre ein alternatives Spiel, was mit SLI funktioniert und eine Benchmark Funktion hat. So ist die Vergleichbarkeit einfach besser.

Da aber C3 und 3DMark wohl sehr gut mit SLI funktionieren sollen, habe ich mich bisher auf die beiden beschränkt (als Indikator).

Djinn
2014-10-15, 13:38:26
Unigine Heaven könntest auch noch probieren als Benchmark, läuft ebenfalls tadellos mit SLI.

4Fighting
2014-10-15, 13:39:56
Da aber C3 und 3DMark wohl sehr gut mit SLI funktionieren sollen, habe ich mich bisher auf die beiden beschränkt (als Indikator).


och da gibt es viele. Mir fällt auf die Schnelle der sniper elite v2 benchmark ein und der AVP 2011 Benchmark ein. Beide Benchmarks laufen auch ohne die Spiele.

Für AVP gibt es ein gutes Tool

http://benchzone.adrenaline.uol.com.br/tecnologia/downloads/262/adrenaline-alien-vs-predator-benchmark-tool.html

Da kannst du auch verschiedene Auflösungen hintereinander durchlaufen lassen etc.

robbitop
2014-10-19, 09:13:12
So bin wieder zu Hause.

1. Fenstermodus in Crysis 3 probiert: bringt nix
2. Unige HEAVEN probiert: gleiche Symptome (Skalierung/Performance)
3. ist es normal, dass 2 Punkte im SLI Menü ausgegraut sind?

https://www.dropbox.com/s/b6medu2ww0acoqa/Screenshot%202014-10-19%2009.10.53.png
https://www.dropbox.com/s/b6medu2ww0acoqa/Screenshot%202014-10-19%2009.10.53.png?dl=0

Das ist bei mir schon immer so gewesen. Warum sind die Punkte ausgegraut?

4Fighting
2014-10-19, 09:23:28
zu 3: ist normal, aber die begründung kenne ich leider auch nicht :)


Funzt OGL eigentlich? Du kannst ja auch den Unigine Benchmark iirc in OpenGL starten

robbitop
2014-10-19, 09:46:49
OGL getestet: läuft.

Mir ist aber folgendes immer mehr aufgefallen: es scheint (zumindest mit dem SWIFT) eine Art FPS Barriere zugeben. 55 fps. Das hatte hier im Thread schon jemand bemerkt.

Mir ist es in C3 auch aufgefallen. ca 55 fps. Darüber nie. Ziehe ich Auflösung/Details höher, steigt die Auslastung und die Differenz zwischen SLI und sGPU.

Das sieht so aus als würde die Übertragung von beiden Karten zueinander nicht mehr hergeben als 55 fps @2560x1440.

@Leute, bei denen Titan SLI wunderbar funktioniert: wie sind eure GPUs angebunden? PCIe 8x 3.0 wie bei mir oder PCIe 16x 3.0?

Ich habe Unige mal maximal aufgedreht. Da komme ich immerhin auf 13xx Punkte für SLI und 8xx Punkte für sGPU. Die Differenz war kleiner als noch keine Ultra Settings + Max Tesselation +8x AA eingestellt waren.

Ich teste jetzt mal die Skalierung mit PCIe 2.0.

Wie sieht es eigentlich mit der SLI Brücke aus? Kann die eventuell kaputt sein oder würde das NV CP mir einen Fehler melden? Kann man das diagnostizieren?

robbitop
2014-10-19, 10:02:19
Hier die Results von Unige HEAVEN

ROG SWIFT

sGPU:
https://www.dropbox.com/s/o73bbh61zl4tvdg/sGPU.html?dl=0

SLI PCIe1.0
https://www.dropbox.com/s/a0gsgzy51ahzfbn/SLI-PCIE1.html?dl=0

SLI PCIe 3.0
https://www.dropbox.com/s/flgpfo0svqai9r1/SLI-PCIE3.html?dl=0

Die FPS Barriere skaliert linear. PCIe 1.0 hat 1/4 der Bandbreite und auch genau 1/4 der FPS Barriere.

BenQ

SLI PCIe 1.0
https://www.dropbox.com/s/elpflw0hcsugywd/BenQPCIe1SLI.html?dl=0

SLI PCIe 3.0
https://www.dropbox.com/s/nvpwb0dys2v6h0l/BenQPCIE3SLI.html?dl=0


Der Bandbreitenbedarf um 55 fps von 2560x1440 zu transferieren sind ~750 MiB/s. Das sollte jede PCIe Generation bei 8x locker hergeben. Bei 1920x1080 hat ~56% des Bandbreitenbedarfs. Wenn dieser Bandbreitenbedarf die Limitierung ist, sollten 98 fps möglich sein.

Irgendwas anderes ist faul.

robbitop
2014-10-19, 10:05:51
Habe bei PCIe jetzt mal den BenQ reingesteckt und der Bench läuft. Max fps bisher 115 fps. Das kann also keine Hardwarebarriere sein.

4Fighting
2014-10-19, 10:19:05
OGL getestet: läuft.

Mir ist aber folgendes immer mehr aufgefallen: es scheint (zumindest mit dem SWIFT) eine Art FPS Barriere zugeben. 55 fps. Das hatte hier im Thread schon jemand bemerkt.

jepp moi :D



Das sieht so aus als würde die Übertragung von beiden Karten zueinander nicht mehr hergeben als 55 fps @2560x1440.

jepp und deswegen habe ich auch nach den pcie tests mal nachgefragt. theoretisch müsstest du ja mit pcie 2 x16 die gleichen ergebnisse haben wie mit pcie 3 x8

hatten wir schon die frage ob du mit dem swift gleiche Ergebnisse hast @1080p wie mit dem benq im sli?:confused::freak:

lass doch mal die pcie bandbreite über

http://forums.evga.com/PCIE-bandwidth-test-cuda-m1972266.aspx

durchlaufen



Wie sieht es eigentlich mit der SLI Brücke aus? Kann die eventuell kaputt sein oder würde das NV CP mir einen Fehler melden? Kann man das diagnostizieren?

Ich würde mir einfach mal eine neue bei ebay für 4-5€ bestellen.:)

robbitop
2014-10-19, 10:30:43
So: nun die Tests inkl BENQ

ROG SWIFT

sGPU:
https://www.dropbox.com/s/o73bbh61zl4tvdg/sGPU.html?dl=0
36 fps

SLI PCIe1.0
https://www.dropbox.com/s/a0gsgzy51ahzfbn/SLI-PCIE1.html?dl=0
14 fps

SLI PCIe 3.0
https://www.dropbox.com/s/flgpfo0svqai9r1/SLI-PCIE3.html?dl=0
53,2 fps

Die FPS Barriere skaliert linear. PCIe 1.0 hat 1/4 der Bandbreite und auch genau 1/4 der FPS Barriere.

BenQ

SLI PCIe 1.0
https://www.dropbox.com/s/elpflw0hcsugywd/BenQPCIe1SLI.html?dl=0
85 fps
SLI PCIe 3.0
https://www.dropbox.com/s/nvpwb0dys2v6h0l/BenQPCIE3SLI.html?dl=0
115 fps
Die "Barriere" ist mit dem BenQ massiv besser. Wobei PCIe 3.0 die Situation nochmal deutlich aufwertet.

Ich tippe fast darauf, dass beim ASUS ROG SWIFT aus irgend einem Grund die Daten nicht über die SLI Brücke geschoben werden sondern über den PCIe.

@SLI + ROG SWIFT Besitzer:
Ich tippe fast darauf, dass alle Leute, die wenig Probleme mit dem ASUS ROG SWIFT + SLI haben, haben PCIe 16x 3.0. Entweder über die Intel Sockel 2011 Plattform oder über einen PLX Switch.

Gebt mal bitte Feedback!!

robbitop
2014-10-19, 10:47:17
Interessant (Bandreitentest):

https://www.dropbox.com/s/0ahu9kludhy0ii3/Screenshot%202014-10-19%2010.46.03.png?dl=0

Gerät 0 hat 750 MiB/s (was genau diese 55 fps wären bei 1440p)

Gerät 1 hat 6 GiB/s


Warum funktioniert es mit dem BenQ besser? Ich vermute aus irgendeinem Grund läuft beim BenQ die Kommunikation über die SLI Brücke und beim SWIFT über den PCIe.
Ersteres kaschiert das Bandbreitenproblem.

Es sieht so aus als liefe Gerät 0 mit PCIe 3.0 und 1x Lane.

4Fighting
2014-10-19, 10:52:56
Interessant (Bandreitentest):

https://www.dropbox.com/s/0ahu9kludhy0ii3/Screenshot%202014-10-19%2010.46.03.png?dl=0

Gerät 0 hat 750 MiB/s (was genau diese 55 fps wären bei 1440p)

Gerät 1 hat 6 GiB/s


Warum funktioniert es mit dem BenQ besser? Ich vermute aus irgendeinem Grund läuft beim BenQ die Kommunikation über die SLI Brücke und beim SWIFT über den PCIe.
Ersteres kaschiert das Bandbreitenproblem.

Es sieht so aus als liefe Gerät 0 mit PCIe 3.0 und 1x Lane.

selbst 6gb/s erscheinen mir sehr wenig.

ich komme auf ca. 23k mit pcie 3.0 x16. damit wären 12k pcie 2.0x 16 (3.0/8) und 6k eben nur pcie 2.0 x8 (3.0/4).

Was sagt denn GPU-Z im PCIE test?

robbitop
2014-10-19, 10:56:34
selbst 6gb/s erscheinen mir sehr wenig.

ich komme auf ca. 23k mit pcie 3.0 x16. damit wären 12k pcie 2.0x 16 (3.0/8) und 6k eben nur pcie 2.0 x8 (3.0/4).

Was sagt denn GPU-Z im PCIE test?
http://de.wikipedia.org/wiki/PCI_Express

Theoretische Übertragungsraten in MiB
PCIe 3.0 8x 7877 MB/s
PCIe 3.0 16x 15754 MB/s

Das passt also schon. 23 GB/s ist über PCIe 3.0 ohne massive Übertaktung nicht möglich.

robbitop
2014-10-19, 10:58:27
Was sagt denn GPU-Z im PCIE test?
Guter Vorschlag. Gesagt -> getan.
Eine Titan mit 8x Lanes und eine 1x Lane.

Titan 1:
https://www.dropbox.com/s/l8vp3vplnsx6elf/Screenshot%202014-10-19%2010.58.57.png?dl=0

Titan 2:
https://www.dropbox.com/s/n5gqb8jdr3fvggd/Screenshot%202014-10-19%2010.59.07.png?dl=0

Wie kann das sein? :freak:


edit:
Manual zu meinem Mainboard:
ftp://europe.asrock.com/manual/Z97%20Extreme4.pdf

Ich benutze PCIe 2 und 5.

Laut Tabelle in S. 19 ergibt das 2x 8 Lanes.

Ich sehe auch keine Option im UEFI um irgendwo die Lanes einzustellen...

4Fighting
2014-10-19, 11:04:34
http://de.wikipedia.org/wiki/PCI_Express

Theoretische Übertragungsraten in MiB
PCIe 3.0 8x 7877 MB/s
PCIe 3.0 16x 15754 MB/s

Das passt also schon. 23 GB/s ist über PCIe 3.0 ohne massive Übertaktung nicht möglich.

vielleicht haperts dann auch mit meinen umrechnungskünsten:freak:

http://abload.de/thumb/pcie1uun7.jpg (http://abload.de/image.php?img=pcie1uun7.jpg)

4Fighting
2014-10-19, 11:06:20
Guter Vorschlag. Gesagt -> getan.
Eine Titan mit 8x Lanes und eine 1x Lane.

Titan 1:
https://www.dropbox.com/s/l8vp3vplnsx6elf/Screenshot%202014-10-19%2010.58.57.png?dl=0

Titan 2:
https://www.dropbox.com/s/n5gqb8jdr3fvggd/Screenshot%202014-10-19%2010.59.07.png?dl=0

Wie kann das sein? :freak:


Du musst bei SLI das fragezeichen drücken für einen fullscreen test.

PHuV
2014-10-19, 11:40:45
Wenn Gsync aktiv ist wird die weiße LED (im Desktopbetrieb weiß - rechts unten am Monitor) rot.
Schade, so was hätte auch gerne beim Acer XB280HK 4K gesehen. :frown: Gibt es noch eine andere Möglichkeit, G-Sync irgendwie außerhalb des Treibers kenntlich zu machen?

Ich war ja gestern kurz davor, noch eine GTX 980er zu kaufen, aber das lasse ich mal angesichts dieses Threads bleiben.

robbitop
2014-10-19, 11:54:19
Meine Schlussfolgerung ist:

Ich habe 2 Probleme, von denen nur eines auf mich selbst zutrifft:

1. ich habe nur 1x PCIe Lane für eine der Karten
2. Beim ROG SWIFT wird anscheinend nicht die SLI Brücke benutzt.

Da andere genug Lanes haben - insbesondere die Enthusiasten mit S 2011 Plattform, wird dieses Problem bei ihnen kaschiert. Aber dennoch bleibt es ein SLI Problem. Und das könnte auch das stottern im SLI bei einigen erklären!

Also Finger weg von SLI! (CF ist aber sicher auch nicht besser)

Aktuell würde ich (nicht nur wegen des Brückenproblems) von SLI abraten.

robbitop
2014-10-19, 12:02:43
Hier ein Screenshot vom Bandbreitentest mit "?"
https://www.dropbox.com/s/0ahu9kludhy0ii3/Screenshot%202014-10-19%2010.46.03.png?dl=0

750 MB/s.

@4fighting
Ich kann mir vorstellen, dass bei "?" und funktioniender Kommunikation die Werte addiert werden und man dadurch dann auf 23 GB/s kommt.

4Fighting
2014-10-19, 12:08:42
Meine Schlussfolgerung ist:

Ich habe 2 Probleme, von denen nur eines auf mich selbst zutrifft:

1. ich habe nur 1x PCIe Lane für eine der Karten
2. Beim ROG SWIFT wird anscheinend nicht die SLI Brücke benutzt.

Da andere genug Lanes haben - insbesondere die Enthusiasten mit S 2011 Plattform, wird dieses Problem bei ihnen kaschiert. Aber dennoch bleibt es ein SLI Problem. Und das könnte auch das stottern im SLI bei einigen erklären!

Also Finger weg von SLI! (CF ist aber sicher auch nicht besser)

Aktuell würde ich (nicht nur wegen des Brückenproblems) von SLI abraten.

Hast Du nicht noch ne alte SLI Brücke in irgendeinem Mainboard-Karton liegen?

Die Schlussfolgerung mit den kaschierten Lanes ist mir nicht klar:confused:

Schade, so was hätte auch gerne beim Acer XB280HK 4K gesehen. :frown: Gibt es noch eine andere Möglichkeit, G-Sync irgendwie außerhalb des Treibers kenntlich zu machen?

Ich war ja gestern kurz davor, noch eine GTX 980er zu kaufen, aber das lasse ich mal angesichts dieses Threads bleiben.

im Monitor OSD wird es auch angezeigt (zumindest beim Asus)




@4fighting
Ich kann mir vorstellen, dass bei "?" und funktioniender Kommunikation die Werte addiert werden und man dadurch dann auf 23 GB/s kommt.

hast Recht :)...Jede einzelne Karte liefert ca. 11gb/s

Rente
2014-10-19, 12:09:13
Hast du eine Titan in einem x16@x1-Slot oder warum passiert das bitte?
Das das nur durch den Monitor verursacht wird ist ziemlich unwahrscheinlich, selbst wenn G-Sync bei SLI über PCIe kommuniziert (was ja nicht einmal an ist), es sieht eher nach einem Problem mit dem Mainboard aus.

4Fighting
2014-10-19, 12:13:15
Hast du eine Titan in einem X16@x1-Slot oder warum passiert das bitte?
Das das nur durch den Monitor verursacht wird ist ziemlich unwahrscheinlich, selbst wenn G-Sync bei SLI über PCIe kommuniziert, es sieht eher nach einem Problem mit dem Mainboard aus.

eigentlich sehe ich das problem auch eher in dieser Richtung, aber nur wenn er den Monitorausgang ändert läuft alles

@robbi

hast du mal ein anderes titan bios probiert für die 1. Karte?

robbitop
2014-10-19, 12:30:49
Hast Du nicht noch ne alte SLI Brücke in irgendeinem Mainboard-Karton liegen?

Du verstehst offenbar nicht:

Fall 1 (SWIFT):

G-Sync Modul wird erkannt -> SLI Kommunikation zwischen Karte 1 und 2 läuft über PCIe

Fall 2 (BenQ):
Kein G-Sync Modul wird erkannt -> SLI Kommunikation zwischen Karte 1 und 2 läuft über die SLI-Brücke

Die Brücke funktioniert! Sie wird aber nur in Fall 2 benutzt. ;)



Die Schlussfolgerung mit den kaschierten Lanes ist mir nicht klar:confused:

Das Problem war so schwer zu analysieren, weil

1. es nicht 1 Problem ist, sondern 2 Probleme die sich überlagern.
2. Nur wenige User SLI + G-Sync haben
3. Problem Nr. 1 ein robbitop spezifisches Problem ist

Problem 1:
Karte 1 hat nur 1x Lane.

Problem 2:
Bei Erkennung eines G-Sync Moduls wird die SLI Kommunikation über PCIe umgeleitet.

Problem Nr. 2 wird bei euch allen "kaschiert". Warum? Weil ihr:

1. kein PCIe "defekt" habt also mindestens 8x Lanes habt. Also limitiert PCIe nicht
2. wer SLI und einen G-Sync Monitor hat, auch oft 2x 16x Lanes hat -> damit limitiert PCIe noch weniger.


Problem Nr. 2 wird also bei den meisten durch genug PCIe Bandbreite kaschiert.

Aber bei vielen (ich vermute 8x Lanes Besitzern) führt Problem Nr 2 zu anderen Dingen: stottern. Das hat Grestorn so geschildert und auf google findet man dazu tausende Threads. G-Sync + SLI stottert.

Der Traffic über den PCIe ist ja abhängig von dessen Last (Geometrie etc pp). Und je nach dem welche Szene wieviel Traffic/Last auf dem PCIe erzeugt, desto enger wird es für die SLI Kommunikation. -> es stottert.

Ich vermute, dass PCIe 3.0 16x Besitzer die wenigsten Probleme spüren (da kaschiert durch Bandbreite).

Aber damit kaschiert man nur die Symptome - nicht die Ursache. Auch bei Erkennung des G-Sync Moduls (am besten auch bei aktivem G-Sync) sollte dringend die Kommunikation über die SLI Brücke laufen und sich nicht mit dem Traffic durch Geometrie etc prügeln!

Das ist ein NV (Treiber?) Problem.

4Fighting
2014-10-19, 12:44:28
Du verstehst offenbar nicht:

Fall 1 (SWIFT):

G-Sync Modul wird erkannt -> SLI Kommunikation zwischen Karte 1 und 2 läuft über PCIe


Und an der Stelle steige ich aus. die SLI Bridge ist doch essentiell für das rendering. Ergo wird sie auch genutzt. So wie ich dich verstehe sagst du die beiden titans würden ausschließlich über pcie kommunizieren.
es wird aber imo "lediglich" die pcie auf x1 heruntergesetzt was natürlich ein k.o kritierum heutzutage ist (jedoch weiter über SLI Bridge kommuniziert)

http://hexus.net/tech/reviews/graphics/916-nvidias-sli-an-introduction/?page=7


Ich verstehe es immer noch nicht mit den kaschieren:freak:;(

robbitop
2014-10-19, 13:15:38
Und an der Stelle steige ich aus. die SLI Bridge ist doch essentiell für das rendering.

SLI funktioniert auch ohne Brücke.
http://www.computerbase.de/forum/showthread.php?t=336839

Und selbst wenn der Treiber es blockiert, ist es nur eine Blockkade.

Für den User ist es völlig intransparent, was genau über die Brücke läuft und was nicht.

Ob der Treiber jetzt z.B. den Frameverkehr oder andere Sachen über den PCIe schickt oder die Brücke, ist ja nach außen hin nicht ersichtlich.

Der Beweis, dass Kommunikation über die Brücke läuft ohne G-Sync habe ich doch gebracht:

1. G-Sync Monitor bringt genau die fps, die Bandbreitenmäßig möglich ist. 55 fps x 2560 x 1440 x 32 bit = 750 MB/s. Der Bandbreitentest ergbit genau diese Bandbreite.
2. Non-GSync Monitor erreicht sogar 120 fps und mehr. Das ginge bandbreitenmäßig über PCIe gar nicht.
3. PCIe Skalierung (1.0 vs. 3.0) geht bei G-Sync liniear auf die fps. In jedem Benchmark. Non-Gsync skaliert anders.

Ergo:
G-Sync Monitor: Traffic über PCIe
Non-G-Sync über Brücke

Vieleicht nicht alles an Traffic - aber zumindest der Framebuffertransfer.



es wird aber imo "lediglich" die pcie auf x1 heruntergesetzt was natürlich ein k.o kritierum heutzutage ist (jedoch weiter über SLI Bridge kommuniziert)

Es ist PCIe 1x Lane. Sowohl beim BenQ als auch beim ASUS. Da wird nichts runtergesetzt. Bandbreitentests und GPU-Z bestätigen das am BenQ. (die Messungen habe ich nur am BenQ gemacht - wo die Performance aber massiv besser war!)


Die Ursache für die eine Lane muss ich jetzt suchen:

- Board
- Karten
- BIOSe der Karten






Ich verstehe es immer noch nicht mit den kaschieren:freak:;(

Nimm doch bitte einfach an, dass ich Recht hab mit der Kommunikation über PCIe. :)
Und nun überlege dir, was passiert, wenn die Kommunikation statt über der Brücke über PCIe läuft.

Bei 1x habe ich ein massives Limit
bei 8x habe ich vieleicht kein Limit mehr - vieleicht aber Stottern (siehe Grestorns Bericht und siehe die vielen Threads dazu)
bei 16x habe ich vermutlich gar kein Problem mehr.

Einfach weil die Gesamtbandbreite mit zunehmenden Lanes steigt und irgendwann so viel Bandbreite da ist, dass der SLI Traffic und auch die Peaks an Geometrietraffic von der CPU zu den GPUs kein Problem mehr darstellt.

robbitop
2014-10-19, 13:37:56
Ich habe eine mögliche Ursache mein PC spezifisches Problem gefunden:

https://www.dropbox.com/s/f6zyuivew2pb4rb/Foto%2019.10.14%2013%2028%2044.jpg?dl=0

Die SATA-Ports sind bei diesem Board ungünstig angebracht. Der Connector am Board hat eine ungünstige Bauhöhe, so dass PCIe Karten ab einer gewissen Länge auf sie aufsetzen. Man sieht es beim Einbauen nicht. Man denkt, die Karte wäre eingerastet, sieht aber nicht, dass die PCIe Karte offenbar auf den SATA Ports aufliegt und damit am hinteren Ende eventuell nicht ganz richtig drin sitzt. Es ist für mich nicht genau zu erkennen ob sie tief genug im PCIe Slot steckt. Erkennbar ist aber, dass die Titans beide auf den SATA Anschlüssen aufliegen und dadurch nicht tiefer in den Slot steckbar sind.

Ob das die definitive Ursache ist, weiß ich nicht. Aber wie kann man ein Board so konstruieren?

Jetzt habe ich 2 Möglichkeiten:

1. Entweder nachfeilen (dann geht mir die Garantie flöten)
2. Board verkaufen und neues kaufen.

robbitop
2014-10-19, 13:51:28
Jetzt würde ich mir nochmal das BIOS der Karten anschauen wollen, ob das vieleicht eine Ursache sein könnte.

GPU-Z sagt bei beiden Titans, dass sie sich mit PCIe 3.0 16x melden (Kompatibilität) aber nur mit 1x und 8x arbeiten (ggf. Stromsparmodi).

Im Treiber maximale Leistung einstellen bringt nichts.

Rente
2014-10-19, 14:04:10
Vielleicht sind auch beide Ports (zu mindestens teilweise defekt), eine ganz andere Karte um das zu testen hast du nicht, oder?

Das Bios deines Boards sollte aber in der Tat Auskunft geben können, eventuell auch die Diagnostik-LEDs.
€: Die Ports sind bei dem Z97 Extreme in der Tat ziemlich hoch und genau parallel, für SLI mit großen Karten natürlich extrem ungünstig.

robbitop
2014-10-19, 14:06:40
Es ist die untere Karte. Ich habe Port 5 (unten) auf PCIe 1.0 gestellt und Port 2 auf PCIe 3.0

Egal wie ich den Monitor einstecke und SLI umschalte. Es ist immer die untere Karte die auf 1x Lane runtergeht.

Entweder ein mechanisches oder ein BIOS Problem der Karte.

Wie kann ich das BIOS von der 2. Karte runterladen und es mir anschauen (bzw auch hier hochladen, damit ihr mal reinschauen könnt)?

Rente
2014-10-19, 14:10:07
Es ist die untere Karte. Ich habe Port 5 (unten) auf PCIe 1.0 gestellt und Port 2 auf PCIe 3.0

Egal wie ich den Monitor einstecke und SLI umschalte. Es ist immer die untere Karte die auf 1x Lane runtergeht.

Entweder ein mechanisches oder ein BIOS Problem der Karte.

Wie kann ich das BIOS von der 2. Karte runterladen und es mir anschauen (bzw auch hier hochladen, damit ihr mal reinschauen könnt)?
GPU-Z
Dort neben der Bios-Version den Punkt "Save Bios" auswählen und dann z.B. bei Dropbox hochladen.
Vorher natürlich die 2. Karte auswählen wenn du das der 2. Karte haben willst.

Ich hab btw. gerade mal nachgemessen, bei meinem alten Z77 Extreme 4 sind es 2cm zwischen Board und PCB der 780 Ti, sind die SATA-Ports höher?
Bei meinem sind die Ports (je 2 übereinander um 90° nach Rechts gedreht) nur ~1,4 cm hoch.

An der Kombination aus Port 2 und 5 sollte es jedenfalls nicht liegen, die gibt AsRock auch vor.
Wobei der 2. Port angeblich hochwertiger ist: 15μ Gold Contact in VGA PCIe Slot (PCIE2)

Fehler-ID wäre wohl (falls überhaupt einer erkannt wird) 92 - 99 bei deinem Board.

robbitop
2014-10-19, 14:27:07
GPU-Z
Dort neben der Bios-Version den Punkt "Save Bios" auswählen und dann z.B. bei Dropbox hochladen.
Vorher natürlich die 2. Karte auswählen wenn du das der 2. Karte haben willst.

Ich hab btw. gerade mal nachgemessen, bei meinem alten Z77 Extreme 4 sind es 2cm zwischen Board und PCB der 780 Ti, sind die SATA-Ports höher?
Bei meinem sind die Ports (je 2 übereinander um 90° nach Rechts gedreht) nur ~1,4 cm hoch.

An der Kombination aus Port 2 und 5 sollte es jedenfalls nicht liegen, die gibt AsRock auch vor.
Wobei der 2. Port angeblich hochwertiger ist: 15μ Gold Contact in VGA PCIe Slot (PCIE2)

Fehler-ID wäre wohl (falls überhaupt einer erkannt wird) 92 - 99 bei deinem Board.

Fehler ID ist aus sobald der PC gebootet ist. Also kein Fehler?

Ich versuche das BIOS auszulesen bei GPU-Z über "save BIOS". Dann passiert 5 sek lang gar nichts und dann taucht die Fehlermeldung "nvflash.exe funktioniert nicht mehr" auf. Bei beiden BIOSen (Karte 1 und 2).

Was nun?

Rente
2014-10-19, 14:30:22
Auch wenn du SLI deaktivierst bzw. war es deaktiviert?
Bei mir funktioniert das mit GPU-Z 0.7.9 unter Windows 10 (und mit GK110) einwandfrei, da bin ich auch etwas überfragt.

Wenn das Board keinen Fehler meldet ist es aus meiner Sicht relativ unwahrscheinlich das es sich um ein mechanisches/elektrisches Problem bei den Ports handelt, Mainboard-Bios und GPU-Bios sind dann aber immer noch offen.
Ganz blöde Frage: Du nutzt ja genauso wie ich eine Wakü - kannst du ausschließen das mal etwas Wasser in den Port bzw. an die Schnittstelle gelangt ist?

robbitop
2014-10-19, 14:39:46
So - mit GPU-Z 0.7.7 gings (0.7.9 gings nicht):

GPU 1 (8 Lanes):
https://www.dropbox.com/s/xxvsfxs8viah2p5/GPU1-PCIe8x.rom?dl=0

GPU 2 (1 Lane):
https://www.dropbox.com/s/u8481vyirkxgu3t/GPU2-PCIe1x.rom?dl=0

Mit welchem Programm kann man sich jetzt das BIOS anschauen?

Ich glaube, es liegt nicht am Board. Genauere Betrachtung zeigte, dass beide Karten irgendwie auf den SATA Anschlüssen aufliegen - aber an sich auch richtig im PCIe Bus drin stecken. Da schaut nichts raus oder ist irgendwie schief.

Der Verkäufer der Karte meinte mal, er hätte irgendwie andere BIOSe auf die Karte geflasht.
Schaut mal bitte in die BIOSe.

An den Karten will ich erstmal nicht rumspielen. Ich müsste das Wasser ablassen und die Verschlauchung lösen, um da großartig rumzutesten. Sonst hätte ich die Karten schon längst ausgebaut und einfach mal durchgetauscht. (Kartenpositionen)

robbitop
2014-10-19, 14:48:31
Ich habe mal KeplerBiosTweaker benutzt und bin einfach mal laienhaft durch beide BIOS Files durchgegangen. Habe nichts Ungewöhnliches bemerkt. Sieht für mich nicht so aus als könnte man da irgendwas umstellen hinsichtlich PCIe.

OC_Burner
2014-10-19, 14:51:09
Deine beiden Biosfiles sind identisch und haben die gleiche Checksumme (Kepler BIOS Tweaker v1.27). Um ein Kartentausch wirst du nicht rumkommen (Schnelltrennkupplungen sind das A und O). Das eine der Titans ein Ding weg hat kann gut möglich sein. Ich hatte das schon einmal mit einer GTX280 erlebt.

Rente
2014-10-19, 14:55:42
Jupp, sind identisch, sind aber angepasst.
Um genauer zu sein, gegenüber dem Standard-Bios wurden Veränderung an der Powertable vorgenommen und es handelt sich um ein Generic-Bios ohne VendorID (vermutlich svl7).

Ein oder 2 Einträge in der Powertable sind auch für den Strom der über PCIe gezogen werden kann zuständig, testen könnte man deswegen natürlich auch mal eine Standard-Variante (lässt sich bei techpowerup bestimmt auch für deine Karten finden), ist aber vermutlich nicht die Ursache.

Grestorn
2014-10-19, 15:05:37
3. ist es normal, dass 2 Punkte im SLI Menü ausgegraut sind?

https://www.dropbox.com/s/b6medu2ww0acoqa/Screenshot%202014-10-19%2009.10.53.png
https://www.dropbox.com/s/b6medu2ww0acoqa/Screenshot%202014-10-19%2009.10.53.png?dl=0

Das ist bei mir schon immer so gewesen. Warum sind die Punkte ausgegraut?
Die Menüpunkte sind nur bei Multimonitor vorhanden und machen auch nur da Sinn

robbitop
2014-10-19, 15:05:44
Ich stelle mir gerade die Frage, ob ich einfach nur eine Titan rausschmeiße - oder gleich beide und mir eine GTX980 hole. Letztere ist nicht so viel schneller als die Titan. Und es gibt bis dato nur eine 4 GB Version.

Godmode
2014-10-19, 15:08:15
Ich stelle mir gerade die Frage, ob ich einfach nur eine Titan rausschmeiße - oder gleich beide und mir eine GTX980 hole. Letztere ist nicht so viel schneller als die Titan. Und es gibt bis dato nur eine 4 GB Version.

Suckt SLI derzeit wirklich so dermaßen? :eek:

Eine Titan verkaufen, die anderen behalten und später auf GM200 aufrüsten. Was bekommt man den noch für eine Titan?

robbitop
2014-10-19, 15:15:01
Ich fürchte seit der 980 sind die Preise bestimmt total versaut. :(

Gründe:

1. Laneprobleme bei mir (siehe die letzten Seiten)
2. G-Sync + SLI bedeutet Datenübertragung über PCIe statt über die Brücke -> das könnte zu Stottern führen
3. G-Sync + SLI + DSR geht im Moment nicht
4. Es gibt immer mehr Spiele, bei denen es keine SLI Profile gibt - man also seine Leistung nicht nutzen kann
5. Aufgrund üblicher AFR Effekte hat man eh nur +80 % Skalierung und dank µ-Ruckler gefühlt ca. 50 % mehr Leistung.

Das ist immernoch besser als nichts. Aber irgendwie sind mir das zu viele Kompromisse. Gefühlt wird GM200 gleich sein als GK110 SLI.

Grestorn
2014-10-19, 15:33:16
Ich war ja gestern kurz davor, noch eine GTX 980er zu kaufen, aber das lasse ich mal angesichts dieses Threads bleiben.

Naja, Robbitops Problem ist doch eher ein Einzelfall...

Ich hab zwar auch Probleme, aber ganz andere ... die vermutlich eher mit dem neuen MB zusammenhängen. Bei mir klappt das mit dem 980er SLI und GSync wunderbar.

Ich werde aber auch gleich mal nen Bandbreitentest machen. Denn ich habe das Gefühl, dass die Bandbreite unter Win8.1 schlechter als unter Win7 ist (Nachladeruckler heftiger).

robbitop
2014-10-19, 16:13:23
So ich habe nochmal darüber nachgedacht. Ich lasse nächste Woche, sobald ich nach der Arbeit Zeit habe, das Wasser ab und schaue welche Titan in welchem PCIe Slot wieviel Lanes hat.

Entweder ist das Board defekt oder eine der Titans. Das entsprechende Teil schicke ich dann ein.


@Grestorn
Ich habe 2 Probleme. Eines davon hat aber jeder SLI Nutzer, der einen G-Sync Monitor hat:

Der SLI Traffic läuft bei G-Sync nicht über die SLI Brücke. Er muss somit auch über den PCIe. Die Frage ist ob es bei PCIe 8x die Ursache für deine Ruckler ist.

Teste dochmal PCIe 3.0, 2.0 und 1.0 ob es schlimmer wird, wenn du die PCIe Version runterschaltest. :)

Grestorn
2014-10-19, 17:06:45
So, jetzt hab ich mal ne Weile mit Benchmarks verbracht, weil mir das Phänomen von Robbi keine Ruhe lässt.

Gebencht habe ich Middle-Earth: Shadow over Mordor, weil das schnell geht, viel VRAM nutzt und ne einigermaßen brauchbare Benchmark Funktion hat.

SLI ist in Mordor über die FEAR 3 Bits ermöglicht.
Die Bildwiederholrate war 120 Hz an einem Asus Swift.
Alle Setting in Game auf Maximum (außer Motion Blur: aus), Texturen auf Ultra.

Ich hab die Benchmarks immer zweimal hintereinander laufen lassen und den zweiten Wert genommen. Beim ersten Durchlauf gibt es insbesondere am Anfang heftige Laderuckler, die sich vorallem auf die MinFPS sehr negativ auswirken. Deswegen habe ich nur den 2. Durchlauf verwendet.

Den PCIe Bus habe ich über das BIOS auf V1 limitiert (und mit concbandwithtest geprüft: Die Bandbreite ist in der Tat geviertelt). Bei der Gelegenheit: Deine Bandbreitenwerte sind ziemlich mager, Robbi.

Bei PCIe V3 bekomme ich:

D:\>concBandwidthTest.exe 0
Device 0 took 553.002991 ms
Average HtoD bandwidth in MB/s: 11573.174300
Device 0 took 519.849976 ms
Average DtoH bandwidth in MB/s: 12311.244206
Device 0 took 630.858765 ms
Average bidirectional bandwidth in MB/s: 20289.802912

Ok, hier die Benchmark-Ergbnisse:

Monitor & Hz|PCIe|SLI|Sync|MinFPS|AvgFPS|Kommentar
Dell 60Hz|3|an|VSync aus|32,66|100|
Swift 120Hz|3|an|VSync aus|27|99|
Swift 120Hz|3|an|GSync an|24|83|Avg bei mehreren Versuchen zwischen 60 und 90fps
Swift 120Hz|3|an|GSync aus|30|93,58
Dell 60Hz|3|aus|VSync aus|30,67|60,17|
Swift 120Hz|3|aus|VSync aus|30|58,63|
Swift 120Hz|3|aus|GSync an|32|59,05|Fast eine geschwungene Linie
Swift 120Hz|3|aus|GSync aus|26|40,29|Fast gerade Linie auf 40 und 60 fps
Dell 60Hz|1|an|VSync aus|27,94|92,89|
Swift 120Hz|1|an|VSync aus|26|70,34
Swift 120Hz|1|an|GSync an|22|78,41
Swift 120Hz|1|an|GSync aus|24|75,79
Dell 60Hz|1|aus|VSync aus|26,8|57,61|
Swift 120Hz|1|aus|VSync aus|-|-|nicht gemessen
Swift 120Hz|1|aus|GSync an|22|57,27
Swift 120Hz|1|aus|GSync aus|19|39,65

Nur zur Klarstellung: "GSync aus" in der Tabelle heißt natürlich, dass VSync an geblieben ist. VSync habe ich im Spiel selbst umgestellt, GSync über die globale Treibereinstellung. Wenn GSync an war, war auch im Spiel VSync aktiviert. Kontrolliert habe ich GSync über die rote LED des Swift.

Bemerkenswert fand ich, dass man ohne SLI die Auswirkung von GSync extrem gesehen hat, was auch an der Darstellung des Benchmarks in Mordor liegt. Man sieht die FPS Kurve im OSD in hoher Geschwindigkeit.

Mit VSync aber ohne GSync war die Framerate wie festgeklebt auf 40 fps (wegen der Wiederholrate von 120Hz: 120 / 3) und ging zeitweise dann sprunghaft auf 60 fps (120/2) um dort auch wieder eine gerade Linie zu geben. Besser kann man die Effekte von VSync nicht demonstrieren.

Mit GSync war die Darstellung immer noch fast eine Linie mit minimalen Ausschlägen nach oben und unten. So eine schöne Linie hat man selten gesehen. Nur dass die Linie als Kurve frei nach oben und unten geschwungen ist, je nach der Komplexität der Szene. Wirklich cool. Evtl. mach ich mal ein Video davon.

Mit aktiviertem SLI kommt das bei weitem nicht so schön, SLI verhagelt die Linie total. Da hilft dann auch GSync nicht mehr. Auch ist die Avg. Framerate bei mehreren Benchmarks hintereinander teilweise heftig von einenander abgewichen.

Aber, und das ist das Fazit, die Beobachtung, dass bei GSync und SLI die Daten über den PCIe Bus statt der Brücke gehen, kann ich in keinem Fall bestätigen. Das muss ein Phänomen sein, das wirklich auf Robbis Rechner beschränkt ist.

robbitop
2014-10-19, 17:24:02
Die Bandbreite ist in der Tat geviertelt). Bei der Gelegenheit: Deine Bandbreitenwerte sind ziemlich mager, Robbi.

Ach Grestorn. Es würde mich freuen, wenn du auch ein wenig mitliest im Thread. ;)

Du hast ca. 2x so hohe Werte wie ich im Bandbreitentester. Ich habe ein Z97 Board - Intel So1050 Plattform. Dort bekommt man bei SLI nur 8x Lanes. Du hast vermutlich aber ein Board, bei dem man 2x 16 Lanes bekommt (So2011 Plattform laut deiner Signatur). Dann ist es auch völlig klar, dass man eine höhere Bandbreite erreicht.

Zu deinen Benchmarks - ich schaue die gleich mal durch. Den Effekt, dass der SLI Traffic nicht mehr über die Brücke läuft, ist nicht abhängig von G-Sync an/aus, sondern bereits von der Erkennung des G-Sync Moduls abhängig.

Wenn du diesen Effekt also untersuchen möchtest, musst du leider tatsächlich abwechselnd einen Standardmonitor und einen G-Sync Monitor anschließen.

edit: deine Untersuchung ist nicht geeignet für den Test, ob es über die Bridge läuft oder nicht.

->Du brauchst ein Spiel/Benchmark mit möglichst viel fps - damit auch ordentlich Traffic über den Bus läuft

So hast du IMO alles getestet aber nicht ob es über die bridge läuft oder den PCIe.

Das "Problem" ist, dass du 16x Lanes hast, was selbst bei PCIe 1.0 ne ganze Menge ist und ggf. ausreicht, damit die Übertragung über PCIe keine großen Auswirkungen hat. Gut - am Ende ist es dann auch kein Problem, wenn es keine Auswirkungen hat. :)

Grestorn
2014-10-19, 17:35:28
Ich kann die PCIe Lines nicht begrenzen, sorry. Zumindest nicht ohne den Rechner auseinanderzunehmen.

Ich mach nachher gleich nochmal nen Benchmark auf dem alten Dell Monitor, der hat aber nur 1980x1200, was die Resultate verzerrt. Ich werde aber per DSR (oder über das im Spiel eingebaute DS Feature) versuchen auf die selbe Auflösung (also 2560x1440) zu gehen.

Die Tests mit VSync an habe ich nur gemacht, weil ich selbst sehen wollte, wie sich GSync ggü. VSync verhält. Ich fand das durchaus interessant. Und da die Framerate immer, auch in SLI, unterhalb der Bildwiederholfrequenz bewegt hat, ist VSync nur in so fern limitierend, dass die Framerate eben auf feste Werte fixiert ist (30,40,60 fps), was sich ja auch wie erwartet ausgewirkt hat.

Ich glaube weiterhin nicht, dass das GSync Modul dazu führt, dass die Brücke nicht mehr benutzt wird. Das hätte sich auf jeden Fall auswirken müssen.

robbitop
2014-10-19, 17:35:39
Nochmal durch deine Benchmarks geschaut:

Vergleiche mal den Max FPS Wert von SLI PCIe1.0 vs PCIe3.0. Die sind bei PCIe 3.0 deutlich höher. Was bereits für einen kleinen Bottleneck spricht.
Ohne SLI macht PCIe1.0 vs 3.0 bei deinen Benchmarks keinen Unterschied.

Interessant wäre jetzt nochmal bei dir einen Non G-Sync Monitor anzuschließen (gleiche Settings + Resolution im Spiel!) und mit PCIe1.0 und 3.0 nachzumessen.

Ich tippe darauf, dass die PCIe1.0 Werte nach oben schießen werden. Wenn das so ist, ist meine Theorie bestätigt. (geht leider nicht ohne "Monitortausch")

robbitop
2014-10-19, 17:37:19
Bitte mit gleichen Auflösungen. Mach die Benchmarks eventuell in FullHD mit deinem ASUS ROG SWIFT.

DSR kannst du vergessen, weil es den Framebuffer auf der GPU bereits runterskaliert (also downsamplet) und damit dann der Traffic zwischen den Karten geringer ist.

Es muss gleiche Auflösung sein!

Es reichen folgende Messungen:

FullHD für alles (V-Sync und G-Sync AUS / SLI AN):

ROG SWIFT PCIe 3.0
ROG SWIFT PCIe 1.0
DELL Monitor PCIe 3.0
DELL Monitor PCIe 1.0

Also nur 4x Messungen!

Wichtig sind die Max FPS Werte!

robbitop
2014-10-19, 17:39:49
edit siehe letzter Post

Kartenlehrling
2014-10-19, 17:51:58
Das Angebote an vergleichbaren Monitor ist ja sehr überschaubar.

http://geizhals.de/?cat=monlcd19wide&xf=106_TN~5137_11~104_2#xf_top
Monitore » LCD-Monitore mit Auflösung: 2560x1440, Reaktionszeit: bis 2ms, Panel: TN

Grestorn
2014-10-19, 17:55:19
Die MaxFPS Werte sind im Fall von Mordor total Schrott und unbrauchbar. Und imO auch unerheblich.

Ich schau mal ob ich auf dem Dell eine Custom Resolution von 2560x1440 hinkriege...

robbitop
2014-10-19, 18:01:41
Die MaxFPS Werte sind im Fall von Mordor total Schrott und unbrauchbar. Und imO auch unerheblich.
Mag sein - aber dennoch sind alle 3 Werte bei deinen Messungen mit PCIe 3.0 deutlich besser als mit PCIe1.0 im SLI.
Ohne SLI nicht.

Das kann kein Zufall sein.

Wenn dir das nicht genau genug ist, dann stelle das Spiel so ein, dass du viele FPS als Average hast. 60-100 fps brauchen wir für die Messung.


Ich schau mal ob ich auf dem Dell eine Custom Resolution von 2550x1440 hinkriege...
Entweder so - oder halt einfach nochmal fix 2x Werte mit dem ROG neu messen. Es sind nur 2x Werte je Monitor. Achte auf hohe FPS. Je höher fps und Auflösung, je höher der Traffic, desto höher die Skalierung bei PCIe1.0 -> 3.0

Ich würde mich nicht wundern, wenn die Skalierung bei deinem Dell viel geringer ist. Und wenn das der Fall ist, ist meine Aussage damit bestätigt.

Du kannst alternativ auch den 3DMark durchlaufen lassen. Der erzeugt im SLI hohe fps, spuckt reproduzierbare Werte aus und läuft in FullHD.

Grestorn
2014-10-19, 18:04:04
Oh, ich sehe gerade, dass die Spalte falsch beschriftet ist. Es muss AvgFPS heißen, nicht MaxFPS. Die MaxFPS ist bei den meisten Tests im Bereich von 400-600 was absoluter Quatsch ist. Deswegen habe ich mir die Werte auch nicht mal aufgeschrieben. Resultate mit dem Dell kommen gleich...

Rente
2014-10-19, 18:05:17
Wirklich schlauer werden wir aus dem Test mit Grestorns GTX980ern aber irgendwie auch nicht, GK110 könnte sich im gleichen Szenario durchaus anders verhalten weil nVidia Optimierungen für SLi und G-Sync erst bei Maxwell vorgenommen haben könnte (wenn auch diesbezüglich nichts zu lesen war).

robbitop
2014-10-19, 18:11:48
Von solchen Optimierungen habe ich nichts gelesen. Bis ich das Gegenteil sehe, miss man davon ausgehen, dass SLI gleich funktioniert.
Was will man auch an AFR großartig anders machen?

OC_Burner
2014-10-19, 18:32:44
Leider habe ich kein G-Sync Monitor aber könntest du via MonInfo (http://www.entechtaiwan.com/util/moninfo.shtm) deine Monitor.inf des Asus ROG SWIFT PG278Q hier hochladen? Vielleicht läßt sich ja der Treiber austricksen und denkt danach das wirklich ein G-Sync Monitor angeschlossen ist. Würde das selber gerne mal nachstellen.

Grestorn
2014-10-19, 18:45:01
Ich hab die Werte mit dem Dell in der Tabelle oben nachgetragen.

Auffällig ist in der Tat, dass die Framerate auf dem Dell mit PCIe V1 & aktiviertem SLI deutlich besser sind als auf dem Swift. Das würde Robbis These stützen.

Allerdings müsste ich die ganzen Tests auf dem Swift nochmal wiederholen, denn ich habe eher zufällig festgestellt, dass durch das Ein- oder Ausschalten von SLI der Treiber alle OC Einstellungen auf die Standardwerte zurückstellt. Deswegen waren die Tests auf dem Swift teilweise mit und teilweise ohne OC (etwa 10%). Auf dem Dell sind alle Tests definitiv ohne OC erfolgt.

Ich glaube aber nicht, dass sich dadurch die Aussage nochmal entscheidend ändert.

P.S.: Ich frage mich gerade wieviel Tests im Netz, die SLI und OC Werte vergleichen, genau aus diesem Grund tatsächlich falsche Ergebnisse abbilden... Wer prüft schon, ob nach dem Umschalten von SLI die OC Werte noch aktiv sind?

Leider habe ich kein G-Sync Monitor aber könntest du via MonInfo (http://www.entechtaiwan.com/util/moninfo.shtm) deine Monitor.inf des Asus ROG SWIFT PG278Q hier hochladen? Vielleicht läßt sich ja der Treiber austricksen und denkt danach das wirklich ein G-Sync Monitor angeschlossen ist. Würde das selber gerne mal nachstellen.

Da wird kein monitor.inf etwas helfen, da bei G-Sync der Treiber direkt mit dem Monitor bidirektional kommuniziert.

robbitop
2014-10-19, 18:51:05
Ich wußte es! :up:

Sobald G-Sync erkannt wird, läuft (zumindest mehr) Traffic über den PCIe anstatt der Bridge.

Je mehr Bandbreite, je maskierter das Problem.

Bei mir war es mit PCIe 1x natürlich extrem. Aber nur dadurch kam das an's Tageslicht!

robbitop
2014-10-19, 18:57:53
BTW:

Teste mal TXAA bei PCIe 1.0 (z.B. in Crysis 3) und vergleiche mit PCIe 3.0. Und schau, wie die Leistung purzelt. Das ist mir bei meinen Tests letzte Woche auch aufgefallen Da muss auch eine Menge über den PCIe, der sonst über die Brücke muss.

OC_Burner
2014-10-19, 19:03:16
Probeweise müssten ohne Bridge in etwa dieselben Ergebnisse vorliegen wie mit G-Sync Monitor (vorausgesetzt über die Bridge läuft gar kein Traffic mehr).

Da wird kein monitor.inf etwas helfen, da bei G-Sync der Treiber direkt mit dem Monitor bidirektional kommuniziert.

Höchstwahrscheinlich aber Versuch macht klug.

robbitop
2014-10-19, 19:07:35
Probeweise müssten ohne Bridge in etwa dieselben Ergebnisse vorliegen wie mit G-Sync Monitor (vorausgesetzt über die Bridge läuft gar kein Traffic mehr).



Höchstwahrscheinlich aber Versuch macht klug.
Die Monitorinf bekommt man ganz normal bei ASUS.

Ja das mit der Bridge könnte man nochmal gegentesten.


@Grestorn,

tust du mir noch einen Gefallen? Benchst du bitte nochmal mit PCIe 2.0? :)
(ich habe privates Interesse an den Werten, weil wenn ich die kaputte Komponente einschicke mit 8x Lanes@PCIe 3.0 ja praktisch die gleiche Bandbreite hätte wie du mit PCIe 16x Lanes @PCIe 2.0).

Hätte ich keine Soundblaster ZxR könnte ich sicher den PCIe noch ordentlich übertakten. Ich tippe aber darauf, dass die Soundblaster rumzicken wird.

OC_Burner
2014-10-19, 19:22:37
Die Monitorinf bekommt man ganz normal bei ASUS.

In dieser Inf liegen aber keine EDID-Daten vor. Macht nichts, habe die EDID-Daten nun von anderer Stelle.

Grestorn
2014-10-19, 19:32:35
@Grestorn,

tust du mir noch einen Gefallen? Benchst du bitte nochmal mit PCIe 2.0? :)
(ich habe privates Interesse an den Werten, weil wenn ich die kaputte Komponente einschicke mit 8x Lanes@PCIe 3.0 ja praktisch die gleiche Bandbreite hätte wie du mit PCIe 16x Lanes @PCIe 2.0).

Ich wollte heut abend eigentlich genau das machen, wozu ich die ganze HW gekauft habe... ZOCKEN :)

Aber gut, Dir zu liebe... ;)

So hier: PCIe 2, Swift, kein VSync, SLI an: Min: 39, Avg: 87,58

robbitop
2014-10-19, 19:53:23
Interessant. Also genau zwischen PCIe3 und 1. Also im,ernoch ein Flaschenhals. NV muss da IMO dringend was tun.

4Fighting
2014-10-19, 20:18:41
ich hab mal mein system mit pcie 1.1 x16 gebencht und es war natürlich langsamer.

aber ich hab kein 55er fps lock o.ä. festgestellt

@robbi

steht dir nicht auch pcie 1.1 x16 zur verfügung?

Blaire
2014-10-19, 20:19:26
Interessant. Also genau zwischen PCIe3 und 1. Also im,ernoch ein Flaschenhals. NV muss da IMO dringend was tun.

Also wohl doch ein PCIe-Bandwidth Problem, das hatte ich von Anfang an im Verdacht. Bräuchtest also ein besseres Board/CPU welches dir mehr Lanes bereitstellt . SLI-Support (was die G-Sync und DSR-Features einschließt) über PCIe-Bus wird derzeit vom Treiber nicht unterstützt.
Es sollte aber zumindest so sein, das der Grafikkartentreiber korrekt beim Asus Monitor unterscheiden kann, ob G-Sync aktiviert ist oder nicht um zumindest ordnungsgemäßen SLI-Support ohne G-Sync zu gewährleisten.

robbitop
2014-10-19, 20:32:43
ich hab mal mein system mit pcie 1.1 x16 gebencht und es war natürlich langsamer.

aber ich hab kein 55er fps lock o.ä. festgestellt

@robbi

steht dir nicht auch pcie 1.1 x16 zur verfügung?
kann auch kein 55 fps Lock geben. Du hast ja mehr als 1x PCIe 3.0 Lane. ;)

Mir stehen 3x PCIe 16x zur Verfügung. Die sind aber laut Tabelle im Handbuch nicht dynamisch nutzbar. Den 3. nutzt man wohl bei Triple SLI umd der hat dann 4 Lanes.

robbitop
2014-10-19, 20:36:36
Also wohl doch ein PCIe-Bandwidth Problem, das hatte ich von Anfang an im Verdacht. Bräuchtest also ein besseres Board/CPU welches dir mehr Lanes bereitstellt . SLI-Support (was die G-Sync und DSR-Features einschließt) über PCIe-Bus wird derzeit vom Treiber nicht unterstützt.
Es sollte aber zumindest so sein, das der Grafikkartentreiber korrekt beim Asus Monitor unterscheiden kann, ob G-Sync aktiviert ist oder nicht um zumindest ordnungsgemäßen SLI-Support ohne G-Sync zu gewährleisten.

Es ist generell ein Bandbreiten Problem. Bei mir im Speziellen noch ein HW Problem, da slot 2 irgendwie nur 1x Lane zur Verfügung stellt.

Mit obigem meinst du Transfer via Bridge geht mit G-Sync und/oder DSR nicht. Also Umstieg auf den PCIe?
Jedenfalls tut der Treiber das schon sobald das G-Sync Modul erkannt wird, Deshalb ist das Ergnis mit Swift schlechter als mit BenQ Moni. Je weniger PCIe Bandbreite desto schlimmer wird es.

IMO muss NV dringend in jedem Fall (Gsync, DSR etc) den Traffic zurück auf die Bridge bringen.

Es sei denn, dass das einen Grund hat (SLI Brücke hat nicht genug Bandbreite um die vielen Daten durch DSR oder Gsync zu transportieren)?

4Fighting
2014-10-19, 20:37:11
kann auch kein 55 fps Lock geben. Du hast ja mehr als 1x PCIe 3.0 Lane. ;)

Mir stehen 3x PCIe 16x zur Verfügung. Die sind aber laut Tabelle im Handbuch nicht dynamisch nutzbar. Den 3. nutzt man wohl bei Triple SLI umd der hat dann 4 Lanes.

meine idee war eigentlich die bandbreite künstlich für beide karten zu beschneiden, sodass wir dann ggf. vergleichen können bzw. du auch beide karten auf pcie 1.1 absenkst damit man es final auf die bandbreite reduzieren könnte:confused:

denn irgendwie sind die bisherigen lösungsansätze weder fisch noch fleisch:), da deine Karten freudig hin und her takten bei den lanes :D

Rente
2014-10-19, 20:42:56
Was passiert eigentlich wenn du die Soundblaster-Karte mal raus nimmst? Bleibt es dann bei x1 bei dem einen Port?

robbitop
2014-10-19, 20:44:15
meine idee war eigentlich die bandbreite künstlich für beide karten zu beschneiden, sodass wir dann ggf. vergleichen können bzw. du auch beide karten auf pcie 1.1 absenkst damit man es final auf die bandbreite reduzieren könnte:confused:

denn irgendwie sind die bisherigen lösungsansätze weder fisch noch fleisch:), da deine Karten freudig hin und her takten bei den lanes :D

Die Ursache und Lösung sind doch bereits gefunden und sogar nachgestellt. :)

Lösung robbi: kaputte Komponente lokalisieren und austauschen (wobei ich bei 8 Lanes vermutlich noch leichte Einbuße haben werde mit dem Swift)
Lösung NV: SLI Kommunikation fixen

robbitop
2014-10-19, 20:44:54
Was passiert eigentlich wenn du die Soundblaster-Karte mal raus nimmst? Bleibt es dann bei x1 bei dem einen Port?

Schon getestet. Kein Effekt. :) Ich gehe mittlerweile von einem HW Defekt aus.

Grestorn
2014-10-19, 21:22:54
Also wohl doch ein PCIe-Bandwidth Problem, das hatte ich von Anfang an im Verdacht. Bräuchtest also ein besseres Board/CPU welches dir mehr Lanes bereitstellt . SLI-Support (was die G-Sync und DSR-Features einschließt) über PCIe-Bus wird derzeit vom Treiber nicht unterstützt.
Es sollte aber zumindest so sein, das der Grafikkartentreiber korrekt beim Asus Monitor unterscheiden kann, ob G-Sync aktiviert ist oder nicht um zumindest ordnungsgemäßen SLI-Support ohne G-Sync zu gewährleisten.

Hi Blair!

Es sieht aber in der Tat so aus, als würde das System deutlich stärker an der PCIe Bandbreite hängen, wenn man SLI nutzt und ein GSync Monitor angeschlossen ist (egal, ob GSync verwendet wird oder nicht).

Ich muss robbitop schon recht geben, dass es so aussieht, dass dann deutlich mehr Daten über den PCIe Bus gehen. Kannst Du nicht mal nachhaken, vielleicht ist es ja nur ein Treiber-Bug?

Grestorn
2014-10-19, 23:26:43
Alt stimmt auf jeden Fall... :)

PHuV
2014-10-19, 23:29:58
Ich wollte heut abend eigentlich genau das machen, wozu ich die ganze HW gekauft habe... ZOCKEN :)
Wem sagst Du das. :rolleyes: Ich habe durch den GTX 980er Wechsel fast nur noch rumgebaut. Erst das Mainbord auf Z97 und CPU i7-4790, und nun der Acer XB280HK 4k, wo ich nur noch mit G-Sync am Testen bin. Und kaum was gespielt, heul.

Ich würde mir ja fast auch noch eine 2. Karten reinbauen, allein um das Problem auch mal nachzuvollziehen, aber irgendwie habe ich Schiß davor.

Grestorn
2014-10-19, 23:39:17
Ich würde mir ja fast auch noch eine 2. Karten reinbauen, allein um das Problem auch mal nachzuvollziehen, aber irgendwie habe ich Schiß davor.

Lass es besser. Ich dachte ich muss unbedingt mal wieder SLI haben. Unterm Strich bringt es zur Zeit aber zu wenig und macht zu viele Probleme.

Ein Grund für mich ist dass ich gerne mit 3D Vision spiele, insbesondere Skyrim + 1000e Mods. Da hilft SLI wirklich viel.

Hübie
2014-10-20, 00:20:52
Also man kann ja den Status von G-Sync abfragen (NvAPI_GSync_GetSyncStatus). Ich weiß aber nicht ob da relevante Daten enthalten sind die Aufschluß über Vorgänge des PCIE-Bus geben. Ich kann mir auch gerade gar keinen Reim darauf machen, warum G-Sync nicht mit SLi geht, da die Logik im Monitor sitzt und es der GPU eigentlich scheißegal sein sollte was die in welche Menge dahin sendet... hmmm. :| Das sieht mir einfach nach einem Softwarefehler aus.

Oder hast du schon einen hardware-defekt lokalisiert, robbi?? Ich hab jetzt die letzten Seiten nicht verfolgt :smile:

PHuV
2014-10-20, 00:26:47
Lass es besser. Ich dachte ich muss unbedingt mal wieder SLI haben. Unterm Strich bringt es zur Zeit aber zu wenig und macht zu viele Probleme.
Vor allen Dingen, im Vergleich zu den 3x580er vorher der Rechner selbst unter Last sooo leise.

Blaire
2014-10-20, 02:37:18
Es ist generell ein Bandbreiten Problem. Bei mir im Speziellen noch ein HW Problem, da slot 2 irgendwie nur 1x Lane zur Verfügung stellt.

Sorry hatte wenig Zeit , habe nicht alles gelesen, werde ich nachholen.

Mit obigem meinst du Transfer via Bridge geht mit G-Sync und/oder DSR nicht. Also Umstieg auf den PCIe?
Jedenfalls tut der Treiber das schon sobald das G-Sync Modul erkannt wird, Deshalb ist das Ergnis mit Swift schlechter als mit BenQ Moni. Je weniger PCIe Bandbreite desto schlimmer wird es.

Nein , ich meinte das bezogen auf deinen Asus ROG Swift-Monitor , wo auch das DSR-Feature darunter fällt, DSR+SLI-Support über PCIe-Bus wird vom Treiber nicht unterstützt, G-Sync transferiert die Daten ebenso über PCIe Bus, was dann zuviel des Guten wäre, deshalb ist dieses Feature im SLI-Mode auf G-Sync Monitoren nicht anwählbar.
Aber zumindest sollte der Treiber so flexibel sein, G-Sync im Treiber komplett zu deaktivieren um DSR im SLI-Mode auch auf G-Sync Monitoren zu ermöglichen, als auch um mögliche PCIe-Bandwidth Engpässe und somit Performance-Nachteile zu verhindern.


Ich muss robbitop schon recht geben, dass es so aussieht, dass dann deutlich mehr Daten über den PCIe Bus gehen. Kannst Du nicht mal nachhaken, vielleicht ist es ja nur ein Treiber-Bug?

Hi Grestorn, ich habe doch schon nachgefragt, ebenso das als möglichen Bug berichtet, aber offensichtlich liegts bei robbitop wohl an einer defekten Komponente, wenn ich das jetzt richtig verfolgt habe. Zwecks G-Sync deaktivieren , DSR usw. bleibe ich dran.

Grestorn
2014-10-20, 07:59:32
Sorry hatte wenig Zeit , habe nicht alles gelesen, werde ich nachholen.
[...]
Hi Grestorn, ich habe doch schon nachgefragt, ebenso das als möglichen Bug berichtet, aber offensichtlich liegts bei robbitop wohl an einer defekten Komponente, wenn ich das jetzt richtig verfolgt habe. Zwecks G-Sync deaktivieren , DSR usw. bleibe ich dran.

Wenn Du nicht alles gelesen hast, dann hast Du sicher auch nicht mitbekommen, dass ich das Problem von robbitop bei mir nachstellen konnte. Ich musste dazu die PCIe Bandbreite reduzieren, bei PCIe 3.0 mit 16 Lanes wird es verdeckt (kostet aber natürlich immer noch unnötig Bandbreite). Schon bei der halben Bandbreite (Reduktion auf PCIe 2.0) bricht die Framerate deutlich merkbar ein, aber nur dann, wenn der Swift angeschlossen ist. Ob man GSync nutzt oder nicht spielt dabei keine Rolle.

robbitop
2014-10-20, 08:23:31
Also man kann ja den Status von G-Sync abfragen (NvAPI_GSync_GetSyncStatus). Ich weiß aber nicht ob da relevante Daten enthalten sind die Aufschluß über Vorgänge des PCIE-Bus geben. Ich kann mir auch gerade gar keinen Reim darauf machen, warum G-Sync nicht mit SLi geht, da die Logik im Monitor sitzt und es der GPU eigentlich scheißegal sein sollte was die in welche Menge dahin sendet... hmmm. :| Das sieht mir einfach nach einem Softwarefehler aus.

Oder hast du schon einen hardware-defekt lokalisiert, robbi?? Ich hab jetzt die letzten Seiten nicht verfolgt :smile:
Dann haätte sich 1. deine Frage erledigt und 2. wenn du sie letzten beiden Seiten ließt, siehst du, was für eine Interessante Erkenntnis wir durch mein Problem gefunden haben. Es lohnt sich. ;)

Hübie
2014-10-20, 08:26:31
Ja mir ist nicht entgangen dass es an der PCIE-Banbreite liegt, aber wo da der Zusammenhang ist, erschließt sich mir absolut nicht. Da müssen ja ganze Frames oder so über den Bus wandern, damit man die 5GB+ ausnutzt. Klingt wohl nach bug.
Afaik ist die Brücke im Grunde PCIE sehr ähnlich. Vielleicht wird da einfach falsch "gerootet"...? :|

robbitop
2014-10-20, 08:28:53
Wußte ich doch, dass NV das nicht aus Spaß gemacht hat. Die SLI Brücke wird zu alt, um die 4x Datenmenge von DSR zu übertragen. Bandbreite der Brücke nicht hoch genug.

Bei G-Sync ist mir allerdings nicht klar, warum das nicht über die Brücke laufen kann. Das sollte eigentlich nicht mehr Bandbreite kosten. Oder kaum.

Ergo:

1. NV braucht ne neue Brücke.
2. Die So1050 Kunden mit SLI+G-Sync sind die Gearschten, da die Bandbreite von 2x PCIe 3.0 8x nicht reicht, um vollständig das Problem zu verdecken. -> noch schlimmer wird es mit TXAA! Da muss dann auch wieder noch weiteres Zeug über den PCIe.

Ja mir ist nicht entgangen dass es an der PCIE-Banbreite liegt, aber wo da der Zusammenhang ist, erschließt sich mir absolut nicht. Da müssen ja ganze Frames oder so über den Bus wandern, damit man die 5GB+ ausnutzt. Klingt wohl nach bug.
Afaik ist die Brücke im Grunde PCIE sehr ähnlich. Vielleicht wird da einfach falsch "gerootet"...? :|
Lies bitte einfach den gesamten Thread. Dann wirst du verstehen. :)

Ich glaube ich werde heute mal im Eingangsposting eine Zusammenfassung schreiben, damit das Problem möglichst jeder schon beim Eingang liest.

Hübie
2014-10-20, 08:31:21
[x] NVLINK :biggrin:

Also dass DSR mehr Bandbreit braucht ist klar, aber halt der Zusammenhang mit G-Sync ist... ääähm. JA! :freak:

Grestorn
2014-10-20, 08:41:51
Ich würde erst mal keine voreilligen Schlüsse ziehen. Mal sehen, ob es eine Aussage von nVidia gibt. Ich kann mir nicht vorstellen, dass man wegen GSync nennenswert mehr mehr Daten zwischen den Karten austauschen muss. Welche sollten das sein?

Und DSR erhöht natürlich die benötigte Bandbreite, aber eben auch nur entsprechend der erhöhten Pixelmenge. Kann durchaus sein, dass die Brücke dann nicht mehr ausreicht.

Hat eigentlich mal jemand nachgewiesen, ob die Bandbreite der SLI Brücke davon profitiert, ob man beide Stränge oder nur einen Strang verbindet?

robbitop
2014-10-20, 09:29:06
Die Idee hatte ich heute auch schon. Ich vermute aber, dass sich da nichts tun wird, weil NV AFAIK sowas nie vorgesehen hat. Zumindest haben sie öffentlich nichts dazu gesagt.

Allerdings: wie willst du die Bandbreite der SLI Brücke messen? :)

MiamiNice
2014-10-20, 09:46:10
Es wäre schön wenn ihr das Problem lokalisieren könntet. Habe die selbe Plattform wie robbitop und auch den Asus ROG Swift und liebäugle mit zwei 970er für SC. Der Plan ist jetzt erst mal gestoppt.

Hübie
2014-10-20, 10:03:54
Die Idee hatte ich heute auch schon. Ich vermute aber, dass sich da nichts tun wird, weil NV AFAIK sowas nie vorgesehen hat. Zumindest haben sie öffentlich nichts dazu gesagt.

Allerdings: wie willst du die Bandbreite der SLI Brücke messen? :)

Man kann sich nur auf die Aussage von nVidia verlassen dass diese Brücke bis zu 1GB/s transferieren kann. Ob mit oder ohne overhead ist nirgends dokumentiert. Und auch nicht ob überhaupt etwas passiert wenn beide Verbindungen genutzt werden. Es ist nicht mal herausgestellt welches Protokoll das ist, aber PCIE wäre naheliegend. Punkt zu Punkt halt.

robbitop
2014-10-20, 10:19:46
Es wäre schön wenn ihr das Problem lokalisieren könntet. Habe die selbe Plattform wie robbitop und auch den Asus ROG Swift und liebäugle mit zwei 970er für SC. Der Plan ist jetzt erst mal gestoppt.
Das Problem ist doch lokalisiert.

Bei mir ist es offenbar ein HW Defekt. Und generell schiebt NV tendenziell immer mehr SLI Traffic (wenn nicht alles!) auf den PCIe. Und da scheint unterhalb von 2x 16 Lanes PCIe 3.0 ein Limit zu existieren.

Ich würde aus heutiger Sicht (nicht nur wegen des Bandbreitenproblems) von SLI abraten.

MiamiNice
2014-10-20, 10:42:46
Danke Dir, dann warte ich auf den Vollausbau und hoffe das der in 1440p mit SC zurecht kommt.

Grestorn
2014-10-20, 10:54:52
Dumme Frage: SC?! Doch sicher nicht SimCity? :)

MiamiNice
2014-10-20, 11:03:04
Hey Grestorn, Star Citizen (https://robertsspaceindustries.com/about-the-game) ist gemeint (bzw. aktuell der Arena Commander, SC ist ja noch nicht fertig). Grüße

robbitop
2014-10-20, 11:34:32
@MiamiNice
Also ich will dir SLI (bzw mGPU im Allgemeinen! CrossFire ist nicht besser!) nicht ausreden. Es hat aber leider Nachteile, die man abwägen muss:

1. Du brauchst SLI Profile - die gibt es nicht immer. Gerade bei neueren Spielen. Dann stehst du mit sGPU Leistung da. (Star Citizen wird aber bestimmt ein Profil bekommen - da gehe ich von aus - Chris Roberts hat ja betont, wie sehr er auf High End und SLI steht!)
2. SLI skaliert natürlich nicht linear. ca. 80 % mehr fps bekommst du.
3. durch den unsauberen fps Verlauf (AFR bedingt - NV hat es vermutlich schon so gut gemacht, wie es irgend geht!) ggü sGPU mit G-Sync fühlt es sich aber weniger an als +80 % -> eher wie 50 %
4. man benötigt mit G-Sync Monitor offenbar 2x PCIe3.0 16x -> also die teure So2011 Plattform oder ein So1050 Board mit PLX Switch. (wobei ich nicht 100 % weiß, ob so ein Switch hilft)
5. man benötigt logischerweise ein deutlich größeres Netzteil (hast du ja schon)

Am Ende hat man gefühlt (durch den Frameverlauf) ca. +50 % mehr Leistung und das auch nur in Spielen für die es ein SLI Profil gibt (und es wird im Moment nicht besser). Ansonsten +0 % Leistung. Und das am Ende für >2x die Kosten (2x GPU + hinzu kommt +teurere Plattform +teureres Netzteil).

Mein persönliches Fazit: Meh. :(

Aber ein echter Enthusiast (siehe unser guter alter Tombman :() läßt sich davon nicht abschrecken. Ist ja mit Ferraris etc genauso. Die kosteten viel viel mehr als sie bringen. :D
Also: es muss nicht immer alles rational sein.

Ich hatte kurz überlegt, die Titans rauszuschmeißen und mir eine GTX980 zu kaufen. Ist aber uninteressant, da:

1.) nur 4 GiB VRAM
2.) kaum schneller
3.) die Karte ist ein Next Gen Mainstreamprodukt (GXxx4) zum High End Preis -> meh :(

4Fighting
2014-10-20, 12:17:25
gibt es ne möglichkeit zu testen, ob bei einer 3way SLI Bridge mehr an Daten ausgetauscht werden?

robbitop
2014-10-20, 12:40:10
Dazu müsste das ja im Treiber vorgesehen sein. Ich halte das für unwahrscheinlich.

Man könnte höchstens schauen, ob es sich mit 2x SLI Bridges beim G-Sync Monitor anders verhält.

Alternativ: die SLI Bridge soll eine Übertragungsrate von 1 GiB/s haben. -> also mehr als diesen Traffic erzeugen und schauen, ob es unterschiedliche Ergebnisse mit 2x SLI Brücken gibt.

Bei 1440p bräuchte man ca. 73 fps, um einen Traffic von 1 GiB/s zu erzeugen. Also müsste man da deutlich drüber kommen. Sagen wir mal >100 fps.

G-Sync Monitor PCIe 1.0: 1 bridge vs 2 bridges.
Wenn die Messwerte deutlich differieren, könnte man diesen Schluss ziehen.

Aber wie gesagt: ich halte das für unwahrscheinlich.

Ab PCIe 3.0 mit 16x ist auch genug Bandbreite da. Nur leider hat das nur ein Bruchteil der Mainboards... Insofern halte ich dieses Problem aktuell noch für relevant. (bis Intel die Mainstream Plattform mit genug Lanes ausstattet oder PCIe 4.0 kommt -> also Skylake)

Kartenlehrling
2014-10-20, 12:49:20
Von welchen Mainboard redes du eigentlich die nicht mindesten 2x PCI-e3.0 x16 haben?

Cubitus
2014-10-20, 13:00:23
Also ich kann atm auch nur von SLI abraten.
Bei den meisten aktuellen Titeln bekommt man out of the box keine gescheiten Profile mehr. Bei DX11 Titeln eh schwerer alternative Bits zu finden.
Dies war bei DX9 eigl kaum ein Problem.SLI Modi die früher interessant waren wie z.b SLIAA usw. sind auch kein Thema mehr. Ich würde es heute so machen, eine fette "exklusive" HighEnd Karte kaufen aka KingPin z.b diese unter Wasser setzen und schön übertakten und diese ganzen Stromspar-Modus deaktivieren, braucht ja eh kein Mensch ;D

robbitop
2014-10-20, 13:29:45
Von welchen Mainboard redes du eigentlich die nicht mindesten 2x PCI-e3.0 x16 haben?
Soll das ein Witz sein? 90 % der Sockel 1050 Boards haben 2x PCIe 8x.

Rein mechanisch gibt es Boards mit drölf!!!1 PCIe 16x Slots. Aber Sandy/Ivy/Haswell haben nicht genug Lanes für 2x 16 Lanes. Also schalten die Mainboards bei SLI auf 2x 8 Lanes runter. Für 2x 16 Lanes braucht man die Sockel 2011 Plattform oder einen PLX-Switch (wobei ich nicht sicher bin, ob der so viel hilft).

robbitop
2014-10-20, 13:33:03
Ich würde es heute so machen, eine fette "exklusive" HighEnd Karte kaufen aka KingPin z.b diese unter Wasser setzen und schön übertakten und diese ganzen Stromspar-Modus deaktivieren, braucht ja eh kein Mensch ;D
Die bringen auch nicht so viel mehr. Eine normale GTX980 bekommt man z.B. unter Luft schon auf 1400 MHz und unter Wasser sicher auch auf 1500 MHz. Aber eine KINGPIN Edition wird nicht sehr viel mehr schaffen.

Aber wie gesagt: die GTX980 ist eine Mainstreamkarte und keine High End Karte. Also auf GM200 warten. (und hoffen, dass AMD einen starken Gegenspieler bringt - denn ansonsten werden wieder mit Apothenpreisen die Leute verarscht)

derguru
2014-10-20, 13:36:28
hmm, alle sli am abraten und ich wollte es doch nochmal probieren gerade wegen DSR aber wenn ich das hier alles so lese und ich nur mit einem älteren mainboard ausgestattet bin(z68) der nur 2x PCIe 2.0 8x hat lasse ich es wohl lieber und warte auf den hoffentlich zu weihnachten kommenden großen bruder.

Hübie
2014-10-20, 14:02:23
Ein PLX-Switch bringt auf dem Papier Vorteile, da SLi jedoch immer über die CPU geht ist der Gewinn im marginalen, einstelligen Bereich. Das dürfte sich mit Pascal oder vielleicht schon GM200 ändern.
Ich persönlich rate ebenfalls von jeglichen Vorhaben mit MGPU ab, da es aktuell immer mehr bergab geht. Auch wenn manche das nich gerne lesen ;)

differenzdiskriminator
2014-10-20, 14:06:35
Ein PLX-Switch bringt auf dem Papier Vorteile, da SLi jedoch immer über die CPU geht ist der Gewinn im marginalen, einstelligen Bereich.
Mit einem PLX kannst du theoretisch die GPU<->GPU Kommunikation über den Switch laufen lassen (somit den restlichen PCIe Bus nicht belasten) und auch z.B. von der CPU gemeinsame Daten wie Texturen nur einfach schicken.

4Fighting
2014-10-20, 14:09:11
Ich bin immernoch im Dialog mit mir selbst über die Lanes :D

Also wenn ich mit PCIe 2.0 x16 benche dürfte ich doch dem entsprechen, was unter PCIe 3.0 x8 (S 1150) möglich ist.

Und ungeachtet Gsync an oder aus, ist das Gesamtergebnis "nur" ca. 10% schlechter als mit 3.0 x16 und fernab von irgendwelchen brutalen Limits...:confused:

Hübie
2014-10-20, 14:12:42
Mit einem PLX kannst du theoretisch die GPU<->GPU Kommunikation über den Switch laufen lassen (somit den restlichen PCIe Bus nicht belasten) und auch z.B. von der CPU gemeinsame Daten wie Texturen nur einfach schicken.

Passiert aber nicht. ;) Und warum willst du ganze Texturen zu Graka1 senden? :|

@4fighting: In etwa ists das Gleiche. Wobei PCIE mehr netto durchsetzt.

4Fighting
2014-10-20, 14:14:41
@4fighting: In etwa ists das Gleiche. Wobei PCIE mehr netto durchsetzt.

und wo ist dann das bandbreitenproblem?:confused:

Godmode
2014-10-20, 14:15:38
Wenn ich meine zweite 980er habe, kann ich euch auch helfen beim Testen. Mich hats doch wieder mal in den Fingern gejuckt.

MiamiNice
2014-10-20, 14:26:42
@robbitop:

Danke für den Tip.
So viele Freaks hier im Thread und alle sind der selben Meinung bezüglich SLI, da muss ich nicht lange überlegen.
Ich lass es einfach und stelle bis zum GM200 einfach mal die Auflösung runter, wo es nötig ist.

Grestorn
2014-10-20, 14:42:03
Nur als Anmerkung: ich hab eine Three-Way SLI Bridge verbaut, obwohl ich nur 2 Karten habe. Die ganzen Messungen gestern sind also schon damit erfolgt.

Hübie
2014-10-20, 14:52:15
Das dürfte keinen Unterschied machen, oder hast du etwas festgestellt?

robbitop
2014-10-20, 15:12:50
4fighting

Es sind nir noch 10% - aber 10 % von deinen teuer erkauften 80 % von denen dank AFR Ruckeln nur fühlbar 50 % ankommen - das tut dann irgendwann alles nir noch weh.

BTW: ich habe es schon 3x fallenlassen - aber es wurde bisher ignoriert: TXAA erhöht den Bandbreitenbedarf zwischen den Karten nochmals deutlich! Dann sieht es noch schlechter aus mit der Skalierung.
Wenn man auch nich DSR machen will erhöht sich der Bandbreitenbedarf über PCIe nochmals um bis zu Faktor 4 (offiziell max DSR Faktor)

differenzdiskriminator
2014-10-20, 15:58:40
Passiert aber nicht. ;)
Doch, u.A. früher in den QuadroPlex-System von NVIDIA.

Und warum willst du ganze Texturen zu Graka1 senden? :|
AFR = Texturen in beiden GPUs vorhanden.

PLX = Textur 1x senden, Switch sendet die Kopie dann jeweils an GPU1 und 2.

-> Belastung für die den PCIe Bus zw. CPU und den GPUs sinkt um die Hälfte.

Natürlich nicht mit allen Daten möglich, logisch!

aufkrawall
2014-10-20, 16:10:02
BTW: ich habe es schon 3x fallenlassen - aber es wurde bisher ignoriert: TXAA erhöht den Bandbreitenbedarf zwischen den Karten nochmals deutlich!
Dann sieht es noch schlechter aus mit der Skalierung.

Ich hatte damals schon gesagt, dass TXAA die Skelierung in AC4 verschlechtert. ;)
Ich bin vielleicht oft die einzige Stimme, die sich beschwert, aber das heißt ja nicht, dass ein Problem so nicht existiert.

Wie kommst du übrigens auf Speicherbandbreite als Ursache? Hast du das mit VRAM Takt-Tests überprüft? Ich würde eher von Softwareproblemen ausgehen.
Edit: Ach so, du meinst ja gar nicht das GPU<->VRAM-Interface. :redface:
TXAA nutzt wie tSMAA auch temporale Filter, die auf Subpixel-Informationen angewiesen sind. Da geht wohl irgendetwas mit AFR nicht.

robbitop
2014-10-20, 16:11:16
Theoretisch müsste der PLX Switch zumindest für den Framebuffertransfer helfen. Der Weg GPU1-PLX-GPU2 ist ja durchgängig mit 16 Lanes vorhanden.

Offenbar ist die SLI Brücke einfach bandbreitenmäßig veraltet und man schiebt tendenziell alles auf den PCIe. TXAA und DSR erhöhehm den Bandbreitenbedarf für den Framebuffertransfer nochmal. Somit dürfte der Anteil an Kommunikation zwischen den GPUs steigen und danit sollte der PLX Switch dort auch helfen.

robbitop
2014-10-20, 16:16:47
Ich hatte damals schon gesagt, dass TXAA die Skelierung in AC4 verschlechtert. ;)
Ich bin vielleicht oft die einzige Stimme, die sich beschwert, aber das heißt ja nicht, dass ein Problem so nicht existiert.

Wie kommst du übrigens auf Speicherbandbreite als Ursache? Hast du das mit VRAM Takt-Tests überprüft? Ich würde eher von Softwareproblemen ausgehen.
TXAA nutzt wie tSMAA auch temporale Filter, die auf Subpixel-Informationen angewiesen sind. Da geht wohl irgendetwas mit AFR nicht.

Wieso VRAM? Ich habe Bandbreitenbedarf zwischen den GPUs gemeint. Vermutlich steigt der enorm, weil man für TXAA kein resolvten Framebuffer übertragen kann sondern den kompletten Framebuffer mit Subsamples übertragen muss - da temporale Komponente.
Ich denke, dass TXAA schon mit SLI funktioniert - aber eben deutlich mehr Bandbreite zwischen den Karten braucht. Da muss mehr hin und her kopiert werden.

Kannst ja mal die Skalierung mit PCIe Version untersuchen (analog zur Untersuchung in diesem Thread)

TXAA und SLI an. Und dann mal PCIe 1.0 vs 3.0.
Ist der Unterschied mit TXAA besonders groß (zum Gegentedten vieleicht MSAA nehmen) ists die PCIe Bandbreite. ;)

aufkrawall
2014-10-20, 16:19:21
Wieso VRAM? Ich habe Bandbreitenbedarf zwischen den GPUs gemeint.

Ja, hatte ich dann auch gecheckt.


Kannst ja mal die Skalierung mit PCIe Version untersuchen (analog zur Untersuchung in diesem Thread)

TXAA und SLI an. Und dann mal PCIe 1.0 vs 3.0.
Ist der Unterschied mit TXAA besonders groß (zum Gegentedten vieleicht MSAA nehmen) ists die PCIe Bandbreite. ;)
Warum machst du das nicht? SLI schon aufgelöst?
Hab ich auch schon längst gemacht. ;)

Hübie
2014-10-20, 16:57:33
Doch, u.A. früher in den QuadroPlex-System von NVIDIA.

Spielt hier überhaupt keine Rolle.


AFR = Texturen in beiden GPUs vorhanden.

PLX = Textur 1x senden, Switch sendet die Kopie dann jeweils an GPU1 und 2.

-> Belastung für die den PCIe Bus zw. CPU und den GPUs sinkt um die Hälfte.

Natürlich nicht mit allen Daten möglich, logisch!

So einfach ist's dann doch nicht. X-D

robbitop
2014-10-20, 17:15:01
Warum machst du das nicht? SLI schon aufgelöst?
Hab ich auch schon längst gemacht. ;)

Kann ich machen. Ist aber dann extrem! weil ich nur 1x Lane habe. Mehr lanes verschleiern dann wieder.

Cubitus
2014-10-20, 21:19:24
Die bringen auch nicht so viel mehr. Eine normale GTX980 bekommt man z.B. unter Luft schon auf 1400 MHz und unter Wasser sicher auch auf 1500 MHz. Aber eine KINGPIN Edition wird nicht sehr viel mehr schaffen.

Aber wie gesagt: die GTX980 ist eine Mainstreamkarte und keine High End Karte. Also auf GM200 warten. (und hoffen, dass AMD einen starken Gegenspieler bringt - denn ansonsten werden wieder mit Apothenpreisen die Leute verarscht)

Was halt bei Wasser gut ist, du kannst auf lange Dauer die niedrigen Temps bei ner niedrigeren Lüfterregelung halten. Vorausgesetzt man hat nen anständigen Radi.
Ansonsten stimme ich dir zu, ich hoffe ebenfalls auf ein starkes AMD Modell. So wie es atm aussieht wird der große Max über 1000 Euro kosten.. ;(

Godmode
2014-10-20, 22:28:31
So wie es atm aussieht wird der große Max über 1000 Euro kosten.. ;(

Kurz vorm Launch der neuen verkaufen und wieder 500 Euro kassieren. :freak:

PHuV
2014-10-21, 09:28:02
Melde das doch bitte mal an Raff und PcGamesHardware. Die können das bestimmt genauer untersuchen.

robbitop
2014-10-21, 11:32:56
Habe Raff schon am Wochenende eine PN geschrieben. Bisher keine Antwort.

Godmode
2014-10-21, 21:27:58
Nein. TXAA, G-Sync und DSR. Ohne Verbindung.
Die SLI Brücke ist halt von 2004 und überträgt 1 GiB/s.

TXAA und DSR erzeugen ein n-faches des normalen Framebufffertraffics und "passen" da nicht mehr rein. Die Brücke stammt eben noch aus Zeiten, bei denen 1600p @ 60fps das absolut maximal denkbare war. Mehr geht nicht.

DSR ver-n-facht aber. Weil man eben in n facher Auflösung rendern muss und am Ende erst downsampelt. Also müssen Bilder mit bis zu 4x 3840x2160 übertragen werden können. Geht also nur über PCIe.

TXAA hat eine temporale Komponente. Also muss man nicht nur den Colorbuffer übertragen sondern auch die Subpixel. Je nach Subpixelanzahl ver-n-facht sich auch dort der Bandbreitenbedarf.

Bei G-Sync weiß ich nicht warum das per se über PCIe läuft. Vieleicht war die Schnittstelle für eine dynamische Abtastfrequenz einfach nicht ausgelegt. Wer weiß?

AMD hat ja bereits CF auf PCIe umgelegt. NV tut dies nun auch immer mehr. Mit 2x PCIe3.0 16x ist ja auch alles in Ordnung. Bei 8x Lanes gibt es leichte Limits. Das sind bis zu 10 %. (grestorns Messungen). Bei PCIe 2.0 8x bricht es um so mehr ein.

Ist extrem abhängig von der Framerate (und Auflösung!). Je höher die Framerate (und Auflösung), desto höher der Bandbreitenbedarf. Und natürlich hängt es auch davon ab, wie hoch die Geometrielast der jeweiligen Szene ist.

Wir konnten in Spielen diese Flaschenhälse allerdings messen. (Shadows of Mordor 2).

Ich weiß nicht, inwiefern AMD beim neuen DMA Crossfire die Zugriffe oder Übertragungsprotokolle vielleicht schon darauf optimiert worden sind. Dort müsste man mal die Skalierung nachmessen. (idealerweise in 1440p oder 4k @60 fps -> PCIe 3.0 vs 2.0 vs 1.0)

Skylake bringt PCIe 4.0 - das sollte spätestens dann für die So1055 Plattform das Problem lösen. Vielleicht nutzt NV aber auch mal NVLINK für sowas. Wer weiß? :)


Danke für die Umfassende Antwort. Das sollte man also ab jetzt immer im Hinterkopf behalten. Wenn man SLI verwendet, einfach ein 2011v3 Board nehmen. Ein Beitrag auf der Hauptseite wäre hier sicher angebracht.

4Fighting
2014-10-22, 09:01:32
NV tut dies nun auch immer mehr. Mit 2x PCIe3.0 16x ist ja auch alles in Ordnung. Bei 8x Lanes gibt es leichte Limits. Das sind bis zu 10 %. (grestorns Messungen). Bei PCIe 2.0 8x bricht es um so mehr ein.



gibt es denn dazu benchmarks? ich habe bisher keine gefunden im thread.

Das PCIE 1.1 maßlos überfordert ist, ist ja kein Wunder:)

Grestorn
2014-10-22, 09:33:35
gibt es denn dazu benchmarks? ich habe bisher keine gefunden im thread.

Mein Monsterpostings mit den Benchmarks ist ja auch leicht zu übersehen :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393554#post10393554

und

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393760#post10393760

4Fighting
2014-10-22, 09:38:12
Mein Monsterpostings mit den Benchmarks ist ja auch leicht zu übersehen :)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393554#post10393554

und

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10393760#post10393760

deinen Post hab ich schon gefunden, aber da waren ja nur pcie 1 vs pcie 3 enthalten (danke auch von meiner Stelle für die Benchs).

Der PCIE 2 Vergleichs-Bench gehört zu diesem Wert?
Swift 120Hz PCIE 3 an VSync aus 27 99

Grestorn
2014-10-22, 09:47:24
Ja genau. das ist der selbe Test nur mit PCIe3.

robbitop
2014-10-22, 13:41:07
Ich scheitere im Moment an meinem Schweinehund. :D

Ich habe keine Lust, das Wasser ablaufen zu lassen und dann die Karten einzeln kreuzweise in Slot 2 und 5 zu testen und dann die defekte Komponente einzuschicken und dann wieder alles zu verschlauchen... und ach... :(
Wakü ist manchmal auch plöt. Und zwar mit "p". :D

Meint ihr, dass es zum Testen genügt die FullCoverkühler trocken drauf zu lassen und einfach nur GPU-Z zu starten um zu schauen, wieviele Lanes aktiv sind?

Ich hatte einmal vergessen, die Pumpe anzuschließen und konnte sogar 20 min spielen, bis die Kiste abgestürzt ist. :D

Ansonsten müsste ich auf beide Karten und CPU nochmal die Luküs drauffriemeln um sie anschließend wieder abzufriemeln... meh

Godmode
2014-10-22, 13:43:03
Ich scheitere im Moment an meinem Schweinehund. :D

Ich habe keine Lust, das Wasser ablaufen zu lassen und dann die Karten einzeln kreuzweise in Slot 2 und 5 zu testen und dann die defekte Komponente einzuschicken und dann wieder alles zu verschlauchen... und ach... :(
Wakü ist manchmal auch plöt. Und zwar mit "p". :D

Meint ihr, dass es zum Testen genügt die FullCoverkühler trocken drauf zu lassen und einfach nur GPU-Z zu starten um zu schauen, wieviele Lanes aktiv sind?

Ich hatte einmal vergessen, die Pumpe anzuschließen und konnte sogar 20 min spielen, bis die Kiste abgestürzt ist. :D

Ansonsten müsste ich auf beide Karten und CPU nochmal die Luküs drauffriemeln um sie anschließend wieder abzufriemeln... meh

Darum überall Schnellkuppler, auch wenn sie sehr teuer sind.

Ja ich denke wenn du nur GPUz startest wird sich die GPU sicher nicht so extrem aufheizen. Außerdem hat sie ja einen internen Schutz, falls es doch passieren sollte.

4Fighting
2014-10-22, 13:46:55
anderes Bios bringt nix für Karte #1?

robbitop
2014-10-22, 14:23:13
Ich werde mir auf jeden Fall Schnellkupplungen kaufen.

1. Könnt ihr welche empfehlen? (gern mit Link)
2. wo empfehlt ihr mir eine Schnellupplung? Nur bei den GPUs?

anderes Bios bringt nix für Karte #1?
Meinst du Grafikkarten BIOS?

Würde ich unlogisch finden. Das BIOS beider Karten ist doch in diesem Thread als identisch eingestuft worden und es sind keine PCIe relevanten Änderungen gemacht worden. Oder was meinst du? :)

4Fighting
2014-10-22, 14:40:02
Ich werde mir auf jeden Fall Schnellkupplungen kaufen.

1. Könnt ihr welche empfehlen? (gern mit Link)
2. wo empfehlt ihr mir eine Schnellupplung? Nur bei den GPUs?


Meinst du Grafikkarten BIOS?

Würde ich unlogisch finden. Das BIOS beider Karten ist doch in diesem Thread als identisch eingestuft worden und es sind keine PCIe relevanten Änderungen gemacht worden. Oder was meinst du? :)

1. ich nutze die QD3 von Koolance. Relativ preiswert und stören nicht wirklich den Durchfluss
2. das ist wohl jedem selbst überlassen. Du brauchst natürlich noch genügend "Spielraum" damit du die Dinger abziehen kannst (das kostet zwar nicht viel Kraft, aber du brauchst eben schon einen guten Zugriff und Halt)

Ja eigentlich grafikkarten Bios. Versuch macht klug :)

Irgendwie finde ich den Hardwaredefekt auf gpu-Seite auch eher unwahrscheinlich (was nicht heißen soll, das es ausgeschlossen ist)...Ggf. ist ja eher was beim Köpfen der CPU schief gegangen, da doch der PCIe-Controller auf der CPU sitzt oder?

Godmode
2014-10-22, 15:23:44
Ja, kann Koolance QD3 auch empfehlen. Du musst beim Kauf darauf achten was du nimmst. Es gibt welche mit G 1/4" Gewinde und welche mit Schlauchanschluss. Ich habe beim Radi die mit Gewinde genommen. Beim CPU Kühler könnte ich mir auch vorstellen, das die mit Gewinde besser wären. Da ich alles sowieso neu verschlauche, habe ich mir das noch nicht ganz durchgedacht.

DaTraS
2014-10-22, 16:24:22
Die Koolance QD3 sind das non-plus-ultra was sowohl Durchfluss, Qualität als auch Handling angeht! Zumindest als ich mich zuletzt mit WaKü beschäfftigt hatte ^^

Damals gabs die schwarzen noch nicht.

Mysterion
2014-10-23, 02:45:45
Hi Leute,

leider musste ich ebenfalls feststellen, dass DSR in Kombination mit G-Sync und SLI nicht funktioniert. Deaktiviere ich SLI erscheint die Option für DSR im Treiber. Auf meinem alten Acer 1080p geht DSR auch mit SLI, auf dem G-Sync Monitor funktioniert es nur bei deaktiviertem SLI. Es hilft nicht G-Sync auszuschalten.

robbitop's These und die Diskussion bezüglich G-Sync und PCIe lanes/PLX finde ich sehr interessant. Da ich selbst ein Mainboard mit PLX Chip, SLI und einen G-Sync Monitor besitze, habe ich beschlossen ein paar Benchmarks durchzuführen und zu sehen, was Sache ist.

Folgende Hardware wurde verwendet:

MSI Z87 XPower
i7-4770k
2x GTX 780
16GB 1600 RAM
512GB Crucial MX100

Ein paar Worte zu der Wahl der Einstellungen:

Zum Testen wurde der in Tomb Raider integrierte Benchmark benutzt. Die Einstellungen waren alle auf "Ultra" und alle möglichen checkboxen angekreuzt. (TressFX, Nachbearbeitung...)

Für die 2160p Tests wurde als AntiAliasing Methode FXAA verwendet, für die 1080p Tests 4xSSAA.

Der G-Sync Monitor besitzt eine native Auflösung von 2160p, hier wurde also weder DS noch DSR verwendet. Auf dem 1080p Monitor wurden die 2160p mittels 4.0x DSR erreicht.

http://s14.directupload.net/images/141023/jw6nqdxv.png (http://www.directupload.net)

Ich denke diese Ergebnisse zeigen, dass man zumindest bei PCIe 3.0 x16 von keiner Limitierung sprechen kann. Die Unterschiede sind wirklich marginal und vermutlich anderen Faktoren geschuldet. Man sieht aber auch, dass G-Sync ~5% Leistung frisst. Das ist nicht die Welt aber kleine Performance Einbüßen sind vorhanden.

Ich denke, dass der Grund weshalb DSR nicht in Verbindung mit SLI/G-Sync funktioniert nicht etwa ein Treiber Problem ist, sondern, dass etwas anderes dahinter steckt. Ich weiß nicht was es ist, aber es gibt da offensichtlich ein Problem, welches Nvidia nicht kommunizieren will. Im Prinzip brauche ich kein DSR, da ich einen 4K Monitor besitze aber 1080p/1440p Nutzer gehen leer aus, bzw. müssen weiterhin händisch DS betreiben. Wobei alte games in 7680x4320 in neuem Glanz erstrahlen :D

Ich bin gerne bereit weitere Benchmarks durchzuführen. Sagt einfach an, was ich testen soll.

Grestorn
2014-10-23, 10:16:44
Schalte mal in Deinem BIOS auf PCIe 1.0 um und wiederhol die Tests.

robbitop
2014-10-23, 10:32:19
Ich war gestern total verdutzt bezüglich DSR. Ich habe aktuell nur eine Titan aktiviert. DSR auf 4x bei 1440p in Witcher 2. Der Unterschied war IMO jetzt nicht so wahnsinnig groß (ist ja auch nur total ordinäres 2x2 OGSSAA im Prinzip) - aber aus butterweichen 70-80fps wurden total zähe 19-26 fps. Und dabei war die Glättung nicht wirklich beeindruckend. Die Performance war aber total tot.

IMO ist DSR nur eine Krücke. Aber was will man machen in Zeiten, in denen SG-MSAA und SG-SSAA immer seltener greifen? :(

Kartenlehrling
2014-10-23, 10:43:37
@Mysterion

die 59.9fps bei 1080p SLI/gsync können nicht stimmten muss ein Messfehler sein, da greift wohl das normal Vsync.

robbitop
2014-10-23, 10:53:57
Ich überlege gerade, mir ein ASRock Z97 Extreme 9 Board mit PLX Switch zu kaufen.

Aber das Mainboard Layout ist wieder total für den Hintern:

http://geizhals.at/p/1125377.jpg

Für 2x 16 Lanes muss man PCIe 1 und 4 nehmen.

Denken die Mainboard Leute nie an SLI + Soundkarte?

Der Slot, der für Nicht-Grafik-Erweiterungskarten gedacht ist, ist PCIe3. Also muss man dort entweder wieder einen PCIe Riser Extender nehmen (meh!) oder die Rückseite der Titan ohne RAM Kühlkörper lassen - ein Spalt von 2 mm bleibt zum Blech der Soundblaster ZxR. Da hat man eine schöne Wärmefalle.

Fail.

Warum kann es nicht PCIe3 oder 5 der Erweiterungsslot sein?

Es würde sicher funktionieren, dort die Soundblaster reinzustecken - aber ich gehe jede Wette ein, dass die PCIe GPU Slots dann (mindestens einer von ihnen) auf 8x herunterschalten werden. :(

4Fighting
2014-10-23, 10:59:23
Ich überlege gerade, mir ein ASRock Z97 Extreme 9 Board mit PLX Switch zu kaufen.

Aber das Mainboard Layout ist wieder total für den Hintern:

http://geizhals.at/p/1125377.jpg

Für 2x 16 Lanes muss man PCIe 1 und 4 nehmen.

Denken die Mainboard Leute nie an SLI + Soundkarte?

Der Slot, der für Nicht-Grafik-Erweiterungskarten gedacht ist, ist PCIe3. Also muss man dort entweder wieder einen PCIe Riser Extender nehmen (meh!) oder die Rückseite der Titan ohne RAM Kühlkörper lassen - ein Spalt von 2 mm bleibt zum Blech der Soundblaster ZxR. Da hat man eine schöne Wärmefalle.

Fail.

Warum kann es nicht PCIe3 oder 5 der Erweiterungsslot sein?

Es würde sicher funktionieren, dort die Soundblaster reinzustecken - aber ich gehe jede Wette ein, dass die PCIe GPU Slots dann (mindestens einer von ihnen) auf 8x herunterschalten werden. :(

ich würde dann lieber günstig ein gebrauchtes S2011er System schießen. da fährst du imo deutlich besser als jetzt ein Board noch für 215EUR zu kaufen.

Gast
2014-10-23, 11:16:25
Schalte mal in Deinem BIOS auf PCIe 1.0 um und wiederhol die Tests.

Geht leider nicht. Wenn ich auf 1.0 umschalte werden die Karten trotzdem mit 3.0 x16 angebunden.


@Mysterion

die 59.9fps bei 1080p SLI/gsync können nicht stimmten muss ein Messfehler sein, da greift wohl das normal Vsync.

Wieso? Mein Monitor hat nur 60Hz. V-Sync war bei allen Tests aus.

Ich habe die Benchmarks geupdatet, irgendwie sind die Ergebnisse für "SLI aus/ G-Sync aus" verloren gegangen.

robbitop
2014-10-23, 11:20:09
@4fighting
Naja - mein Board würde ich sicher für 100 € loseisen können. Wären 100 €*Zuzahlung. OK. Aber für so ein undurchdachtes Layout?

Ich habe auch mit dem gedanken gespielt, auf Haswell-E umzusteigen. Aber da hat der kleine Haswell E (für immerhin 340 €!!!) gar nicht genug Lanes! Der hat nur 28x.
2x 16x Lanes gibt es erst ab dem nächst größeren Modelle (40 Lanes). Und das wären nochmal 200 € oben drauf. Meh.

Also macht, wenn man 2x 16 Lanes haben will, nur ein Mainboard mit PLX Switch Sinn.


Ich finde es s sinnlos, dass die Lanes nicht dynamisch verteilt werden können. Warum geht auf bestimmten Slots nur 16x?

Gast
2014-10-23, 11:21:20
Sorry für den Doppelpost aber ich kann leider nicht editieren.

Hier noch mal die vollständigen Ergebnisse:

http://s14.directupload.net/images/141023/khk592qx.png (http://www.directupload.net)

Godmode
2014-10-23, 11:21:28
Der Slot, der für Nicht-Grafik-Erweiterungskarten gedacht ist, ist PCIe3. Also muss man dort entweder wieder einen PCIe Riser Extender nehmen (meh!) oder die Rückseite der Titan ohne RAM Kühlkörper lassen - ein Spalt von 2 mm bleibt zum Blech der Soundblaster ZxR. Da hat man eine schöne Wärmefalle.


Dann verzichte auf die sinnlosen RAM Kühlkörper, warum alles komplizierter machen als es ist? Im Werkszustand sind auch keine Kühler drauf.

Wie schon gesagt, du hättest einfach ein Sockel 2011v3 System kaufen sollen. Bei den Gesamtkosten deines Systems wäre das auch zu verschmerzen gewesen.

robbitop
2014-10-23, 11:25:20
Sorry für den Doppelpost aber ich kann leider nicht editieren.

Hier noch mal die vollständigen Ergebnisse:

http://s14.directupload.net/images/141023/khk592qx.png (http://www.directupload.net)
Und dazu bitte nochmal die Werte mit PCIe 1.0 (im BIOS). :)

Dann verzichte auf die sinnlose RAM Kühlkörper, warum alles komplizierter machen als es ist? Im Werkszustand sind auch keine Kühler drauf.

Wie schon gesagt, du hättest einfach ein Sockel 2011v3 System kaufen sollen. Bei den Gesamtkosten deines Systems wäre das auch zu verschmerzen gewesen.

1. Die RAM Kühler sind mein geringstes Problem. Mit RAM Kühlern passt die Soundkarte nicht hinter die Titan. Ohne RAM Kühler bleibt ein 2mm Spalt zwischen Titan und Soundblaster. Das wird irre heiß. Ich glaube kaum, dass NV so eine "Wärmefalle" mit eingeplant hat.

Ich glaube, dass 99 % der Mainboard Designs nicht auf SLI + Soundkarte ausgelegt sind. :(

2. Ein Sockel 2011v3 System allein hilft mir auch nicht. Ich brauche dann auch eine CPU mit 40 Lanes. Der kleine 6 Core HSW-E hat nur 28 Lanes. Also nur PCIe 8x. Also muss man mindestens den großen HSW-E kaufen. Also zusätzlich zu den sowieso schon deutlich höheren Kosten der So2011v3 Plattform nochmal 200 € nur für die verdammten PCIe Lanes. Irgendwann wird es halt einfach sinnlos. Sorry. :down:
Da macht für SLI eine PLX Switch mehr Sinn.


Ich muss sagen, dass man es als Enthusiast echt schwer hat. Nichts ist sinnvoll aufeinander abgestimmt. Die Komponenten kosten das dreifache und selbst dann nichts als Probleme. :down:

Gast
2014-10-23, 11:27:59
Und dazu bitte nochmal die Werte mit PCIe 1.0 (im BIOS). :)

Hab ich doch eben geschrieben. Es funktioniert leider nicht, wenn ich auf 1.0 umstelle werden die Karten dennoch mit 3.0 x16 angebunden.

robbitop
2014-10-23, 11:34:54
Das ist ja seltsam. Und wenn du auf 2.0 runterschaltest?

Wir müssen zumindest noch eine Vergleichsmessung haben, um die Skalierung zu bewerten.

robbitop
2014-10-23, 11:39:41
So also ich habe mir alle So1055 Boards mit PLX angeschaut. SLI mit Soundkarte geht ohne diesen Wärmespalt nur mit PCIe Extender.

Djinn
2014-10-23, 11:50:25
Kleines Update zum neuen Nvidia-Treiber: die Performance beim 3DMark scheint zurück zu sein. Weiters macht es jetzt auch keinen Unterschied, ob ich am Swift oder am Samsung benche, die Scores sind nahezu identisch. In Klammern die Werte mit dem alten Treiber.

Firestrike: 17798 Punkte (ca. +2500 Punkte)
Firestrike Extreme: 9773 Punkte (ca. +1000 Punkte)
Firestrike Ultra: ca. 5155 Punkte (ca. +600 Punkte)

Gast
2014-10-23, 11:58:42
Das ist ja seltsam. Und wenn du auf 2.0 runterschaltest?

Wir müssen zumindest noch eine Vergleichsmessung haben, um die Skalierung zu bewerten.

Leider geht auch das nicht. Das Board übernimmt die Einstellung nicht. Vielleicht liegt es am PLX switch? Der PCIE 2 geht nicht über den PLX, vielleicht bezieht sich die Funktion nur auf diesen Slot? Bin aber gerade zu faul die Karten auszubauen und das zu testen. Zumal ich dann nur Single GPU testen könnte.

robbitop
2014-10-23, 12:04:10
Das ergibt Sinn (PLX). :)

Godmode
2014-10-23, 13:46:30
Und dazu bitte nochmal die Werte mit PCIe 1.0 (im BIOS). :)



1. Die RAM Kühler sind mein geringstes Problem. Mit RAM Kühlern passt die Soundkarte nicht hinter die Titan. Ohne RAM Kühler bleibt ein 2mm Spalt zwischen Titan und Soundblaster. Das wird irre heiß. Ich glaube kaum, dass NV so eine "Wärmefalle" mit eingeplant hat.

Ich glaube, dass 99 % der Mainboard Designs nicht auf SLI + Soundkarte ausgelegt sind. :(

2. Ein Sockel 2011v3 System allein hilft mir auch nicht. Ich brauche dann auch eine CPU mit 40 Lanes. Der kleine 6 Core HSW-E hat nur 28 Lanes. Also nur PCIe 8x. Also muss man mindestens den großen HSW-E kaufen. Also zusätzlich zu den sowieso schon deutlich höheren Kosten der So2011v3 Plattform nochmal 200 € nur für die verdammten PCIe Lanes. Irgendwann wird es halt einfach sinnlos. Sorry. :down:
Da macht für SLI eine PLX Switch mehr Sinn.


Ich muss sagen, dass man es als Enthusiast echt schwer hat. Nichts ist sinnvoll aufeinander abgestimmt. Die Komponenten kosten das dreifache und selbst dann nichts als Probleme. :down:

@1: He? Du hast doch deine GPUs in der Wakü, warum sollte da was irre heiß werden? Ich hatte 4! Titans ohne Wakü in meinem System. Da war kein Platz mehr zwischen den Karten.

@2: Highend kostet eben viel Geld und da die S2011v3 Plattform neu ist, eben noch etwas mehr. :/

Ein Board mit PLX Chips ist natürlich für dich die billigste und praktischste Variante, aber das weißt du eh selber auch.

akuji13
2014-10-23, 14:58:31
Ich glaube, dass 99 % der Mainboard Designs nicht auf SLI + Soundkarte ausgelegt sind. :(

Das layout der meisten boards ist für den Po.
Die Verteilung der lanes sowieso.

Einerseits will man die Entusiasten ansprechen, andererseits spielen sich Dramen ab wenn man so wie ich versucht 2 iChill Karten auf ein solches board zu kriegen.

Bei meinem Z77 WS geht das noch halbwegs, beim X79 Pro kann man das mit Luftkühlern die 140er Lüfter haben völlig vergessen.

Und selbst wenn man alles auf WaKü umstellt sieht es mit Sound + PhysX Karte dazu ganz schlecht aus.

occ-kh@Mirko
2014-10-23, 15:19:09
Ein Sockel 2011v3 System allein hilft mir auch nicht. Ich brauche dann auch eine CPU mit 40 Lanes. Der kleine 6 Core HSW-E hat nur 28 Lanes. Also nur PCIe 8x. Also muss man mindestens den großen HSW-E kaufen. Also zusätzlich zu den sowieso schon deutlich höheren Kosten der So2011v3 Plattform nochmal 200 € nur für die verdammten PCIe Lanes. Irgendwann wird es halt einfach sinnlos. Sorry. :down:

Ich muss sagen, dass man es als Enthusiast echt schwer hat. Nichts ist sinnvoll aufeinander abgestimmt. Die Komponenten kosten das dreifache und selbst dann nichts als Probleme. :down:
Vielleicht ist man garnicht soviel Entusiast wie man selbst annimmt. Vor allem dann wenn man über Preise nachdenken muss oder will.

Ist wie mit DSR. Wozu? Enthusiasten kaufen einen 4k Monitor. @Wakü ist auch kein Alleinstellungsmerkmal mehr. Hört sich blöd an, ist aber so.

2 Titanen Stück a' für 500 Euro hört sich eher nach logischer Überlegung und sinnvollem Ansatz an, nur soviel zu investieren wie man als notwendig erachtet, als denn nach Enthusiast.

Entschuldigung...;).