PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI: Eine aktuelle Bestandsaufnahme?


Commander Keen
2015-12-08, 19:47:16
Mich würde mal interessieren, inwieweit die Probleme von SLI mittlerweile behoben sind. Ich hatte vor zig Jahren selber mal SLI im Einsatz, u.a. mit einer 7900GX2 :freak:
Es blieb jedoch immer ein "unrundes" Gefühl, sei es durch Frickeln mit dem Profil oder durch die später dank Tombman aufgedeckten Mikroruckler.

Nun ist das schon fast 10 Jahre her, seitdem hat sich doch sicher was getan? Wie ist aktuell der Stand der Dinge in Sachen SLI? Insbesondere interessiert mich natürlich die Sache mit den Mikrorucklern, kann man das mittlerweile in den Griff kriegen oder braucht man konstant max fps @vsync um davon nichts zu merken...?

hellibelli
2015-12-09, 08:10:25
Ich selber nutze derzeit auch SLI. 980 TI Gespann.
Dazu habe ich noch den AcerX34 der auch die Gsync Technologie mit am Board hat.
Diese hilft zwar nicht gegen die Microruckler, aber ich merke bzw. spüre diese eh nicht. Bin da entweder unempfindlich oder Sie sind so "micro" dass man Sie gar nicht mehr wahrnimmt.

Das größere Problem derzeit sehe ich auch ganz woanders. Die fehlende bzw. sehr schlechte Unterstützung von SLI. Games wie Batman Arkham Knight, Just Cause 3, Star Craft 2 usw.. unterstützen z.b. gar kein Sli.

Dann gibt es noch das neue Assasins Creed Syndicate, welches zwar SLI unterstützt aber das Scaling ist wirklich schlecht. Gefühlte 6-8fps mehr. Soll zwar noch ein Patch kommen, allerdings hatte man das auch bei Batman vor.

Aber es gibt ja nicht nur Schatten: Spiele wie The Witcher 3, Assasins Creed Unity, GTA 5 unterstützen z.b. recht gut SLI.

Das gefrickel mit den Bits ist ja nicht wirklich so mühsam. Dafür gibt es ja hier zum Glück ein paar klasse Leute, die im extra Thread dafür eigentlich alles vorgeben was man im Inspector einstellen muss.

Im Grunde ist es eine Bauchentscheidung. Wie schaut denn deine Hardware so aus? In welcher Auflösung möchtest du spielen?

Godmode
2015-12-09, 09:12:39
Wenn du dich viel ärgern willst und viel in Foren zu SLI Problemen verbringen willst, dann ist es die richtige Wahl für dich. Ich spreche aus Erfahrung.

Ja wenn es funktioniert wie es soll, ist es eine tolle Sache, leider gibt es viel zu viele wenns.

Warum habe ich kein SLI mehr?

1. 3DVision ging auf meinem Rog Swift immer nur ohne SLI.
2. Auf dem 4K Display gibts mit SLI kein DSR, obwohl man Leistung übrig hätte
3. Auf dem G-Sync Rog Swift gibts mit SLI überhaupt kein DSR, obwohl 2880p geil aussehe und Leistung vorhanden wäre.

Das einzige Einsatzgebiet für SLI ist IMHO noch natives 4K. Wenn du dann noch die sonstigen Probleme wie Stuttering, mehr Inputlag, Kühlung+Lautstärke abziehst, bleibt nicht mehr viel über was für SLI spricht.

4Fighting
2015-12-09, 10:16:27
Das einzige Einsatzgebiet für SLI ist IMHO noch natives 4K. Wenn du dann noch die sonstigen Probleme wie Stuttering, mehr Inputlag, Kühlung+Lautstärke abziehst, bleibt nicht mehr viel über was für SLI spricht.

Was man auch nicht vergessen darf: eine 980ti kann man mit gutem Custom-Kühler und entsprechender Chipgüte auf 1500mhz bringen.

Im SLI verliert man viel OC-Spielraum, d.h. die Leistung wird nicht 2x1500mhz sein, sondern eben "nur" 2x1200/1300

Außer man setzt eben auf eine Wakü;)

Godmode
2015-12-09, 10:24:44
Was man auch nicht vergessen darf: eine 980ti kann man mit gutem Custom-Kühler und entsprechender Chipgüte auf 1500mhz bringen.

Im SLI verliert man viel OC-Spielraum, d.h. die Leistung wird nicht 2x1500mhz sein, sondern eben "nur" 2x1200/1300

Außer man setzt eben auf eine Wakü;)

SLI ohne Wakü ist IMHO nicht sehr empfehlenswert, außer man verwendet DHE Kühler. Wenn einem die Lautstärke egal ist, kann man den DHE auf 80-100% laufen lassen, dann gehen wohl auch mit Luft um die 1400 MHz im SLI.

Commander Keen
2015-12-09, 10:26:40
@all

Danke, gerne mehr ;)

Im Grunde ist es eine Bauchentscheidung. Wie schaut denn deine Hardware so aus? In welcher Auflösung möchtest du spielen?

Ich hab einen Dell UltraSharp U3415W bestellt...also 3440x1440, 21:9

Das entspricht von der Pixelanzahl ungefähr der Hälfte von 4k. Meine Grafikkarte wird zu schwach dafür sein, ich hab aber auch keine Lust jetzt noch eine dicke 980Ti zu kaufen, da ist der Kaufzeitpunkt mEn einfach vorbei. Daher wäre die Überlegung gewesen die Zeit bis zum Erscheinen der neuen Generation mit einer zweiten 960 4GB zu überbrücken. Auf Ati möchte ich eher ungern gehen, bin da etwas biased.

4Fighting
2015-12-09, 10:30:01
SLI ohne Wakü ist IMHO nicht sehr empfehlenswert, außer man verwendet DHE Kühler. Wenn einem die Lautstärke egal ist, kann man den DHE auf 80-100% laufen lassen, dann gehen wohl auch mit Luft um die 1400 MHz im SLI.

Geht imo auch ohne DHE (hatte es damals mit 2xgtx780 ichills). Die GPU Temps waren ok, aber man darf nicht vergessen, dass die gesamte Hitze dann schön im case verteilt wird. CPU Temps gingen entsprechend um 10°C hoch:freak:

HisN
2015-12-09, 10:33:46
Die Grundlagen haben sich nicht geändert, also hat sich auch nix am Ergebnis geändert.
Du bist immer der letzte der einen Patch bekommt, Du bist immer der mit Grafikproblemen und immer mehr AAA Titel kommen erst gar nicht mit SLI Unterstützung raus, von den ganzen Indie und EarlyAccess Sachen ganz zu schweigen.
Ich hab mein Titan Black SLI abgeschafft, vor allem weil meine TitanX UHD relativ gut stemmt ohne die ganzen SLI Probleme, die ja scheinbar immer nur ich habe :-)
Endlich weg davon nach gut 8 Jahren.

AC Unity hat gut mit SLI funktioniert? Halte ich für ein Gerücht.
Patch 1.4 hat das hier produziert.

QE-o3gFxods

hellibelli
2015-12-09, 11:00:47
Ich habe Unity gestern mal installiert und den Prolog gespielt. Dann noch etwas in Paris rumgelaufen und keinerlei flickering gehabt.

Allerdings hatte ich die im Video gezeigten Probleme auch als ich es vor ein paar Monaten mal gezockt hatte . Daher hat es mich gewundert, dass ich diese nicht mehr habe. Aber das Game läuft um einiges besser als Syndicate (wird hoffentlich noch gepatcht) und sieht sogar besser aus.

hellibelli
2015-12-09, 11:15:00
SLI ohne Wakü ist IMHO nicht sehr empfehlenswert, außer man verwendet DHE Kühler. Wenn einem die Lautstärke egal ist, kann man den DHE auf 80-100% laufen lassen, dann gehen wohl auch mit Luft um die 1400 MHz im SLI.


Da mein PC im Nebenraum steht, kann ich die Lüfter der beiden 980 TI gut aufdrehen und habe bei beiden Karten 1468 Mhz stabil am laufen.

Lüfter drehen bei 80% und eine Graka wird um die 80-85 Grad warm. Liegt aber auch daran, dass die Zotacs AMP Extreme Edition ein 3-Slot Design hat. Zwischen den beiden Grakas habe ich noch eine Soundkarte verbaut. Dadurch wird die Abwärme natürlich nicht so gut abgeleitet.

Eine der Grakas hat eine Asic von 78,5% und diese könnte ich im Singlebetrieb auf 1550 MHz stabil übertakten. Dennoch fahre ich mit SLI besser.

Derzeit habe ich das Glück, dass mich Spiele wie Batman (läuft auch ohne Sli + eine Graka als PhysX Karte) sehr gut, ACS, Just Cause 3 eh nicht so interessieren.

Die meisten Spiele kommen ja mit SLI Support. Wie es in der Zukunft aussieht, keine Ahnung. Derzeit sind in kürzester Zeit 2-3 Titel erschienen die kein SLI Support haben. Wenn der Trend so weitergeht, dann halte ich SLI auch für nutzlos. Solange es aber Spiele gibt, die SLI unterstützen, nehme ich gerne ein paar Probleme in Kauf.

Godmode
2015-12-09, 11:18:42
@all

Danke, gerne mehr ;)



Ich hab einen Dell UltraSharp U3415W bestellt...also 3440x1440, 21:9

Das entspricht von der Pixelanzahl ungefähr der Hälfte von 4k. Meine Grafikkarte wird zu schwach dafür sein, ich hab aber auch keine Lust jetzt noch eine dicke 980Ti zu kaufen, da ist der Kaufzeitpunkt mEn einfach vorbei. Daher wäre die Überlegung gewesen die Zeit bis zum Erscheinen der neuen Generation mit einer zweiten 960 4GB zu überbrücken. Auf Ati möchte ich eher ungern gehen, bin da etwas biased.

Also von zwei 960 halte ich überhaupt nichts. Wenn dann kauf dir jetzt noch eine 970/980/980 Ti/Fury/Fury X und verkaufe diese, sobald Pascal/Arctic Islands verfügbar ist.


Derzeit habe ich das Glück, dass mich Spiele wie Batman (läuft auch ohne Sli + eine Graka als PhysX Karte) sehr gut, ACS, Just Cause 3 eh nicht so interessieren.

Die meisten Spiele kommen ja mit SLI Support. Wie es in der Zukunft aussieht, keine Ahnung. Derzeit sind in kürzester Zeit 2-3 Titel erschienen die kein SLI Support haben. Wenn der Trend so weitergeht, dann halte ich SLI auch für nutzlos. Solange es aber Spiele gibt, die SLI unterstützen, nehme ich gerne ein paar Probleme in Kauf.



Bei war es zum Ende hin so, dass ich nur mehr in 10-20% der Fälle SLI nutzen konnte. Zusätzlich habe ich meistens noch sehr viel Zeit damit verbrannt, nach Lösungen zu suchen, wo es aber keine Lösungen gab. Falls die Zukunft mal Multi-GPU@ Interposer bringt, und die GPUs dadurch als eine einzelne GPU im OS erscheinen, bin ich aber sofort wieder an Board. Würde SLI besser funktionieren, hätte ich sofort 4xTitan X inkl. Wakü. Ich bin wirklich bereit Geld auszugeben, aber der Gegenwert muss dann auch stimmen. Mit 4 TX könnte man wohl sogar 4K@120 FPS stemmen, dass wäre richtig geil! Momentan bekommt man mit 4x TX leider nur haufenweise Inputlag, Grafikfehler in Spielen, oder noch schlimmer, überhaupt keine Leistungssteigerung, bzw. sogar Leistungsverlust. Dazu noch ca. 1200W Abwärme. :freak:

hellibelli
2015-12-09, 11:30:46
@all

Danke, gerne mehr ;)



Ich hab einen Dell UltraSharp U3415W bestellt...also 3440x1440, 21:9

Das entspricht von der Pixelanzahl ungefähr der Hälfte von 4k. Meine Grafikkarte wird zu schwach dafür sein, ich hab aber auch keine Lust jetzt noch eine dicke 980Ti zu kaufen, da ist der Kaufzeitpunkt mEn einfach vorbei. Daher wäre die Überlegung gewesen die Zeit bis zum Erscheinen der neuen Generation mit einer zweiten 960 4GB zu überbrücken. Auf Ati möchte ich eher ungern gehen, bin da etwas biased.

Ich nutze die gleiche Auflösung mit dem AcerX34. Daher kann ich schon recht gut sagen, dass du mit einer 980TI schon recht gut klar kommst. Allerdings musst du davon ausgehen, dass du dann in einigen Games wie Witcher3, GTA5 die Details wie z.b Hairworks oder Schatteneinstellungen nach unten korrigieren musst. Das ist auch der Grund, warum ich mir ein SLI geholt habe. Ich mag es nicht, nicht die ganzen technischen Möglichkeiten im Spiel nutzen zu können. Daher habe ich ja auch einen PC und keine Konsole. Falls du aber gut damit leben kannst hier und da ein paar Details runter zu regeln, würde ich dir auch eine 980 GTX oder 980 TI empfehlen.

Mit 2x 960 GTX holst du dir wie schon oben genannt die ganzen Nachteile von SLI ins haus und hast von der Leistung her ca. so viel wie mit einer 980 GTX

Commander Keen
2015-12-09, 12:12:25
Also von zwei 960 halte ich überhaupt nichts. Wenn dann kauf dir jetzt noch eine 970/980/980 Ti/Fury/Fury X und verkaufe diese, sobald Pascal/Arctic Islands verfügbar ist.

Ja, ich weiß, dass es suboptimal ist SLI mit zwei Midrange-Karten zu nutzen. Normalerweise lohnt das nur mit den dicksten Karten. Es wäre ja auch nur eine relativ preisgünstige Übergangslösung, mehr nicht.

Natürlich ist mir eine dicke Karte unterm Strich auch lieber, aber ich sehe irgendwo nicht ein jetzt noch ein Dickschiff zu kaufen, wenn in einem halben Jahr die nächste Generation da ist und ich in dieser doch sehr kurzen Zeit einen massiven Wertverlust habe. Dicke High-End Karte - Ja, gerne - aber wenn dann gleich zum Release bzw. kurz danach, sobald sich die Preise eingependelt haben.

Troyan
2015-12-09, 12:16:44
Naja, 2 GTX960 Karten mit 4GB kosten 400€. Eine ~60% (http://www.hardware.fr/articles/945-23/recapitulatif-performances.html) schnellere GTX970 bekommt man für 50€ weniger.

Lohnt sich nicht. Und wenn du keinen Neupreis bezahlen willst, bekommt man eine GTX970 bestimmt auch deutlich günstiger auf einen Marktplatz.

aufkrawall
2015-12-09, 12:53:57
Mit SLI/AFR gibt es kein TAA, die beste AA-Neuerung seit langer Zeit.
Und wenn eine Anwendung wider Erwarten allgemein doch mal gut läuft, kommt bestimmt ein Patch, der die AFR-Kompatibilität kaputt macht und die Entwickler kümmern sich dann nicht mehr drum.

Wenn man sich der Tatsachen bewusst ist, muss man imho mittlerweile echt einen gehörigen Dachschaden oder viel zu viel Geld haben, noch SLI/Crossfire zu machen.

Commander Keen
2015-12-09, 13:39:59
Naja, ich warte jetzt erstmal ab bis der Monitor da ist. Evtl. kann ich mich ja auch ein halbes Jahr bei fordernden Games mit einer niedrigeren Auflösung zufrieden geben, wenn die Skalierung passt (sollte sie eigentlich, aber nativ ist natürlich immer viel besser).

hellibelli
2015-12-09, 15:30:35
Mit SLI/AFR gibt es kein TAA, die beste AA-Neuerung seit langer Zeit.
Und wenn eine Anwendung wider Erwarten allgemein doch mal gut läuft, kommt bestimmt ein Patch, der die AFR-Kompatibilität kaputt macht und die Entwickler kümmern sich dann nicht mehr drum.

Wenn man sich der Tatsachen bewusst ist, muss man imho mittlerweile echt einen gehörigen Dachschaden oder viel zu viel Geld haben, noch SLI/Crossfire zu machen.


Kann ich so nicht sagen. Ich bin recht zufrieden mit Sli. Ich habe mich vorher auch informiert und auch damals schon öfters Sli im Einsatz gehabt. Mich immer wieder darüber aufgeregt aber auch immer wieder Settings fahren können, die nur mit Sli möglich sind.

Ein Patch der die SLI-Kompatibilität zerstört, kenne ich jetzt nur Star Craft 2. Aber es ist schon recht bescheiden, dass die Hersteller bzw. Softwareschmieden oder auch Nvidia Sli derzeit kaum noch Beachtung schenken.

Was aber auch unbestritten ist, dass man Spiele wie Witcher 3, GTA 5, Assasins Creed Unity und noch ein paar weitere in einer Auflösung von 3440x1440 in vollen Details und vielleicht noch ein paar Mods nur mit Sli noch flüssig (für mich wahrgenommen) spielen kann.

Und das möchte ich jetzt und nicht erst in einem halben oder 3/4 Jahr.

HisN
2015-12-09, 16:26:41
Aber das Problem ist immer das gleiche, egal zu welchem Zeitpunkt.
Es wird immer Software/Settings geben, die die schnellste Single GPU überfordern.
Das SLI Problem ist auch immer das gleiche, die Patches die SLI funktionieren lassen kommen sehr oft auch erst 6 Monate nach Release.
Du sagst also Software XXX heute und nicht erst später, aber genau das gleiche sage ich von SLI Patches oder neuen Graka Generationen. Das ist ein ewiger, nicht zu durchbrechender und nicht lösbarer Kreis.

SLIKnight
2015-12-09, 16:27:15
Was man auch nicht vergessen darf: eine 980ti kann man mit gutem Custom-Kühler und entsprechender Chipgüte auf 1500mhz bringen.

Im SLI verliert man viel OC-Spielraum, d.h. die Leistung wird nicht 2x1500mhz sein, sondern eben "nur" 2x1200/1300

Außer man setzt eben auf eine Wakü;)

This is not exactly true, if you have a decent cabinet and high-end custom GPU cooler.
My Zotac 980 Ti AMP! Extreme cards easily maintain 1400-1450MHz without any issues, even in SLI mode.

And even in those pesky games without SLI support (Risen 3, Arkham Knight etc.) I still get one very powerful card, which is sufficient with 4K+FXAA/SMAA in most cases.
Honestly that flexibility is worth paying for IMO.

And we should still remember, that most demanding games today need SLI at 4K and have good scaling.
Witcher 3, GTA V, Dragon Age Inquisition, Watch Dogs, Star Wars: Battlefront just to mention a few.

aufkrawall
2015-12-09, 16:34:49
Kann ich so nicht sagen. Ich bin recht zufrieden mit Sli. Ich habe mich vorher auch informiert und auch damals schon öfters Sli im Einsatz gehabt. Mich immer wieder darüber aufgeregt aber auch immer wieder Settings fahren können, die nur mit Sli möglich sind.

Die höheren fps braucht man aber auch, weil der Input Lag bei fps um die 40 schon mit zwei GPUs häufig unerträglich ist, während man mit sGPU mit den gleichen fps noch problemlos zocken könnte.

Ich fasse mal schnell alles zusammen:
Vorteile:
-höhere fps, wenn das Profil sauber funktioniert

Nachteile:
-kein TAA
-höherer Input Lag
-schlechtere Frametimes (kann je nach Spiel auch nur mal stellenweise auftreten und dann einem den Spaß verhageln), auch Streaming-Ruckler werden schlimmer
-häufiger Grafikfehler durch Treiberbugs
-etwas höherer VRAM-Bedarf durch AFR
-Halbierung der PCIe-Lanes
-häufig gar nicht oder stellenweise nicht skalierende Performance
-häufig Grafikfehler durch AFR-Inkompatibilitäten des Spiels
-häufig Warten auf Patches nötig
-andere Patches können AFR-Kompatibilität brechen
-ohne WK Luftabfuhr problematisch oder lauter DHE-Müll
-höherer Stromverbrauch im Idle
-teilweise schlechte Kompatibilität mit anderen NV-Features, z.B. können sich AA Custom Bits negativ aufs Framepacing und damit Frametimes auswirken, Frametime-Probleme mit adaptivem Vsync usw.
-GPU-PhysX verschlechtert Skalierung

Kurz: Es suckt einfach derbe.

HisN
2015-12-09, 16:42:11
, Dragon Age Inquisition, Watch Dogs, Star Wars: Battlefront just to mention a few.


yBcOBhTEmZY

Dragon Age? Sure?
First Flickering, Last no Scaling in crucial places. And now Im through, without SLI and dont need a working Patch.
Thats exact what makes me drop SLI. It starts working when there is no need anymore.

SLIKnight
2015-12-09, 16:45:21
I don't get anywhere near as bad flickering as in that video.
Only a little ground texture flickering in certain cutscenes.

And near perfect scaling in most scenes.
3840x2400, 4xMSAA.

This severe flickering issue was fixed long ago in Patch 1.06 (http://blog.bioware.com/2015/03/02/dragon-age-inquisition-patch-5-notes/).

HisN
2015-12-09, 16:49:13
<----- very aggressive about Flickering, even if it is only little :-)
This was Release Version, they Patched it later a bit.
Maybe Kepler worse than Maxwell?

SLIKnight
2015-12-09, 16:51:05
Is your game patched to the latest version?
I see absolutely no flickering in actual gameplay.

Only a little in cutscenes on occasion.

HisN
2015-12-09, 16:52:57
Release Version, Im through the Game, NOW there is no need for patching anymore.
Thats exact the SLI Problem for Release Gamers.

Deisi
2015-12-09, 16:53:12
Aber das war doch schon immer so, dass man auf ein funktionierendes Profil mit Game Support angewiesen ist. IMHO macht SLI durchaus Sinn, aber man sollte sich eben den Nachteilen bewusst sein.

aufkrawall
2015-12-09, 16:56:05
Es macht dann Sinn, wenn man sich in der Situation befindet, dass das Geld auf dem Konto einfach nicht weniger werden will, und einen die Leere im Case sehr bedrückt.
Zwei langsamere Karten als Ersatz für eine schnellere sind angsichts des krassen Überwiegens der Nachteile vollkommen sinnfrei.

SLIKnight
2015-12-09, 16:59:01
Release Version, Im through the Game, NOW there is no need for patching anymore.
Thats exact the SLI Problem for Release Gamers.

Honestly I can't really follow this logic.
Many games today are utterly broken on release, not only regarding SLI.

BF4 was a terrible disaster on release with crashes and issues everywhere (not SLI related), but people still play this.
SLI users sometimes just need to have a little more patience in some cases.

Personally I love playing through a nice and finished game, instead of rushing out to buy some buggy, new mess.

hellibelli
2015-12-09, 16:59:46
Dragon Age läuft bei mir auch sauber. Bin gestern aber auch nur zum testen in Heaven rumgelaufen. Da neu installiert wurde.

Kann sich später in anderen Gebieten ändern, oder ist das wie oben im Video überall so. Dann ist es gepatcht worden. Das flackern habe ich nicht mehr. Genau wie bei ACU.

Deisi
2015-12-09, 17:00:02
Es macht dann Sinn, wenn man sich in der Situation befindet, dass das Geld auf dem Konto einfach nicht weniger werden will, und einen die Leere im Case sehr bedrückt.
Zwei langsamere Karten als Ersatz für eine schnellere sind angsichts des krassen Überwiegens der Nachteile vollkommen sinnfrei.

Klar nur TI oder TX im SLI. Alles andere wäre schon wegen dem VRAM murks.

HarryHirsch
2015-12-09, 17:01:16
Es macht dann Sinn, wenn man sich in der Situation befindet, dass das Geld auf dem Konto einfach nicht weniger werden will, und einen die Leere im Case sehr bedrückt.
Zwei langsamere Karten als Ersatz für eine schnellere sind angsichts des krassen Überwiegens der Nachteile vollkommen sinnfrei.

wasn mit deinem acc passiert?
volle zustimmung, mit derzeitiger technik sind 2 oder mehr karten für den po.

HisN
2015-12-09, 17:15:52
Personally I love playing through a nice and finished game, instead of rushing out to buy some buggy, new mess.
More than 100h is no rush. :-)
I can follow your Argumentation, but I like to have Games at Release and SLI is just double the Problem :-)

Blaire
2015-12-09, 17:23:35
Aber das Problem ist immer das gleiche, egal zu welchem Zeitpunkt.
Es wird immer Software/Settings geben, die die schnellste Single GPU überfordern.
Das SLI Problem ist auch immer das gleiche, die Patches die SLI funktionieren lassen kommen sehr oft auch erst 6 Monate nach Release.

Richtig, wie immer viele Vorbehalte, ohne wirkliche Argumente oder Beispiele zu nennen. :) Das Games unfertig erscheinen ist jedoch ein generelles Problem, das SLI davon nicht verschont bleibt, dann auch nur die logische Konsequenz.
Fakt ist auch, das der Großteil an Games aus 2015 problemlos mit SLI funktioniert und ein paar wenige Titel immer noch beim Entwickler reifen müssen, bevor NVIDIA ein SLI Profile freigeben kann. Insgesamt ist die Situation jedoch akzeptabel, wer allerdings meint das jedes Game über SLI Support verfügen müsse, der dürfte wohl nicht zufrieden damit werden, das war früher aber auch nicht anders als heute...
Games mit SLI-Support:
Act of Aggression
Dirt Rally
METAL GEAR SOLID V: The Phantom Pain
Project CARS
Killing Floor 2
Evolve
Trine 3
Star Wars Battlefront
The Witcher 3: Wild Hunt
Grand Theft Auto V
Battlefield: Hardline
Dying Light
Mad Max
Dark Souls II: Scholar of the First Sin
Fallout 4
Tom Clancy's Rainbow Six Siege
Call of Duty: Black Ops III
Dirty Bomb
Triad Wars-Beta
The Talos Principle
War Thunder
World of Warships

HisN
2015-12-09, 17:51:33
Möchtest Du jetzt Batman, Rainbow Six hören oder Just Cause 3?
Ark?

Was meinst Du? Games die die Hardware überfordern oder die nicht mit SLI laufen?
Die Sache ist doch die .. wenn jemand den Thread in 12 Monaten wieder auskramt, dann heißt es "die ollen Kamellen", heute hat doch jeder AAA-Titel SLI Unterstützung. Genau so wie Du jetzt sagst "die Argumentation gibt es schon seit Jahren".

aufkrawall
2015-12-09, 18:08:22
Und als ob es mit einigen der Spielen in der Liste keine schwerwiegenden Probleme mit AFR gegeben hätte.
Die meisten Titel kann man auch am Day 1 schon relativ problemlos spielen. imho ist das Warten auf AFR-Patches eine Selbstbestrafung.

hellibelli
2015-12-09, 19:20:37
Also ich denke, dass jeder der Sli nutzt schon ganz genau weiss, welche Vor- und Nachteile man dadurch hat.

Der TS hier, hat die Informationen die er benötigt. Das Sli für einige gut für die anderen schlecht ist, ist doch auch ok. Es gibt Argumente dafür aber auch dagegen, die hier alle genannt wurden.

Ich möchte derzeit nicht auf Sli verzichten, da ich Witcher 3, GTA 5 und ACU spiele. Und wenn ich damit durch bin, gibt es für die neuen aktuellen Games wie ACS evtl. auch einen SLI Patch. Und wenn nicht, ja gut dann muss ich es halt ohne Sli spielen.

Ist ja nicht so, dass man keine Kompromisse eingehen kann. Auch wenn ich das in den Qualitätseinstellungen nur sehr ungerne mache. Aber bevor ich es dann gar nicht spiele.....

Commander Keen
2015-12-09, 19:51:46
Fakt ist, ich brauche mehr Power für den Monitor. Dumm ist, dass gerade mEn ein ungünstiger Zeitpunkt ist um sich jetzt noch ein Topmodell von nvidia zu kaufen. Mit einer SLI-Lösung basierend auf meiner jetztigen Karte würde ich aber wohl auch nicht wirklich glücklich werden.
Für diesen Monat ist mein Budget mit dem Dell eh schon gesprengt, evtl. tut sich ja aber mit dem neuen Jahr eine Gelegenheit am Gebrauchtmarkt auf, ansonsten werde ich das ganze wohl oder übel aussitzen, bis es die neuen Karten gibt.

Ich bin halt nicht bereit 300 € oder mehr Wertverlust innerhalb eines halben Jahres hinzunehmen, wenn ich mir jetzt eine 980/Ti hole...
Beim Monitor sehe ich das anders, der darf ruhig was kosten, den nutze ich vmtl. 7-8 Jahre (solange habe ich jedenfalls meinen jetztigen Samsung 24", 16:10).

Rebell
2015-12-09, 20:18:57
Ich hatte auch zwei 970 im SLI, war davon anfangs eigentlich recht angetan, weil ich ältere Spiele nachgeholt habe in denen SLI wirklich gut funktioniert und skaliert hat.

Danach dann konnte ich gefühlt 75% der neuen Spiele vergessen. Keine Skalierung oder andere Probleme, noch dazu das ständige Gesuche nach den Bits wenn es wieder mal kein Profil gibt.

Mittlerweile hab ich die zweite längst wieder verkauft und nur noch eine im Einsatz. Wenn ich spielen will, dann spiele ich, will entspannt sein und mich nicht mit anderen Sachen rumärgern. Eine Grafikkarte macht das Leben wesentlich leichter :)

Blaire
2015-12-09, 20:34:07
Möchtest Du jetzt Batman, Rainbow Six hören oder Just Cause 3?
Ark?

Was meinst Du? Games die die Hardware überfordern oder die nicht mit SLI laufen?
Die Sache ist doch die .. wenn jemand den Thread in 12 Monaten wieder auskramt, dann heißt es "die ollen Kamellen", heute hat doch jeder AAA-Titel SLI Unterstützung. Genau so wie Du jetzt sagst "die Argumentation gibt es schon seit Jahren".

Ich verstehe dein Problem allerdings auch nicht? Du postest irgendwelche SLI-Filmchens mit Problemen welche seit Monaten bereits Geschichte sind und versuchst daraus genau was abzuleiten? Macht sehr wenig Sinn wie ich finde. :) Batman AK kannst du die zweite Grafikkarte immerhin noch für GPU-PhysX zwecktentfremden. Ich geb ja zu, das dies nur ein schwacher Trost ist. Rainbox Six Siege funktioniert, Just Cause 3 liegt am Entwickler und aktuell noch in der Schwebe. ARK sieht es bezüglich SLI Support auch nicht so schlecht aus. Developer Relations sind das A und O und da braucht man sich zumindest bei NVIDIA wenig Sorgen zu machen, aber Garantien gibts nicht, weder für SLI, noch VR/3D-Support, noch für NVIDIA Surround oder viele weiterer interessanter Features.

HisN
2015-12-09, 20:38:03
Du verstehst mich nicht?
Zukunft=Vergangenheit.
Das Probleme mit der Zeit gelöst werden, bedeutet ja nicht das es keine Probleme gibt.
Dragon Age z.b.
Ich freu mich sehr für die Budget-Käufer wenn es jetzt nur noch selten Flickering gibt. Aber zum Release (als ich es gespielt habe), da waren die Probleme präsent.
Jetzt muss man halt für sich entscheiden ob man das möchte, oder ob man sowieso nur aus der Pyramide oder Humble kauft, wo das ganze entspannter zugeht.

Novum
2015-12-09, 20:52:02
Ich hab's schon im Just-Cause-3-Thread gesagt, fuer mich ist SLI tot. Es wird mit DX12/Vulkan zu viel Aufwand fuer eine eh schon geringe Zielgruppe einer Nischenplatform. Die Zeit kann man anders investieren.

SLIKnight
2015-12-10, 12:31:16
Sure, or we can just give up completely and buy a PS4 :rolleyes:
This is still PC gaming, and developments and improvements are to be expected after game release.

Just think about how much games like Skyrim and ArmA III for example has been changed since launch, i.e. modding and better CPU optimization and much more.
I suppose those games aren't worth replaying either?

I fully agree, that SLI support should be better on release in certain bigger AAA titles.
But this is mostly the developers fault, and not because of any limitations or general issues with AFR as such.

HisN
2015-12-10, 12:44:56
Arma III is a very good example.
You don't need SLI for it, because even in 4K it is very CPU-Limited :-)
And within the CPU-Limit SLI will not scale.

http://abload.de/thumb/arma3_2015_09_05_22_5nxjr0.jpg (http://abload.de/image.php?img=arma3_2015_09_05_22_5nxjr0.jpg)
http://abload.de/thumb/arma3_2014_11_09_15_3pcup9.png (http://abload.de/image.php?img=arma3_2014_11_09_15_3pcup9.png)

And still worth playing.

SLIKnight
2015-12-10, 12:49:25
Turn up ingame resolution scaling, and it quickly becomes very GPU limited :D

aufkrawall
2015-12-10, 17:53:50
But this is mostly the developers fault
It's nobody's fault. AFR simply is not an elegant technique and it brings a ton of drawbacks for devs who want to make use of modern rendering.
UE4 dropped it completely, others will follow or already have.

4Fighting
2015-12-10, 18:53:16
It's nobody's fault. AFR simply is not an elegant technique and it brings a ton of drawbacks for devs who want to make use of modern rendering.


Since I'm not that familiar with the technical differences and requirements, but this also means that adapting SLI for DX9 was easier than nowadays with dx11, right?

aufkrawall
2015-12-10, 19:00:12
Ich vermute schon, dass man das so sagen kann. Ich habe Epic so verstanden, dass sie mehrere Effekte nutzen, die auf vorangegangene Frames angewiesen sind. Bei D3D9 ist dieser Zugriff wohl nur sehr eingeschränkt möglich (zumindest ist das mit ReShade so).
Aber wahrscheinlich gibts auch noch zig andere Gründe. Es ist ja schon sehr auffällig, dass man mit DX11-Spielen mit den Custom Bits im NV-Treiber weit weniger Erfolg hat als bei DX9. Zumindest war das damals meiner Erfahrung nach so. Evtl. wird es mit den immer komplexer werdenden Abhängigkeiten einfach zu aufwendig, Treiber-Hacks anzubieten.

4Fighting
2015-12-10, 19:05:03
Es ist ja schon sehr auffällig, dass man mit DX11-Spielen mit den Custom Bits im NV-Treiber weit weniger Erfolg hat als bei DX9. Zumindest war das damals meiner Erfahrung nach so. Evtl. wird es mit den immer komplexer werdenden Abhängigkeiten einfach zu aufwendig, Treiber-Hacks anzubieten.

Darauf wollte ich auch ungefähr hinaus. Die Auswahl an Bits sowohl für AA wie auch SLI waren für DX9 riesig.
Für DX10/11 gibt es zwar einige SLI Bits im Vergleich zu DX9, aber ja kaum AA Bits.

aufkrawall
2015-12-10, 19:11:01
Ich meinte das auf AFR bezogen. Bei DX11 kann man zwar auch in einigen Fällen händisch eine gute Skalierung erreichen, das scheint mir aber wesentlich anfälliger als DX9 bezüglich Grafikfehlern gewesen zu sein. Bei DX9 gab es dann häufig noch andere Kombis oder zusätzliche Flags, die etwa das Flackern abstellen konnten.
Bei DX11 scheint mir ohne Update des Spiels eher selten ein brauchbares Ergebnis erzielbar.

Commander Keen
2015-12-10, 21:11:16
My new screen arrived today btw and I have to say: Wow :eek: 21:9 is simply amazing.

Schrotti
2015-12-10, 22:47:06
Gerade in 4K ist SLI doch hilfreich.

Eine Titan X ist zu schwach da schaffen zwei 980er oder wegen meiner auch zwei 980 Ti doch erst anständige fps.

Cubitus
2015-12-10, 23:08:08
Also sogar schon in 3K also in 3440*1440 kann SLI sehr Vorteil haft sein.

Entweder du kannst Witcher 3 mit Ultra,
an die 60 FPS zocken oder du kannst es nicht!

Aber die Funktionalität hat eingebüßt.
In DX9 Zeiten waren 95% der Spiele kompatibel.
Man konnte sehr viel mit alternativen Bits erreichen.

Mit DX10 wurde es schwieriger..
Mit DX11/12 und den ganzen (Post) Effekten sehr schwer und nur noch mit Rücksicht bei der Entwicklung ordentlich zu implementieren.

In Devs Kreisen ist SLI eigl nicht beliebt, weil es die Entwicklung bremsen würde oder angedachte Features gar nicht richtig unterstützt, oder man faule Kompromisse eingehen müsse.. in Dev Blogs zu UE4 gibt es kritische Stimmen..
Zudem, Die UE4 wird mit SLI nicht warm, Blöd da viele Games damit kommen werden..

Die nächste Chance für SLI könnte im VR Bereich liegen.. Wenn VR zum Erfolg wird, kann SLI schon wieder mehr nützlich werden.. SLI-VR..

aufkrawall
2015-12-10, 23:12:31
Wer Wert auf "flüssig" legt, muss Gsync/FreeSync haben.
Damit sind auf einmal auch 40fps relativ flüssig und ausreichend für SP-Spiele, Dank prerenderlimit 1 auch mit niedrigem Lag spielbar.
Da sind AFR-Mikroruckler und -Input Lag Gift.

Cubitus
2015-12-10, 23:20:31
Wer Wert auf "flüssig" legt, muss Gsync/FreeSync haben.
Damit sind auf einmal auch 40fps relativ flüssig und ausreichend für SP-Spiele, Dank prerenderlimit 1 auch mit niedrigem Lag spielbar.
Da sind AFR-Mikroruckler und -Input Lag Gift.

Wäre ein Kompromiss und sicherlich einen Versuch wert.
Aber es ist schon auch von Spiel zu Spiel unterschiedlich.

Und einen 21:9 TFT mit hoher Auflösung + Gsync gibt es noch nicht.. Bzw. Doch gibt es aber nicht mit 3 bzw. 4 K.
Aber dann wird dennoch Leistung benötigt, woher soll diesen denn kommen!?

Novum
2015-12-10, 23:39:38
Sure, or we can just give up completely and buy a PS4 :rolleyes:
This is still PC gaming, and developments and improvements are to be expected after game release.

Just think about how much games like Skyrim and ArmA III for example has been changed since launch, i.e. modding and better CPU optimization and much more.
I suppose those games aren't worth replaying either?

I fully agree, that SLI support should be better on release in certain bigger AAA titles.
But this is mostly the developers fault, and not because of any limitations or general issues with AFR as such.
Like I said, the dev time is better spent on optimization and improvements for 99% of the market, instead of a niche configuration of a niche platform. If NVIDIA wants to pay the dev to do it, fine. Otherwise I don't see any developer caring about it anymore in the future other than that they want to play with it. the work with DX12/Vulkan will just be absurd.

And no, there are problems with AFR that are not solvable like use of temporal data, which is elementary to modern anti aliasing.

SLI bugs are also never a dev problem. DX11 is a SLI agnostic API, if there are bugs, it's ALWAYS the driver. And NVIDIA consistently fails to provide their tools to actually debug the stuff.

Schrotti
2015-12-10, 23:46:07
Ey?

Englisch? Echt jetzt?

Ich hatte in der Schule Russisch und kein Englisch (leider).

Hier die google Übersetzung, die nicht hilfreich ist.

Wie ich schon sagte, wird der Entwickler Zeit besser bei der Optimierung und Verbesserungen für die 99% des Marktes verbracht, statt einer Nische Konfiguration eines Nischenplattform.
Wenn NVIDIA will die Entwickler zahlen, es zu tun, in Ordnung. Ansonsten sehe ich nicht jeder Entwickler die Sorge um es nicht mehr in der anderen, als dass sie mit ihm spielen wollen Zukunft. die Arbeit mit DX12 / Vulkan wird einfach absurd.

Und nein, es gibt Probleme mit AFR, die nicht lösbar, wie Verwendung von Zeitdaten, die Elementarteilchen der modernen Anti-Aliasing ist sind.
Dies kann auch * nie * a dev Problem sein. DX11 ist ein SLI Agnostiker API, wenn es Fehler, es ist immer der Fahrer.

SLIKnight
2015-12-10, 23:47:31
Like I said, the dev time is better spent on optimization and improvements for 99% of the market, instead of a niche configuration of a niche platform. If NVIDIA wants to pay the dev to do it, fine. Otherwise I don't see any developer caring about it anymore in the future other than that they want to play with it. the work with DX12/Vulkan will just be absurd.

And no, there are problems with AFR that are not solvable like use of temporal data, which is elementary to modern anti aliasing.

SLI bugs are also never a dev problem. DX11 is a SLI agnostic API, if there are bugs, it's ALWAYS the driver. And NVIDIA consistently fails to provide their tools to actually debug the stuff.

Honestly I don't really care about all such of speculations about DX12 at this point.
All I know is, that the most graphically demanding games of today needs 2-way SLI at 4K :D

And in regards to temporal AA, this is mostly an issue with PCI-Express bandwidth (e.g. UE4).
In those rare cases, you could just use higher levels of DSR combined with FXAA.
Problem solved.

Blaire
2015-12-11, 00:30:40
In Devs Kreisen ist SLI eigl nicht beliebt, weil es die Entwicklung bremsen würde oder angedachte Features gar nicht richtig unterstützt, oder man faule Kompromisse eingehen müsse.. in Dev Blogs zu UE4 gibt es kritische Stimmen..
Zudem, Die UE4 wird mit SLI nicht warm, Blöd da viele Games damit kommen werden..

Unreal Tournament 2015 Pre-Alpha, Ethan Carter Redux als auch die meisten UE4 Techdemos wie KITE funktionieren ohne Probleme mit SLI wenn die Bandbreite nicht gerade zum limitierenden Faktor wird. :) Alles weitere wird die Zukunft zeigen müssen.

Wer Wert auf "flüssig" legt, muss Gsync/FreeSync haben.
Damit sind auf einmal auch 40fps relativ flüssig und ausreichend für SP-Spiele, Dank prerenderlimit 1 auch mit niedrigem Lag spielbar.
Da sind AFR-Mikroruckler und -Input Lag Gift.

In Games wie Star Wars Battlefront hilft dir das in solchen Frameregionen auch wenig, erst mit 60fps ists richtig smooth und vernünftig zu steuern und die erreichst du unter 4K-Auflösung und maximalen Details nur mit einem SLI-System, für eine Single 980Ti/TitanX momentan eine unlösbare Aufgabe.

Novum
2015-12-11, 01:05:49
Honestly I don't really care about all such of speculations about DX12 at this point.
That's no speculation, it's a fact that developers need to do all the SLI work themselves with the new APIs.

And in regards to temporal AA, this is mostly an issue with PCI-Express bandwidth (e.g. UE4).
Even if this would be a PCI express bandwidth issue (it's not, it's also latency) what is the solution? We don't need twice as much bandwith but orders of magnitude more to solve this problem in general.

In those rare cases, you could just use higher levels of DSR combined with FXAA.
Problem solved.
To have the same quality as temporal AA with FXAA you probably need at least 50% more resolution which will basically take all the power of the added card.

And that's your argument for developers to spent time on this stuff? Like I said, this affects not even 1% of your customer base.

4Fighting
2015-12-11, 09:48:30
All I know is, that the most graphically demanding games of today needs 2-way SLI at 4K :D



I think that nobody really questions the necessity of SLI for demanding games. It's the current (gaming) development that indicates that even if a developer tries to solve an issue with their respective technology partner it's still not possible.

robbitop
2015-12-11, 10:50:43
Ich habe letztes Jahr auch einen Ausflug in mGPU (2x Titans @SLI) gewagt. Ich würde mich schon als Bastler und Enthusiast sehen. Aber es war furchtbar. G-Sync + SLI + DSR? Geht bis heute nicht.
Immer mehr Spiele ohne oder mit kaputtem oder mangelhaftem Support. Kein SMAA T2x, T1x.

Ich habe irgendwann entnervt die Titans verkauft und mir eine Titan X gekauft, die @1,5 GHz gefühlt (µ-Ruckler also abgezogen) vergleichebare Leistung liefert.

Godmode ist auch ein gutes Beispiel. Er ist der Enthusiast schlechthin und seit vielen Jahren dabei. Auch ihm war es irgendwann zu viel.

Schuld daran ist nicht der IHV (NV/AMD) sondern der Entwickler bzw der Endkunde. Die Anzahl an Spielekäufern mit SLI/CF ist verglichen mit der Gesamtanzahl der verkauften Spiele einfach ein winziger Nischenmarkt. Dafür wird eben nicht genug optimiert. Lohnt nicht. (auch kommt es hin und wieder vor, dass Patches von Spielen den mGPU Support kaputt machen)

NV macht ohne Frage einen guten Job, SLI am Leben zu halten. Aber IMO ist es das nicht wert. 960 verkaufen und eine 970 günstig bei ebay kleinanzeigen für 250 € kaufen. Oder aber noch besser eine 980ti.

mGPU ist heutzutage einfach keine runde Sache. IMO: Finger weg. :)

Godmode
2015-12-11, 11:25:15
G-Sync + SLI + DSR? Geht bis heute nicht.

Der teilweise schlechte Spielesupport wäre ja noch zu verkraften gewesen, aber dass kein DSR mit G-Sync und SLI geht war mir dann einfach zu viel.

4Fighting
2015-12-11, 12:06:05
NV macht ohne Frage einen guten Job, SLI am Leben zu halten.


Ich bringe den Punkt zwar immer wieder, aber wenn selbst NV-gesponsorte Spiele kein SLI Support bieten, dann ist es imo kein guter Job.

Mir kann es mittlerweile auch Latte sein, da ich SLI auch abgeschafft habe, aber naja:)

SLIKnight
2015-12-11, 12:17:38
That's no speculation, it's a fact that developers need to do all the SLI work themselves with the new APIs.


Even if you are correct about this, that doesn't really change anything IMO.
Personally I could never go back to just one card, even if that means putting up with a few Single-GPU only titles recently (e.g. Just Cause 3, Syndicate, Arkham Knight etc.).

It is simply impossible to achieve the same kind of IQ and performance without at least 2-way SLI.
When DX12 has matured and have been used in several big AAA titles, we can worry about this.
Early Access, tech demos and rumors do not interest me one bit honestly.

The fact still is, that maybe 90% of the games I have played the last 3 years or so have had good SLI support, and add custom SLI profiles to this we are not in too bad shape still.

del_4901
2015-12-11, 12:40:58
I think its better to solve the MGPU Problem on the Developers side. The Driver Profile just breaks way too often is buggy as hell and at some point with future releases of the Driver it may even be removed. Finally we have the APi to solve all those issues. PCIe Latency is not that bad, the cards itself are mostly in sync and can push to each other. PCIe Bandwith is a Problem. That means that we really need to take care not to copy too much things. But technologies like NvLink will help by achieving more Bandwith and those things might end up in dual chip consumer boards as well.

Schuld daran ist nicht der IHV (NV/AMD) sondern der Entwickler bzw der Endkunde. Die Anzahl an Spielekäufern mit SLI/CF ist verglichen mit der Gesamtanzahl der verkauften Spiele einfach ein winziger Nischenmarkt. Dafür wird eben nicht genug optimiert. Lohnt nicht. (auch kommt es hin und wieder vor, dass Patches von Spielen den mGPU Support kaputt machen)
Bullshit, rename the gmes-executable and rename nvapi.dll and see for yourself what changes related to SLi amongst other things the driver is doing.

robbitop
2015-12-11, 13:56:41
Liegt also doch am Treiber und damit an NV/AMD?
Hatte schon von mehreren Devs gelesen, dass die Anpassung auf SLI aufwändig sei. Ggf. mangels ausreichend guter Dokumentation.

Am Ende wäre eine Transparente Lösung sicher der heilige Gral. Denn nicht für jedes Studio ist die Randgruppe mGPU lohnend genug, um Zeit zu investieren. Auch bei einer guten API.

aufkrawall
2015-12-11, 14:06:45
Es wird aber keine transparente Lösung geben. Bei DX12 muss der Entwickler selbst ran und für DX11 wird NV garantiert nicht mehr anfangen, ihre AFR-Tools auf Github zu packen.
Man sollte sich einfach mal von der Hoffnung verabschieden, dass AFR in der Breite jemals wieder so gut wie mit primitiveren Engines funktionieren wird.
Es muss erst einen mGPU-Ansatz in Hardware geben, der keinen signifikanten Mehraufwand bedeutet.

del_4901
2015-12-11, 14:25:50
With a modern Engine Architecture the extra efford to support MGPU is minimal.

MartinRiggs
2015-12-11, 14:34:18
Fakt ist, ich brauche mehr Power für den Monitor. Dumm ist, dass gerade mEn ein ungünstiger Zeitpunkt ist um sich jetzt noch ein Topmodell von nvidia zu kaufen. Mit einer SLI-Lösung basierend auf meiner jetztigen Karte würde ich aber wohl auch nicht wirklich glücklich werden.
Für diesen Monat ist mein Budget mit dem Dell eh schon gesprengt, evtl. tut sich ja aber mit dem neuen Jahr eine Gelegenheit am Gebrauchtmarkt auf, ansonsten werde ich das ganze wohl oder übel aussitzen, bis es die neuen Karten gibt.

Ich bin halt nicht bereit 300 € oder mehr Wertverlust innerhalb eines halben Jahres hinzunehmen, wenn ich mir jetzt eine 980/Ti hole...
Beim Monitor sehe ich das anders, der darf ruhig was kosten, den nutze ich vmtl. 7-8 Jahre (solange habe ich jedenfalls meinen jetztigen Samsung 24", 16:10).

Also ich habe grade erst eine 980Ti gekauft und finde den Zeitpunkt gar nicht ungünstig, es dauert mindestens noch bis Mitte nächsten Jahres bis etwas mit mehr Power auf dem Markt ist.
Ich hab die Anschaffung definitiv nicht bereut.

Der Wertverlust ist halt leider bei Grafikkarten viel höher als bei Monitoren, das ist und war aber schon immer so. ;)

robbitop
2015-12-11, 15:12:16
With a modern Engine Architecture the extra efford to support MGPU is minimal.
Would that still be an AFR solution or would both GPUs work on the same frame?

Novum
2015-12-11, 16:45:26
With a modern Engine Architecture the extra efford to support MGPU is minimal.
We agree to disagree.

del_4901
2015-12-11, 17:05:47
We agree to disagree.
Feel free to ask any questions for enlightenment.

SLIKnight
2015-12-11, 17:35:48
I think its better to solve the MGPU Problem on the Developers side. The Driver Profile just breaks way too often is buggy as hell and at some point with future releases of the Driver it may even be removed.

Of course I fully agree, that it is always best to have things as optimized as possible for AFR on the developer side of things.
That way we won't have to manually enable critical SLI bits, which may or may not cause unintended side effects such as flickering etc.

But manually creating and modifying driver profiles is not going anywhere.
Such a change would also prevent forcing and enhancing AA, HBAO+, anisotropic filtering and so on.
NVIDIA Inspector or a similar tool would always be able to expose these "hidden" functionalities.

aufkrawall
2015-12-11, 17:49:13
Nvidia's driver can already influence texture filtering with DX12 (you can force AF or LOD bias). Injecting SSAO might still be possible if you can access depth buffer. However, it's quite pointless with modern games which have their own AO and injected SSAO usually always has severe drawbacks. e.g. it always happens at the very end of rendering which is bad regarding fog effects etc.
Hardware-antialiasing seems pretty dead to me with deferred rendering and TAA.
Maybe even prerenderlimit can't be forced via driver with DX12 due to technical limitations.

Novum
2015-12-11, 17:51:57
Feel free to ask any questions for enlightenment.
I just don't think it's honest to claim that it's trivial to add multi GPU support via DX12/Vulkan to a "well engineered engine". It will still take at least a couple of weeks of engineer time to get all the things right and do QA passes etc. etc.

If you already have code in place to deal with that stuff, well, of course it's "easy".

aufkrawall
2015-12-11, 18:04:03
There are usually quite some technical problems left in game releases.
I don't find time spent wisely on AFR issues when this means that things like visual corruption for the whole of userbase (which is not just ~1%) doesn't get fixed or streaming issues remain open and thus everybody has to see textures loading or suffer bad frametimes.
Nvidia should pay develoeprs to make visuals more efficient instead, e.g. I find framerates in many Ubisoft games quite too low for the given visual quality (which is not bad, just to be clear).

SLIKnight
2015-12-11, 18:05:08
Nvidia's driver can already influence texture filtering with DX12 (you can force AF or LOD bias). Injecting SSAO might still be possible if you can access depth buffer. However, it's quite pointless with modern games which have their own AO and injected SSAO usually always has severe drawbacks. e.g. it always happens at the very end of rendering which is bad regarding fog effects etc.
Hardware-antialiasing seems pretty dead to me with deferred rendering and TAA.
Maybe even prerenderlimit can't be forced via driver with DX12 due to technical limitations.

Well older games still exist, and MrBonk's HBAO+ list contains hundreds of entries.
I suppose we should just take away people's freedom, because some "higher power" deems this is best :rolleyes:

Also many SLI problems are actually solvable using custom profiles, but let us just completely ignore the facts and give in to ranting.

aufkrawall
2015-12-11, 18:09:19
To be honest, I never found NV's driver AO useful in just one single case. It always scared me off with bad visual quality or extreme performance penalty.
So, yes: I would have found it much better if this feature never existed and e.g. NV invested more time in a better DSR quality.
You can btw. inject various types of SSAO in almost every game with ReShade and this maybe will be even possible with DX12 games as crosire is working on DX12 compatibility.

SLIKnight
2015-12-11, 18:13:56
Your opinion on driver HBAO+ is really besides the point honestly.
Many people (myself included) enjoy using this feature, and removing it is completely unreasonable.

DSR and HBAO+ can co-exist :)

aufkrawall
2015-12-11, 18:16:35
I didn't say they should remove it.
Please don't twist my words, thanks.

Commander Keen
2015-12-11, 19:18:42
Also ich habe grade erst eine 980Ti gekauft und finde den Zeitpunkt gar nicht ungünstig, es dauert mindestens noch bis Mitte nächsten Jahres bis etwas mit mehr Power auf dem Markt ist.
Ich hab die Anschaffung definitiv nicht bereut.

Der Wertverlust ist halt leider bei Grafikkarten viel höher als bei Monitoren, das ist und war aber schon immer so. ;)

Dein letzter Absatz ist schon richtig und ich bin ja auch bereit diesen Wertverlust zu tragen - aber dann sollte die Nutzungsdauer schon dementsprechend hoch sein (1,5 - 2 Jahre). Wenn ich jetzt eine 980 Ti neu kaufe, dann habe ich den gleichen Wertverlust wie jemand, der sie sich schon vor über einem Jahr gekauft hat. Das finde ich etwas unsexy.

Also entweder sitze ich es jetzt noch aus oder hoffe auf ein Schnäppchen am Gebrauchtmarkt. Im Moment bin ich gerade erstmal dabei die 960er bis zum Anschlag zu übertakten, hatte sie bislang nur äußerst moderat übertaktet weil keine Zeit, Lust und absolute Notwendigkeit gegeben war das Limit auszuloten. Klar, das wird jetzt nicht das Upgrade ersetzten, aber wenn die Karte der Flaschenhals ist, dann bringt das zumindest derweil in bischen was und kostet nix. Kühlung und Temperaturen sind eh super, da sollte noch was gehen.

aufkrawall
2015-12-11, 19:47:02
Die Ti gibt es erst seit einem halben Jahr und zwei Jahre kann man mit der sicherlich viel Spaß haben.
Es gibt ja auch sehr gute Luftkühlungen, wo es mit ~1,4Ghz bei ~300W Powertarget akustisch noch relativ angenehm ist.
Wenn man viel Geld für sGPU ausgibt, hat man immerhin das gute Gefühl, dass man zu jedem Zeitpunkt die maximal mögliche Performance damit hat.

Commander Keen
2015-12-11, 20:01:46
Mal sehen, vorm neuen Jahr werde ich sicherlich keine Entscheidung treffen geschweige denn Geld raushauen.

Werde mich auf jeden Fall mal über die Feiertage darum kümmern die alte analoge Fotoausrüstung meines Opas in Geld umzumünzen, evtl. ist die ja doch was wert - dann könnte ich mich mit einer 980 Ti schon anfreunden.

del_4901
2015-12-11, 21:04:25
I just don't think it's honest to claim that it's trivial to add multi GPU support via DX12/Vulkan to a "well engineered engine". It will still take at least a couple of weeks of engineer time to get all the things right and do QA passes etc. etc.

If you already have code in place to deal with that stuff, well, of course it's "easy".
Calculating the inter-frame dependencies can be done in one day including hooking up the copies. Replay is a bit more difficult depending on the engines resource management. But with Vulcan or Dx12 even that is easy as one can access the devices seperately and does not have to wait for present like in Dx11.
Then whats left is the additional time for QA to test on those, but they should just have the machines anyways.

Novum
2015-12-11, 21:22:07
But that's not all of it, you also need to make sure data gets copied to both GPUs, create appropriate state objects and make the renderer understand which GPU it is rendering to. And what about frame pacing?

I just don't believe this can be done under a few weeks from scratch, I'm sorry. One always underestimates time to code something and there will be unforeseen problems.

del_4901
2015-12-11, 21:43:04
But that's not all of it, you also need to make sure data gets copied to both GPUs, create appropriate state objects and make the renderer understand which GPU it is rendering to. And what about frame pacing?

I just don't believe this can be done under a few weeks from scratch, I'm sorry. One always underestimates time to code something and there will be unforeseen problems.
The renderer should already have a concept of multiple GPUs, which is part of the "modern Architecture". I would propose to analyze the frames as you go and predict the behavior for the next frame. If the prediction fails than the renderer just asserts. The only thing that would need to be done to help the renderer to do the early push is to annotate the resource. First prototype was done in a day, fixing some minor bugs less than a day.
I have implemented Framepacing as well, but Framepacing cannot be implemented with Dx12 as a crucial feature is missing.

Novum
2015-12-11, 21:44:20
The renderer should already have a concept of multiple GPUs, which is part of the "modern Architecture".
This is BS, lots of renderers have no knowledge of multi GPU at all and rely on the driver to do SLI. And implementing this is part of the work for multi GPU support.

As I said, if you are in a spot where the engine already know about multi GPU, oh duh, it's not hard to implement it for newer APIs. But there is plenty of code out there which does not.

I know very well that the big engines will get it just from the sheer amount of people working on that tech, but there is still smaller engines and smaller teams and they have other priorities. NVIDIA could always make up for that because with the old style APIs it could be fixed in the driver, this will go away with DX12/Vulkan and there will be substantially less titles that have working SLI.

del_4901
2015-12-11, 21:54:22
This is BS, lots of renderers have no knowledge of multi GPU at all and rely on the driver to do SLI. And implementing this is part of the work for multi GPU support.
Even if you are relying on the driver for the temporal copies a modern engine can be AFR friendly to avoid unnecessary copies for things that do not change every frame like cubemaps. And in this case the renderer needs the concept of being aware of multiple GPUs even since Dx9.

Novum
2015-12-11, 21:56:07
I'm talking about having to use different compiled DX12 pipeline state objects / descriptor tables depending on the frame etc. which the engine has to be aware of. It's just not as simple as you make it sound.

del_4901
2015-12-11, 22:01:03
I'm talking about having to use different compiled DX12 pipeline state objects / descriptor tables depending on the frame etc. which the engine has to be aware of. It's just not as simple as you make it sound.
If it is a linked Adapter you set the NodeMask and you are fine. I would not bother to support asymmetric configurations for now. https://msdn.microsoft.com/en-us/library/windows/desktop/dn933253(v=vs.85).aspx#multiple_nodes
DX12 is very simple in that scenario. But even on other APIs that do not have a node concept you should have taken care of that in your abstraction by duplicating them internally for each device.

MartinRiggs
2015-12-11, 22:04:45
Dein letzter Absatz ist schon richtig und ich bin ja auch bereit diesen Wertverlust zu tragen - aber dann sollte die Nutzungsdauer schon dementsprechend hoch sein (1,5 - 2 Jahre). Wenn ich jetzt eine 980 Ti neu kaufe, dann habe ich den gleichen Wertverlust wie jemand, der sie sich schon vor über einem Jahr gekauft hat. Das finde ich etwas unsexy.


Die 980Ti gibt es erst seit Juni, also grade mal 5 Monate und nicht über ein Jahr. ;)
Bei deinem Monitor ist eine 980Ti OC eigentlich Pflicht, sowohl von der Performance als auch vom Speicherausbau.

Lord Wotan
2015-12-14, 18:12:08
Wir nutzen beide Sli. Ich per GTX 690 mit einer Dual Karte und meine Frau per zwei mal GTX760 als Sli.

HarryHirsch
2015-12-14, 18:36:38
Wir nutzen beide Sli. Ich per GTX 690 mit einer Dual Karte und meine Frau per zwei mal GTX760 als Sli.

cool!

HisN
2015-12-14, 18:53:42
Wir nutzen beide Sli. Ich per GTX 690 mit einer Dual Karte und meine Frau per zwei mal GTX760 als Sli.

Und ist es toll oder eher schlimm? Immerhin sind die Karten nicht mehr so ganz taufrisch^^
Oder beoachtet ihr gan nicht, weil Du es so völlig ohne Wertung schreibst.
Du hast es halt ... ob es funktioniert oder nicht .. wen interessierts, schaut auch niemand nach was die Grakas beim zocken so machen, hauptsache die FPS stimmen? *G*

Commander Keen
2015-12-14, 18:56:58
Gerade über den SLI-Verbund aus den zwei 760ern wären ja für meine ursprüngliche Fragestellung mehr Informationen interessant...

So ein Einzeiler hilft nicht wirklich weiter @Lord Wotan ;)

Godmode
2015-12-14, 19:25:22
Gerade über den SLI-Verbund aus den zwei 760ern wären ja für meine ursprüngliche Fragestellung mehr Informationen interessant...

So ein Einzeiler hilft nicht wirklich weiter @Lord Wotan ;)

Irgendwie willst du ja doch eine zweite Karte haben, wenn ich zwischen den Zeilen lese. Hol dir eine zweite Karte und probiere es einfach selber aus. Wenn du es für gut befindest, hast du eine billige Überbrückung bis die 16nm Karten erscheinen, wenn nicht, verkaufst du die zweite Karte mit etwas Verlust. Das soll jetzt übrigens keine Empfehlung für SLI sein. Oft ist es einfach so, dass man Sachen erst glaubt, wenn man sie selber erlebt hat. Bei mir ist das zumindest schon öfters der Fall gewesen.

Die bessere Lösung wäre aber trotzdem eine schneller Karte. Mit dem Erlös deiner jetzigen Karte, sollte auch ein Upgrade drinnen sein.

aufkrawall
2015-12-14, 19:26:01
Ist halt wie mit der Herdplatte.. :freak:

Godmode
2015-12-14, 19:48:55
Ist halt wie mit der Herdplatte.. :freak:

So drastisch würde ich es nicht ausdrücken, aber ja, SLI kann schon mal wehtun.

Commander Keen
2015-12-14, 19:53:42
Es geht mir primär darum zu sehen, wie ein SLI aus zwei Mittelklassekarten skaliert. Aber nein, und um aufkrawall zu beruhigen, ich tendiere ganz klar zu einer 980 Ti :freak:

Alternativ evtl. auch eine 980 non ti, wenn die mal günstig irgendwo abgestossen wird. Bei Tis braucht man auf Schnäppchen gar nicht hoffen, da gibt es im Luxx so Knaller, die bieten die zum Neupreis an, weil sie einen ASIC-Wert von 76,5% hat. Und dann rummaulen, wenn andere Nutzer fragen ob er noch alle Tassen im Schrank hat (nicht ich, keine Sorge).

MartinRiggs
2015-12-14, 20:05:00
Ja im Luxx gibt es schon ein paar Knaller, gibt nix besseres um richtig herzhaft zu lachen.

4Fighting
2015-12-14, 21:17:24
Es geht mir primär darum zu sehen, wie ein SLI aus zwei Mittelklassekarten skaliert. Aber nein, und um aufkrawall zu beruhigen, ich tendiere ganz klar zu einer 980 Ti :freak:



Warum sollten Mittelklassekarten anders skalieren als High-End GPUs?

Commander Keen
2015-12-14, 21:43:40
Warum sollten Mittelklassekarten anders skalieren als High-End GPUs?

Möglicherweise landen sie eher an einem architekturbedingten Flaschenhals, der Klassiker wäre dabei der geringere Speicherausbau. OK, das wäre bei einer (bzw. zwei) 960 4GB wohl eher auszuschliessen.

Die Frage war auch blöd formuliert, die Skalierung allgemein wäre interessant zu wissen. Mit konkreten Beispielen wie "in Game x mit einer Karte 100% mit zwei Karten 150%" oder so in der Art. Dann könnte man sich auch tatsächlich ausrechnen ob es günstiger wäre (unabhängig von den Nachteilen) eine weitere Karte zu kaufen oder die bestehende Karte abzustossen und eine fettere Karte zu holen.

aufkrawall
2015-12-14, 21:48:04
Angesichts der ganzen negativen Faktoren, die sich nicht unbedingt in Balken niederschlagen müssen, macht es keinen Sinn, AFR als eine Art Leistungsbonus zu verstehen, den man irgendwie in +x% gegenüber sGPU angeben könnte.
Entweder, ein Spiel skaliert sehr gut und macht dabei keine Probleme, oder eben nicht. Wenn es nur bescheiden skaliert, macht es aufgrund des Input Lags, schlechteren AAs und anderer Probleme meist nur noch wenig Sinn.

hellibelli
2015-12-15, 23:41:21
Bin wohl einer der wenigen, der Sli im Gebrauch hat, und damit zufrieden ist.

Kartenlehrling
2015-12-15, 23:45:27
Dann spielst du aber auch nicht die neusten Blockbuster, weil die haben kein SLI support mehr.

Blaire
2015-12-16, 02:05:36
Dann spielst du aber auch nicht die neusten Blockbuster, weil die haben kein SLI support mehr.

So? Welche sollen das sein? Fallout 4 oder Star Wars: Battlefront zuletzt funktionierten einwandfrei, sowie auch der überwiegend große Anteil Games in 2015 verfügen über SLI-Support. Das da immer mal ein paar Kandidaten durchs Raster fallen, ist auch nicht erst seit diesem Jahr so. Früher war auch nicht alles besser, heute sind es gefühlt nur deutlich mehr GameWorks-Titel und die Erwartungshaltung auch eine ganz andere.

Bin wohl einer der wenigen, der Sli im Gebrauch hat, und damit zufrieden ist.

Liegt vieleicht daran , das kaum jemand SLI verwendet bzw. die Vorurteile überwiegen. Bei Godmode versteh ich es, SLI + DSR/3D- Support auf G-Sync Monitoren das hätte auch NVIDIA von vornherein klarer kommunizieren sollen, so ist die Kritik dann auch berechtigt.

hellibelli
2015-12-16, 08:10:12
Dann spielst du aber auch nicht die neusten Blockbuster, weil die haben kein SLI support mehr.

Also ich spiele derzeit Witcher 3, Assasins Creed Unity, Far Cry 4 und GTA 5.

Aktuelle Blockbuster sind also dabei. Just Cause 3 interessiert mich nicht da mir der Inhalt fehlt.. bzw. nur zerstören irgendwie zu langweilig ist... Batman Arkham Knight... kann ich mich auch nicht mit anfreunden obwohl das auf einer 980 TI + eine 980 TI als PhysX Karte mehr als gut läuft mal abgesehen von ein paar Ruckler die aber wohl von der Engine her kommen.

Was gibt es denn sonst noch so für Blockbuster, die kein SLI unterstützen?

Auch wenn ich es schon öfters geschrieben habe, ohne SLI könnte ich einige Games nicht in voller Pracht genießen. Für Full HD unterschreibe ich, dass eine 980 TI ausreicht. Für 3440x1440 allerdings nicht mehr. Nur wenn man auf einige Details verzichten kann. Daher war es für mich nur logisch, dass ich SLI haben muss, um ein flüssiges Spielen mit vollen Details genießen zu können.

Das es immer mal wieder Spiele gibt, die kein SLI unterstützen, leider richtig, aber das war wirklich immer schon so.

Mit DX12 soll es nicht besser werden. Die neue Unreal Engine wird auch wohl ohne Support kommen. Aber das sind dinge, die erst noch abzuwarten sind wie es sich entwickelt. Erst mal muss DX12 in sämtlichen Blockbustern beinhaltet sein. Das dauert noch eine ganze Zeit.

4Fighting
2015-12-16, 09:05:37
Liegt vieleicht daran , das kaum jemand SLI verwendet bzw. die Vorurteile überwiegen.

Liegt vielleicht auch an Nvidia, die keine Dual-GPU Karten mehr auf den Markt bringen und so eine Karte als Werbeprodukt platzieren für SLI. Viele der Normal-User kauften sich doch eine Dual-GPU Karte wegen den langen Balken in den Magazinen.

SLIKnight
2015-12-16, 12:40:59
Dann spielst du aber auch nicht die neusten Blockbuster, weil die haben kein SLI support mehr.

Just Cause 3 is in a terrible state in general anyway.
Nothing but bugs and issues.
And AC: Syndicate might be fixed in an SLI patch from Ubisoft, that still remains to be seen.

And honestly I'm very happy overall with SLI support in 2015.
All the big demanding games I'm currently playing have good support, i.e. GTA V, Watch Dogs, Shadow of Mordor, Ryse, Witcher 3, Evolve, AC: Unity, Dragon Age: Inquisition, Star Wars: Battlefront and so on.
Also slightly older favorites such as Crysis 3 is simply a joy to play at 4k+FXAA with very high settings.
Good luck doing this with one card :freak:

And in some of the remaining "trouble childs" such as Risen 3, Arkham Knight and AC: Syndicate, a single overclocked 980 Ti is really decent enough.

aufkrawall
2015-12-16, 12:41:52
Just Cause 3 is in a terrible state in general anyway.
Nothing but bugs and issues.

I've just played it 40hours with just very few issues...

SLIKnight
2015-12-16, 12:58:10
Nice for you, but the Steam forums are riddled with users having issues with this game :)
Not me personally, but just saying.

aufkrawall
2015-12-16, 13:07:02
People with problems usually:
-have an AMD card
-have too little RAM/VRAM
-haven't page file at system controlled setting
-have a slow CPU like Bulldozer crap
-have no SSD

I didn't say it's perfect, but situation is surely not severe with the right PC. At least I can't imagine how it would be.

Btw: There were also lots of terrible reports regarding AC: Unity at release, while it was running mostly fine for me in version 1.0. Eventually, the internet is full of incompetent trolls.

SLIKnight
2015-12-16, 13:13:02
I guess you have a point, but I still think they should have waited a few months before releasing JC3.

Cubitus
2015-12-16, 13:33:45
Auch wenn ich es schon öfters geschrieben habe, ohne SLI könnte ich einige Games nicht in voller Pracht genießen. Für Full HD unterschreibe ich, dass eine 980 TI ausreicht. Für 3440x1440 allerdings nicht mehr. Nur wenn man auf einige Details verzichten kann. Daher war es für mich nur logisch, dass ich SLI haben muss, um ein flüssiges Spielen mit vollen Details genießen zu können.


Geht mir aber auch so, wenn es funktioniert ist es ziemlich geil.
Die meisten Spiele was ich dieses Jahr spielte, profitierten schon sehr davon.

Voller Support über 90% Auslastung und top Performance:
Sniper Elite 3, und Zombi Army Trilogie, Project Cars, Witcher 3, Dying Light, Black Ops 3, Far Cry 4 (bis es vom Dev kaputt gepatched wurde), GTA V, AC Black Flag, bzw. Syndicate.
Vanishing of Evan Carter (U3E), MGS5

Deutliche Verbesserung:
Rasinbow Six Siege, und Fallout 4 (seit den neusten Patchen)

Klar SLI bedeutet halt auch Frust.. Aber bei Top Titeln bringt es einen unglaublichen Boost. Welcher eigl nur mit neuer Gen zu meistern ist.

HisN
2015-12-16, 13:36:18
Auch wenn ich es schon öfters geschrieben habe, ohne SLI könnte ich einige Games nicht in voller Pracht genießen. Für Full HD unterschreibe ich, dass eine 980 TI ausreicht.

Hängt das nicht von den Games ab? Keiner von uns kennt alle Games. Würde mit Superlativen nicht anfangen^^ Gibt bestimmt noch mehr, wenn man sucht. Und ich habe extre keine CPU-Limitierten Games rausgesucht, davon gibts auch einige :-)

http://abload.de/thumb/shootergame_2015_12_15pjkr.jpg (http://abload.de/image.php?img=shootergame_2015_12_15pjkr.jpg) http://abload.de/thumb/spaceengineers_2015_1gljvm.jpg (http://abload.de/image.php?img=spaceengineers_2015_1gljvm.jpg)

Nur Ingamesettings maximiert. Mit einer OC Titan X (100Mhz drauf, und dann ist die 980TI auf dem gleichen Level, falls das VRAM ausreicht ... was geradeeeee so hinkommen könnte)

Wenn man das Pferd so rum aufzieht, müssten wir alle noch vor 17" 1280er TFTs sitzen.

Ich weiß, das ist Cherry-Picking, aber das betreiben wir ja sehr gerne hier^^

robbitop
2015-12-16, 13:41:59
SLI skaliert auf allen GPUs nominell (je nach dem die Unterstützung ist) relativ gut. +80-9x %.
Zieht man das µ-Ruckeln / ungleichmäßigere Frametimes ab ist man gefühlt auf etwa +50..60 % mehr fühlbarer Leistung. Sofern es denn vom Spiel fehlerfrei unterstützt wird...

Blaire - gibt es eigentlich einen Status zu DSR+SLI+G-Sync? Das wurde ja schon lange angekündigt.


Liegt vieleicht daran , das kaum jemand SLI verwendet bzw. die Vorurteile überwiegen. Bei Godmode versteh ich es, SLI + DSR/3D- Support auf G-Sync Monitoren das hätte auch NVIDIA von vornherein klarer kommunizieren sollen, so ist die Kritik dann auch berechtigt.
Erzähl' nix. Ich habe es auch lange probiert und habe entsprechenden technischen Background, Kapital, die objektive Sicht eines Redakteurs und Leidensfähigkeit. Eine Empfehlung ist es nicht. Liegt aber auch nicht an NV (bzw am IHV) sondern am Verfahren (AFR) an sich.

Shadow of Mordor hat ewig gebraucht, bis es gepatcht war, dass SLI überhaupt keine issues mehr hatte und ordentlich skalierte. DA:I hatte mit Texturflimmern zu kämpfen (ist heute vermutlich gepatcht). Batman bietet kein SLI. Wie gesagt - nicht NVs Schuld. Aber nicht jeder möchte monatelang warten, bis das Spiel entsprechend für AFR gepatcht wurde. Bis dahin ist es dann im sGPU durchgespielt.

Ggf. bringen moderne DX12 Engines mit Entwicklerliebe das Ganze wieder nach vorn. Dann wäre ich sofort wieder dabei. (große Wakü und 1,2 kW Netzteil sind vorhanden)

aufkrawall
2015-12-16, 13:49:00
Es sind häufig nicht unbedingt die Frametimes, die es langsam anfühlen lassen: Es gibt ja auch Frametime-Messungen, wo die Verläufe sehr glatt sind.
Das Problem ist einfach prinzipiell der zusätzliche Lag. Man braucht im GPU-Limit hohe fps, damit die Spielbarkeit bleibt (wenn sonst alles stimmt).

Übrigens ist der Input Lag z.B. bei Battlefront mit 45fps mit dem in-game Limiter noch durchaus zu gebrauchen mit sGPU. Man braucht dann nur unbedingt Gsync/FreeSync, sonst ist das Gestottere und Geteare nicht zum aushalten.

hellibelli
2015-12-16, 13:49:23
Hängt das nicht von den Games ab? Keiner von uns kennt alle Games. Würde mit Superlativen nicht anfangen^^ Gibt bestimmt noch mehr, wenn man sucht. Und ich habe extre keine CPU-Limitierten Games rausgesucht, davon gibts auch einige :-)

http://abload.de/thumb/shootergame_2015_12_15pjkr.jpg (http://abload.de/image.php?img=shootergame_2015_12_15pjkr.jpg) http://abload.de/thumb/spaceengineers_2015_1gljvm.jpg (http://abload.de/image.php?img=spaceengineers_2015_1gljvm.jpg)

Nur Ingamesettings maximiert. Mit einer OC Titan X (100Mhz drauf, und dann ist die 980TI auf dem gleichen Level, falls das VRAM ausreicht ... was geradeeeee so hinkommen könnte)

Wenn man das Pferd so rum aufzieht, müssten wir alle noch vor 17" 1280er TFTs sitzen.

Ich weiß, das ist Cherry-Picking, aber das betreiben wir ja sehr gerne hier^^


Da gebe ich dir absolut recht. Es kommt auf das Spiel an. Vor allem wenn ich mir deine Bilder anschaue.

Würde dann aber die Behauptung aufstellen, dass das Problem ehr am Spiel liegt und nicht an der Graka. Entweder noch in einer frühen Betaphase oder einfach nur schlecht programmiert. Da würde SLI bestimmt auch nichts bringen. Wenn es denn von deinen oben gezeigten Titel unterstützt wird.

Ich habe derzeit das Glück, dass die Spiele gut unterstützt werden die ich zocke. Sollte ich mal lust auf Juist Cause bekommen, dann reicht wohl eine 980 TI auch dafür. Falls nicht muss ich dann die Details etwas runterdrehen, dafür habe ich ja schon eine bessere Auflösung. Es macht mir aber auch Spaß immer mal wieder Settings zu testen, sich mit SLI auseinander zu setzen, Probleme zu lösen und falls es mal keine Lösung gibt, dann ist es halt so.

Das macht mir beim PC einfach fun. Wenn ich wirklich nur spielen möchte ohne Konfigurationen zu testen, Mods zu nutzen usw... dann kann ich wirklich zur Konsole greifen.

Mir macht das PC Gaming aber einfach zu viel Spaß. Wenn SLI irgendwann wirklich (tot) sein sollte, was ich noch nicht sehe, kann ich immer noch eine verkaufen und auf Singel setzen. Aber davon bin ich derzeit weit entfernt.

4Fighting
2015-12-16, 13:50:58
Blaire - gibt es eigentlich einen Status zu DSR+SLI+G-Sync? Das wurde ja schon lange angekündigt.


Seit über einem Jahr ist es "in Development".

Ich hab nochmal die offizielle Site bei nvidia rausgekramt

http://nvidia.custhelp.com/app/answers/detail/a_id/3597/~/dynamic-super-resolution-%28dsr%29-support-reference-chart

robbitop
2015-12-16, 14:04:30
Es sind häufig nicht unbedingt die Frametimes, die es langsam anfühlen lassen: Es gibt ja auch Frametime-Messungen, wo die Verläufe sehr glatt sind.
Das Problem ist einfach prinzipiell der zusätzliche Lag. Man braucht im GPU-Limit hohe fps, damit die Spielbarkeit bleibt (wenn sonst alles stimmt).


Die subjektive Erfahrung habe ich auch gemacht. Wobei ich generell empfindlich bin was Flüssigkeit angeht. Je nach Spiel brauche ich 50 oder mehr fps bei sGPU damit ich es als flüssig genug empfinde. Es gibt aber auch Spiele, die sauberer und lagärmer laufen, bei denen auch schon mal 40 fps reichen.

Mit SLI hatte ich ebenfalls das Gefühl, dass ich für gleiche Flüssigkeit und Lagfreiheit (mindestens 1 Frame mehr Latenz!) wesentlich mehr fps brauchte. 60 fps (oder mehr) waren für mich persönlich dann Pflicht.

HisN
2015-12-16, 14:26:52
@hellibelli
Aber genau aus dem Grund sagen doch alle:
Game XXX ist Scheisse Programmiert, weil es auf MEINER Kiste nicht läuft. Es gibt keine Grenze zwischen Scheisse und ganz normal. Wir stecken halt nicht drinne.

Ich weiß, ich ecke mit meinen Ansichten sehr oft an, aber wenn man das sorum aufzieht ist alles ausser Solitaire scheisse Programmiert, weil es auf Oma Lieschens Rechner nicht mehr ordentlich läuft, der leider aus der Steinzeit ist.

Du kannst Dich nicht hinstellen und sagen: Alles was auf der Graka XXX in Settings XXX nicht läuft .. da hat der Programmierer keine Ahnung gehabt.
Die haben halt nur eine Menge Zeit und eine Menge Geld und wenn eins von beiden zur Neige geht, dann muss das Game auf den Markt. Anders wird es nicht funktionieren. Und wir sind halt die Leidtragenden^^

robbitop
2015-12-16, 14:39:59
Naja ein Entwickler sollte schon ein Auge dafür haben, wieviel Aufwand pro Pixel einfließt, wenn er ein Spiel vom Visual Level sieht und wieviel Performance es kostet und sollte abschätzen können, ob es effizient umgesetzt wurde oder nicht. Aber das Vergleich ist schwierig, ohne zu wissen was gemacht wurde. Oftmals kann guter oder schlechter Content viele Eindrücke völlig vernebeln.

Bei Crysis haben damals die Leute alle (ungerechtfertigt) herumgeweint, dass es ineffizient programmiert worden sei. Doch für die hohe Rechenzeit pro Pixel floßen aber auch unglaublich aufwändige Effekte/Beleuchtung/Geometrie. Insofern war Performance/Ergebnis nicht schlecht.

Ganz im Gegenteil.

hellibelli
2015-12-16, 15:07:15
@hellibelli
Aber genau aus dem Grund sagen doch alle:
Game XXX ist Scheisse Programmiert, weil es auf MEINER Kiste nicht läuft. Es gibt keine Grenze zwischen Scheisse und ganz normal. Wir stecken halt nicht drinne.

Ich weiß, ich ecke mit meinen Ansichten sehr oft an, aber wenn man das sorum aufzieht ist alles ausser Solitaire scheisse Programmiert, weil es auf Oma Lieschens Rechner nicht mehr ordentlich läuft, der leider aus der Steinzeit ist.

Du kannst Dich nicht hinstellen und sagen: Alles was auf der Graka XXX in Settings XXX nicht läuft .. da hat der Programmierer keine Ahnung gehabt.
Die haben halt nur eine Menge Zeit und eine Menge Geld und wenn eins von beiden zur Neige geht, dann muss das Game auf den Markt. Anders wird es nicht funktionieren. Und wir sind halt die Leidtragenden^^


Anecken, ne son quatsch. Ist ja ein Disskusionsthread hier :D.

Was ich nur nicht so ganz nachvollziehen kann. Wenn man weiss, dass ein Spiel absolut nicht zufriedenstellend laufen wird oder läuft, dann kaufe ich es doch gar nicht erst. Du schreibst das man als User der Leidtragende ist. Das sehe ich halt nicht so. Es gibt Berichte, Tests usw.. woran man doch ausmachen kann, ob ich mir ein Spiel kaufe oder nicht. Schon ist der Entwickler der Leidtragende.

Warum sollte ich einen Entwickler supporten indem ich sein Produkt kaufe, wenn es auf der aktuellen Hardware nicht anständig läuft. Ich gebe eigentlich fast allen eine Chance das Game zu Patchen usw....siehe Unity, Far Cry 4 .....

Sollte Syndicate wirklich keinen Perfomancepatch bekommen, dann lasse ich es links liegen, da mir Unity eh mehr zusagt und besser läuft. Ich muss ja nicht alles kaufen nur weil es ein AAA Titel ist oder es keine Alternativen gibt. Davon gibt es ja zum Glück viel.

HisN
2015-12-16, 15:11:11
Hihi, gute Idee. Dann hört das Gemaule auf :-)

Nevermore4ever
2015-12-16, 20:57:31
Ein paar Mal wurde hier schon angesprochen, dass AFR zu viele Probleme mit sich bringt und man es anders machen könnte. Kann jemand dazu ein bisschen Theorie beitragen?

Andere Ansätze als AFR hat man früher probiert oder zumindest diskutiert und AFR hat sich durchgesetzt. Lag es nicht u.a. am Anti-Aliasing, dass man die Bilder nicht zeilenweise auf die GPUs verteilen wollte? Andere Verteilmuster (oben-unten, Kacheln) waren auch nicht recht.

Wenn aber das AA heute ohnehin fast nur noch als Post-Processing über das bereits fertig gerenderte Bild läuft, müsste es dann nicht attraktiv werden, zeilenweise zu rendern? Oder ergeben sich dabei Probleme, die den Geschwindigkeitszuwachs zunichte machen oder den Ansatz aus anderen Gründen unmöglich machen?

Kartenlehrling
2015-12-16, 21:21:10
Nvidia wirbt auf seiner Geforce Seite selbt jetzt noch mit SLI Support für JC3 und BatmanAK.

4Fighting
2015-12-16, 22:30:42
Nvidia wirbt auf seiner Geforce Seite selbt jetzt noch mit SLI Support für JC3 und BatmanAK.

Hier ist es bei JC3 nicht erkennbar

http://www.geforce.com/games-applications/pc-games/just-cause-3

HisN
2015-12-17, 00:05:15
Wenn aber das AA heute ohnehin fast nur noch als Post-Processing über das bereits fertig gerenderte Bild läuft, müsste es dann nicht attraktiv werden, zeilenweise zu rendern? Oder ergeben sich dabei Probleme, die den Geschwindigkeitszuwachs zunichte machen oder den Ansatz aus anderen Gründen unmöglich machen?


Ich glaub das Rendern war gar nicht so sehr das Problem, sondern das was davor passiert. Also das Geometrie-Setup, das früher ja noch gerne von der CPU gemacht worden ist, aber jetzt praktisch vollständig in die GPU wanderte. Und das ist nicht Zeilenweise zu erledigen.

Kartenlehrling
2015-12-17, 00:18:18
Hier ist es bei JC3 nicht erkennbar

http://www.geforce.com/games-applications/pc-games/just-cause-3

Hier muss einer mitlesen :redface:

Ich schwör bei letzten Besuch von mir war noch JC3 und BatmanAK mit SLI markiert. (http://www.geforce.com/games-applications/technology/sli)

aufkrawall
2015-12-17, 00:29:57
War es, kann ich bestätigen.

robbitop
2015-12-17, 08:56:29
Ein paar Mal wurde hier schon angesprochen, dass AFR zu viele Probleme mit sich bringt und man es anders machen könnte. Kann jemand dazu ein bisschen Theorie beitragen?

Andere Ansätze als AFR hat man früher probiert oder zumindest diskutiert und AFR hat sich durchgesetzt. Lag es nicht u.a. am Anti-Aliasing, dass man die Bilder nicht zeilenweise auf die GPUs verteilen wollte? Andere Verteilmuster (oben-unten, Kacheln) waren auch nicht recht.

Wenn aber das AA heute ohnehin fast nur noch als Post-Processing über das bereits fertig gerenderte Bild läuft, müsste es dann nicht attraktiv werden, zeilenweise zu rendern? Oder ergeben sich dabei Probleme, die den Geschwindigkeitszuwachs zunichte machen oder den Ansatz aus anderen Gründen unmöglich machen?
Das ging vor 10-15 Jahren mit alten Renderpipelines noch. Moderne Renderpipelines von Gameengines erzeugen einfach zu viele Interdependenzen zwischen Teilen des Bildes (durch hübsche Beleuchtung, PP-FX etc) , so dass ein hoher Bedarf an Bandbreite zwischen 2x GPUs bestünde, damit sie zur gleichen Zeit am gleichen Frame arbeiten. Diese hohe Bandbreite bei gleichzeitg sehr geringer Latenz ist nicht zu machen, wenn nicht beide GPUs wenigstens auf dem gleichen Träger sitzen und sehr sehr breit angebunden sind.

Bei AFR ist die Unabhängigkeit zwischen 2 GPUs größer, da um deutlich weniger Interdependenzen zwischen 2 Frames bestehen als im obigen Beispiel.

Man kann noch SFR nutzen - aber das skaliert deutlich schlechter als AFR die die Geometrie auf beiden GPUs fürs gleiche Frame jeweils berechnet werden muss.

Wir werden wohl mittelfristig auf AFR sitzenbleiben - sofern mGPU im Spielebereich nicht irgendwann in die Bedeutungslosigkeit rutscht.

Godmode
2015-12-17, 12:07:20
Geht mir aber auch so, wenn es funktioniert ist es ziemlich geil.


Ja dem kann ich zustimmen. TW3 ist in 4K ohne SLI nicht so toll. Ich spiele das Spiel jetzt ja auf dem TV und dort hätte ich jetzt wieder gerne eine zweite Karte. Dank SLI ist man beim Witcher in 4K im CPU Limit, wodurch auch der Inputlag trotz SLI wieder passt. In diesem Spiel ist SLI deutlich besser als SGPU.

Bei GTA V wars das selbe, das war erst mit SLI richtig toll spielbar.


Liegt vieleicht daran , das kaum jemand SLI verwendet bzw. die Vorurteile überwiegen. Bei Godmode versteh ich es, SLI + DSR/3D- Support auf G-Sync Monitoren das hätte auch NVIDIA von vornherein klarer kommunizieren sollen, so ist die Kritik dann auch berechtigt.

Wirklich schade, dass sie das bis heute nicht anbieten.

aufkrawall
2015-12-17, 13:47:22
Ja dem kann ich zustimmen. TW3 ist in 4K ohne SLI nicht so toll. Ich spiele das Spiel jetzt ja auf dem TV und dort hätte ich jetzt wieder gerne eine zweite Karte. Dank SLI ist man beim Witcher in 4K im CPU Limit, wodurch auch der Inputlag trotz SLI wieder passt.
Echt ins CPU-Limit? Das ist außerhalb der Stadt doch eigentlich immer im dreistelligen Bereich, in Novigrad sollten auch deine sechs Kerne sehr hilfreich sein.

4Fighting
2015-12-17, 14:08:38
Echt ins CPU-Limit? Das ist außerhalb der Stadt doch eigentlich immer im dreistelligen Bereich, in Novigrad sollten auch deine sechs Kerne sehr hilfreich sein.

Über welche Auflösung reden wir hier? CPU Limit im Witcher habe ich bis dato nur gesehen, wenn ich die Grasmenge abartig erhöhe

Habt ihr ein Savegame oder einfach ein Screenshot der Map?

Godmode
2015-12-17, 14:39:25
Echt ins CPU-Limit? Das ist außerhalb der Stadt doch eigentlich immer im dreistelligen Bereich, in Novigrad sollten auch deine sechs Kerne sehr hilfreich sein.

War natürlich Blödsinn was ich geschrieben hab. Wollte eigentlich sagen, dass mit VSync 60 die GPUs deutlich unter 100% ausgelastet werden, was dann auch eine recht direkte Steuerung ergibt.

Nevermore4ever
2015-12-17, 21:58:24
Das ging vor 10-15 Jahren mit alten Renderpipelines noch. Moderne Renderpipelines von Gameengines erzeugen einfach zu viele Interdependenzen zwischen Teilen des Bildes (durch hübsche Beleuchtung, PP-FX etc), so dass ein hoher Bedarf an Bandbreite zwischen 2 GPUs bestünde, damit sie zur gleichen Zeit am gleichen Frame arbeiten. Diese hohe Bandbreite bei gleichzeitig sehr geringer Latenz ist nicht zu machen, wenn nicht beide GPUs wenigstens auf dem gleichen Träger sitzen und sehr sehr breit angebunden sind.

Okay, danke für die Klarstellung. Das erinnert mich wiederum an Ideen, die AMD mal in die Runde geworfen hat (oder vielleicht war es wieder nur eine Überinterpretation seitens der Fachpresse), dass man einen extrem breiten Ring-Bus bauen würde, mit dem man dann eine variable Anzahl kleiner GPUs koppeln könnte und so praktisch nur noch einen Chip auflegen müsste, um jedes Segment zu bedienen. Nach außen hin würde der Verbund als einzelne GPU erkannt.

Daraus wurde bis jetzt ja auch nichts, was sehr schade ist – denn baue ich einen riesigen Bus für extrem hohe Bandbreite, wenn er nur bei einem Bruchteil der Karten genutzt wird? Vermutlich müsste zumindest ein ganzes Segment so geplant werden, also Performance- und High-End-Chips ausschließlich für den paarweisen Betrieb (und nach außen hin als einzelne GPU präsentiert), damit die Herstellung Sinn hat – zwei Chips á 400 mm² statt einer mit 800 mm².

Nun, bei den Speicherinterfaces geht man ja jetzt sehr in die Breite, vielleicht fällt dabei ja noch was ab (ich gehe jetzt allerdings nicht davon aus, dass man ein Speicherinterface so bauen könnte, dass es sich einfach auf Multi-GPU-Kommunikation umschalten lässt).

robbitop
2015-12-18, 12:18:51
Damit das funktioniert, müssten wohl mehrere GPUs auf einen Interposer. Interposer haben auch ihre Grenzen bei der Größe, sind teuer und der Verdrahtungsaufwand ist auch ziemlich teuer. Dazu kommt eine gewisse Redundanz die pro GPU vorliegt.
Willst du HBM + 2x Highend GPUs passt es von der Fläche her nicht auf einen Interposer. Selbst 2 Highend GPUs würden nicht passen. 2x größere Midrange GPUs ohne HBM schon.

Das Konzept geht einfach nicht so richtig auf. Ggf. könnte man 2x Interposer auf ein Package packen und diese durch ihre räumliche Nähe auf dem Package relativ breit anbinden. Dann wäre es "nur noch" sehr teuer. :)

fondness
2015-12-18, 12:30:24
Auch die benötigte Siliziumfläche für das Interface ansich pro GPU und der Stromverbrauch wenn da ständig größere Datenmengen hin- und her geschaufelt werden müssen sollte man nicht unterschätzen. INsgesamt lohnt sich das wohl schlicht nicht.

Gast
2015-12-18, 12:43:52
Seit Fury ist die von AMD ausgerufene Strategie der kleinen dies doch sowieso Geschichte.

Commander Keen
2015-12-23, 00:09:20
Es geht mir primär darum zu sehen, wie ein SLI aus zwei Mittelklassekarten skaliert. Aber nein, und um aufkrawall zu beruhigen, ich tendiere ganz klar zu einer 980 Ti :freak:

Alternativ evtl. auch eine 980 non ti, wenn die mal günstig irgendwo abgestossen wird. Bei Tis braucht man auf Schnäppchen gar nicht hoffen, da gibt es im Luxx so Knaller, die bieten die zum Neupreis an, weil sie einen ASIC-Wert von 76,5% hat. Und dann rummaulen, wenn andere Nutzer fragen ob er noch alle Tassen im Schrank hat (nicht ich, keine Sorge).

Zur Ehrenrettung des Luxx sei gesagt, dass da am MP keineswegs nur Spinner unterwegs sind, sondern auch ganz coole Leute. Na jedenfalls musste ich angesichts der Attraktivität des Angebotes und meines Urlaubbeginns dann doch noch vor Weihnachten aktiv werden und hab seit heute eine EVGA 980 Ti Superclocked+ ACX 2.0+ im Rechner stecken.

Damit hat sich das Thema SLI für mich zwar erledigt, trotzdem danke an alle, die sich beteiligt haben und noch eine gute Weihnachtszeit ;)

Schrotti
2015-12-23, 00:13:57
Ich hatte auch mit dem Gedanken gespielt meine beiden 980er zu verticken und eine Titan X zu nehmen.

Nur ist die in 4K langsamer als zweit GTX 980 auf Dope (GPU Takt @1400MHz oder höher).

vinacis_vivids
2016-01-01, 11:25:48
Schmeiß die zwei 980er raus. Die 4 GiByte sind zu mickrig bei 4k.
Jetzt gibs noch n guten Kurs und Die Titan gibs auch gebraucht.

SLIKnight
2016-01-01, 13:50:02
Trading GPU power for VRAM seems like a questionable move IMO.
One Titan X won't be sufficient at 4K in many games anyway.
980 Ti SLI is by far the best "compromise" regarding price and performance.

PHuV
2016-01-01, 15:09:58
Nur ist die in 4K langsamer als zweit GTX 980 auf Dope (GPU Takt @1400MHz oder höher).
Jedoch bremst wieder der zu kleine Ram von 4 GB. Ich stelle immer wieder mit Verblüffung fest, wie schnell 4-6GB VRAM mit 4K von aktuellen Spielen geknackt wird. Ich wollte beispielsweise meinem Kurzen auch eine Nvidia-Karte gönnen, aber was sind die Alternativen? 960 4GB zu schwach, 980 nur 4 GB und zu teuer, 970 preislich ok, aber nur 3,5 GB, so wurde es dann für ihn doch eine AMD R0 390 mit 8 GB für 299 €. So was hat Nividia leider aktuell nicht in peto.

Cod AV2 hat sogar in 1080p mal 11 GB VRAM belegt. Daher würde ich Dir auch eher eine Titan X den 2x980 mit nur 4 GB nahelegen. Selbst die 6 GB von der 980 TI finde ich einen Witz für 4k.
Trading GPU power for VRAM seems like a questionable move IMO.
One Titan X won't be sufficient at 4K in many games anyway.
980 Ti SLI is by far the best "compromise" regarding price and performance.
C'mon, I'm playing 4k for over 15 month, and the almost all games are running fine, when there is enough VRAM. Stuttering during games with less VRAM in SLI is worse than not enough GPU-Power. I watched that most games come very fast over 4-6GB VRAM, so I don't understand that Nvidia have only the 980 TI with 6 GB. 6GB is for 4k not enough. The only alternative for good 4k SLI is only the Titan X, or Nvidia decides to set a 970,980 (TI) with 8GB or more VRAM.

SLIKnight
2016-01-01, 17:27:45
Show me a game, which needs more than 6GB at 4K :)
Even with 3840x2400 and 2xTXAA, Watch Dogs only uses around 5GB VRAM.

And what does "running fine" mean, I need at least 50-60 FPS or better personally.

Edit:
COD AV2 probably just streams as much into memory as possible.
That doesn't necessarily mean there is any difference in stuttering or gameplay behavior between 6GB and 12GB VRAM.

PHuV
2016-01-01, 22:06:59
Show me a game, which needs more than 6GB at 4K :)
Even with 3840x2400 and 2xTXAA, Watch Dogs only uses around 5GB VRAM.

Of course:

Far Cry 4
Call of Duty Black Ops 2 (even in 1080p over 11 GB)
Star Wars Battlefront

I have a Logitech G19 Keyboard, and I'm monitoring all the time values like CPU-/RAM-/VRAM-Usage + temperatures over AIDA64 Extreme during a game. VRAM is acutally the most interessing one.

4Fighting
2016-01-01, 22:20:58
Of course:

Far Cry 4
Call of Duty Black Ops 2 (even in 1080p over 11 GB)
Star Wars Battlefront

I have a Logitech G19 Keyboard, and I'm monitoring all the time values like CPU-/RAM-/VRAM-Usage + temperatures over AIDA64 Extreme during a game. VRAM is acutally the most interessing one.

You may add Lords of the Fallen and Arkham Knight to this list. I think HisN did already post some screenshots of the VRAM usage here

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823&page=21

captain_drink
2016-01-01, 22:26:44
These games don't "need" those amounts of VRAM though (except for Arkham Knight I reckon), they just happen to use it, which is something entirely different.

SLIKnight
2016-01-02, 00:05:40
Of course:

Far Cry 4
Call of Duty Black Ops 2 (even in 1080p over 11 GB)
Star Wars Battlefront

I have a Logitech G19 Keyboard, and I'm monitoring all the time values like CPU-/RAM-/VRAM-Usage + temperatures over AIDA64 Extreme during a game. VRAM is acutally the most interessing one.

You may add Lords of the Fallen and Arkham Knight to this list. I think HisN did already post some screenshots of the VRAM usage here

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=298823&page=21

This is complete BS.

I play Far Cry 4 at 3840x2400 with maximum ingame settings (all gameworks settings enabled) and the game only uses around 4.5-5GB VRAM.
Smooth as butter on my 980 Ti 2-way SLI system.

Arkham Knight uses around 5GB VRAM at 3840x2400 with maximum settings and ingame SMAA.
Also very smooth without stuttering in Single GPU mode (45-65 FPS).

And Star Wars: Battlefront runs at around 90-130 FPS at 1920x1200 with 200% SSAA, Ultra settings and FOV=74 (Full 40 player Supremacy mode).
Also without any hitching or stuttering.

So your 12GB VRAM theory is utterly wrong.
These games just loads more stuff into video memory if you have more memory, that is all.

Schrotti
2016-01-02, 00:18:26
Schmeiß die zwei 980er raus. Die 4 GiByte sind zu mickrig bei 4k.
Jetzt gibs noch n guten Kurs und Die Titan gibs auch gebraucht.

Sagt sich so leicht.

Für mehr als je 300-350€ werde ich die doch nicht los (umgebaut auf Wakü).

Macht dann schlappe 600€ (bezahlt wurden über 1000€). Fehlen dann locker flockig 400€ und die Performance ist auch noch schlechter.

www.toptengamer.com/titan-x-vs-980-sli-benchmark-performance-comparison

SLIKnight
2016-01-02, 00:26:31
http://www.guru3d.com/articles-pages/zotac-geforce-gtx-980-ti-amp-extreme-review,1.html

My babies :)

frix
2016-01-03, 20:49:33
hatte mich eine weile nicht mit hardware auseinander gesetzt und stelle mir zurzeit ein neues system zusammen.
Da ich mir die option für SLI offen halten wollte liest sich das ganz hier ja eher ernüchternd.

Rein fürs gaming würde ich mir dann wohl kein SLI anschaffen. Brauch 4k erstmal nicht.

Wo es aber richtig rocken würde ist beim GPU Rendering.
Gibt immer mehr GPU renderer auf dem markt (Octane, iray,...).

HisN
2016-01-04, 00:25:38
Aber is schon klar, dass man dafür kein SLI braucht, sondern die Karten einfach nur so in den Rechner steckt :-)


http://abload.de/thumb/non_sli_renderhzf0w.jpg (http://abload.de/image.php?img=non_sli_renderhzf0w.jpg)

Gast
2016-01-04, 02:01:18
Sagt sich so leicht.

Für mehr als je 300-350€ werde ich die doch nicht los (umgebaut auf Wakü).

Macht dann schlappe 600€ (bezahlt wurden über 1000€). Fehlen dann locker flockig 400€ und die Performance ist auch noch schlechter.

www.toptengamer.com/titan-x-vs-980-sli-benchmark-performance-comparison

Eine übertaktete Ti und Gsync wird sich bei gleicher BQ immer besser anfühlen als 2x980 oder 1*Tx ohne Gsync- ungeachtet des Framecounters! Ich denke, dass die 980er in Egay jeweils zu 350-400 Teuronen verkauft werden könnten. Nur so eine Idee ...

frix
2016-01-04, 13:12:51
Aber is schon klar, dass man dafür kein SLI braucht, sondern die Karten einfach nur so in den Rechner steckt :-)


http://abload.de/thumb/non_sli_renderhzf0w.jpg (http://abload.de/image.php?img=non_sli_renderhzf0w.jpg)

ne ich mein richtiges rendern des finalen bildes. Nicht das echtzeit viewport preview.
https://www.youtube.com/watch?v=kQySTybRM9U

Sven77
2016-01-04, 13:30:42
ne ich mein richtiges rendern des finalen bildes. Nicht das echtzeit viewport preview.

Auch dafür brauchst du kein SLI

frix
2016-01-04, 16:59:47
ihr wollt mich einfach falsch verstehen oder :D ?

Brauchen tut mans nicht. Aber bringen tuts da ordentlich was.

Sven77
2016-01-04, 17:29:35
ihr wollt mich einfach falsch verstehen oder :D ?

Brauchen tut mans nicht. Aber bringen tuts da ordentlich was.

Nein du verstehst falsch.. wenn man mit 4 Grafikkarten im Rechner Octane oder ähnliches rendert hat das nichts mit SLI zu tun. Es wird kein SLI benutzt, das Board muss es nicht unterstützen..

frix
2016-01-04, 21:16:19
Nein du verstehst falsch.. wenn man mit 4 Grafikkarten im Rechner Octane oder ähnliches rendert hat das nichts mit SLI zu tun. Es wird kein SLI benutzt, das Board muss es nicht unterstützen..

Oh dann hab ichs nicht verstanden. Das war mir nicht klar. Dem renderer machts aber auch nichts aus wenn sie im sli betrieben werden?. Ist sli mit mehr als zwei karten denn möglich?

aufkrawall
2016-01-04, 21:17:48
Ja.
Aber ich würde es so formulieren: Mit jeder weiteren Karte nimmt der Spaßfaktor exponentiell ab.

HisN
2016-01-05, 01:03:59
Zur Zeit ist 4 das Ende der Fahnenstange, während Du ja locker 7 Grakas in einen Rechner gesteckt bekommst (Single-Slot^^)