PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 970 GTX SLI in Verbindung mit i7 2600k - sinnvoll?


Dunkelwald
2014-10-21, 09:49:07
Hallo,

ich spiele mit dem Gedanken mein derzeitiges System (i7 2600k @ 4.3 GHZ, 670 GTX) auf dual SLI mit zwei 970ern aufzupolieren. Lohnt sich das oder ist die CPU dafür zu schwach? Ich nutze viel 3D Vision und kann die Leistung also durchaus brauchen.

Falls ja, zu welcher 970 würdet ihr greifen? Gibt es OC Modelle, die trotzdem noch einigermaßen leise und preiswert sind?

Blackhand
2014-10-21, 10:15:30
Natürlich, mit DSR wirste schon immer irgendwie ins GPU-Limit kommen und ein ein i7 2600k ist jetzt auch nicht gerade schwach. Oder du holst dir einen 4k-Monitor, dann sollte das auch nicht das Problem sein.

Lowkey
2014-10-21, 10:43:34
Schau dir mal die Benchmarks mit DDR-2400 und SLI an ;)
Und schau dir dein Mainboard an, ob es dann PCI-E 2.0 8x auf beiden Slots haben wird. Bei einer dritten PCI-E Karte (Sound...) wird es noch langsamer.

Aber gestern stand hier im Forum, dass sich SLI mit den 970ern deswegen nicht lohnt, weil die Spiele seltenst daraufhin optimiert wurden. Das kommende Oculus Rift SLI Feature ist interessant, aber funktioniert wohl noch nicht.

Deisi
2014-10-21, 11:01:23
Mit 3D Vision brauchst du ja eh ca die doppelte Leistung, da wäre SLI auf jeden Fall eine Überlegung wert. Mit einem 2600k oc bist du immer noch gut dabei und bei den wenigsten Spielen ins CPU Limit kommen.

Dunkelwald
2014-10-21, 11:09:38
Schau dir mal die Benchmarks mit DDR-2400 und SLI an ;)
Und schau dir dein Mainboard an, ob es dann PCI-E 2.0 8x auf beiden Slots haben wird. Bei einer dritten PCI-E Karte (Sound...) wird es noch langsamer.

Ich habe das ASRock Z77 Extreme 3 Board, da sollte das wegen der Slots kein Problem darstellen.

Aber gestern stand hier im Forum, dass sich SLI mit den 970ern deswegen nicht lohnt, weil die Spiele seltenst daraufhin optimiert wurden. Das kommende Oculus Rift SLI Feature ist interessant, aber funktioniert wohl noch nicht.

Hmm, ok, allerdings zeigten die Benchmarks, die ich bisher zu dazu gesehen habe (alle mit stärkerer CPU allerdings) nen deutlichen Leistungssprung bei vielen Spielen mit SLI verglichen zur single GPU. Ist es denn wichtig dass Spiele darauf hin explizit optimiert werden? Sry wegen der vielleicht doofen Fragen, aber ich bin noch SLI-Einsteiger. :wink:

Deisi
2014-10-21, 11:14:41
Hmm, ok, allerdings zeigten die Benchmarks, die ich bisher zu dazu gesehen habe (alle mit stärkerer CPU allerdings) nen deutlichen Leistungssprung bei vielen Spielen mit SLI verglichen zur single GPU. Ist es denn wichtig dass Spiele darauf hin explizit optimiert werden? Sry wegen der vielleicht doofen Fragen, aber ich bin noch SLI-Einsteiger. :wink:

Nicht ganz, aber dir sollte vorher klar sein, dass du nicht 100% der Spiele auch mit SLI spielen kannst oder du ggf. etwas warten musst auf einen angepassten Treiber/Patch.

robbitop
2014-10-21, 11:48:34
Würde ich nicht machen.

Sandy Bridge hat nur 2x PCIe2.0 mit je 8x Lanes. Die SLI Brücke wird unter normalen Umständen (kein G-Sync Monitor, kein DSR) den PCIe entlasten und damit wäre alles gut. Sobald aber DSR zum Einsatz kommen soll, wird der Framebuffertransfer auf den PCIe geschoben.

Und sobald der Transfer nicht mehr über die Brücke läuft, sondern über PCIe, verliert man richtig Leistung. Erst ab 2x PCIe3.0 mit 16 Lanes scheint es keinen Leistungsabfall mehr zu geben.
Davon wäre hier aber nur 1/4 der Bandbreite gegeben.

Es gibt noch ein weiteres Kriterium, wann dieses Problem entsteht: TXAA. Da läuft der FB Transfer ebenfalls nicht über die Brücke. Bei TXAA muss nicht nur der fertige Framebuffer übertragen werden sondern auch alle Subsamples. Der Bandbreitenbedarf steigt also um die Anzahl der verwendeten Samples. DSR ver-n-facht den Bandbreitenbedarf übrigens auch.

Wenn DSR/G-Sync/TXAA keine Rolle spielen, hast du dieses Problem nicht.

Generell kommen noch folgende Punkte hinzu:

- für mGPU (SLI/CF) brauchst du ein größeres Netzteil
- seit DX11 in Spielen Einzug hällt, gibt es immer mehr Probleme mit den SLI Profilen. Für immer mehr neue Spiele gibt es schlichtweg kein SLI Profil, welches fehlerfrei läuft. Tendenz fallend.
- SLI skaliert natürlich nicht linear. Man bekommt, wenn man ein Spiel spielt, welches mit SLI gut zusammenarbeitet ca +80 % mehr FPS (aber auch nur wenn man entweder 2x 16x PCIe 3.0 Lanes hat - also eine Sockel 2011 Plattform - oder aber weder G-Sync/DSR/TXAA benutzt - sonst nimmt der Zugewinn mit sinkender Bandbreite ab)
- durch prinzipbedingte AFR Frameverteilung fühlen sich bei SLI/CF die Frames nicht so flüssig an wie bei SGPU -> gefühlt hat man also ca. +50 % mehr fps

Die Frage am Ende ist, ob du wirklich bereit bist, den doppelten Preis zu zahlen, dafür dass du ca. +50% mehr gefühlte Leistung bekommst. Sofern das gewünschte Spiel es unterstützt.

Mit deiner aktuellen Plattform (Sandy Bridge) im Falle von DSR/G-Sync/TXAA ist der Zugewinn dann sicherlich eher bei gefühlten 30...40 %.

Ein Enthusiast läßt sich davon nicht abschrecken. Aber IMO sollte man das bedenken.
Ich habe im Sommer auch blind in ein Titan SLI System gekauft und habe mich total gewundert, wieviele Randbedingungen und Einschränkungen es bei SLI gibt.

IMO muss man schon ziemlich doll Enthusiast sein, um mGPU wirklich machen zu wollen. Die LastGen DX9 Zeiten, bei denen praktisch jedes Spiel ein SLI Profil hatte (war einfacher) und der gesamte Traffic über die SLI Brücke lief, sind vorbei.


------------------------------------

falls du dich fragst, warum bei DSR/G-Sync/TXAA der Traffic nicht mehr über die Brücke läuft: Die Brücke ist von 2004 und hat eine Bandbreite von 1 GiB/s. Das reicht aber für die erhöhten Datenmengen nicht mehr. Also schiebt man es auf den PCIe. Der ist aber erst mit 2x PCIe 3.0 16x wirklich schnell genug, damit es ihn gar nicht mehr juckt.
Man muss halt bedenken, dass da noch je nach Szene ordentlich Geometrielast auf dem PCIe liegt, der sich dann mit dem Framebuffertransfer "prügeln" muss.

Dunkelwald
2014-10-21, 12:43:42
@robbitop

Vielen Dank für die Infos! Vieles davon war mir bisher nicht bewusst und ich werde mich definitv nochmal genauer mit der Materie beschäftigen, bevor ich die ~300€ in die 2. Graka investiere. Ich werde wohl jetzt erstmal eine verbauen und dann schauen wie mir das leistungsmäßig taugt.

Max944
2014-10-25, 09:55:16
Dunkelwald, ich habe auch vor eine zweite 970 zu verbauen.

Der i7-2600K hat 16 PCIe 2.0 Lanes die für eine 970 noch prima ausreichen. Bei zwei GPU's wird es allerdings aufgeteilt auf 8x PCIe 2.0 was die Performance der Karten limitiert.

Ich werde mir zu der zweiten 970 G1 einen i7-4790k kaufen. Der hat 16 PCIe 3.0 Lanes, damit haben zwei Karten 8x PCIe 3.0 was 16x PCIe 2.0 entspricht.

Falls ja, zu welcher 970 würdet ihr greifen?


Bei SLI zählt die Kühlleistung und deswegen habe ich mir die Gigabyte 970 G1 bestellt. Wenn dann allerdings nur die G1 wegen den selektierten GPU's (gauntlet sorting).

robbitop
2014-10-25, 10:08:44
10 % verlierst du bei PCIe 3.0 8 Lanes. Man verliert mehr bei PCIe2.0.

Max944
2014-10-25, 10:30:34
10 % verlierst du bei PCIe 3.0 8 Lanes. Man verliert mehr bei PCIe2.0.

Im schlimmsten Fall, aber im Normalfall dürfte es eher 1-2% ausmachen. Dafür bin ich nicht bereit einen Sockel 2011-3 Chip zu kaufen.

Lowkey
2014-10-25, 10:34:22
Wenn man aber das hier ließt: http://www.computerbase.de/2014-10/civilization-beyond-earth-benchmarks-grafikkarten-mantle/

dann will man eher SFR mit AMD probieren als SLI mit 2x9xx. Die Netzteil-Rechner im Netz nehmen die 9xx mit derzeit unterster TDP an und das erzeugt den Eindruck, dass die Karten sparsam seien und im SLI 450 Watt für 2x 970 optimal seien.

Gast
2014-10-25, 11:52:47
Wenn man aber das hier ließt: http://www.computerbase.de/2014-10/civilization-beyond-earth-benchmarks-grafikkarten-mantle/

dann will man eher SFR mit AMD probieren als SLI mit 2x9xx. Die Netzteil-Rechner im Netz nehmen die 9xx mit derzeit unterster TDP an und das erzeugt den Eindruck, dass die Karten sparsam seien und im SLI 450 Watt für 2x 970 optimal seien.
Du kennst aber den Unterschied zwischen SFR und AFR. Was AMD da macht geht zu Lasten der Bildquali. EQAA ja ja. Klar läuft es dann smoother. Wird ja kaum was gefiltert. Zudem müsste man alles auf Mantle optimiert haben, die Spiele die da richtig gut laufen kannst du nicht mal an einer Hand abzählen.

robbitop
2014-10-25, 12:53:51
Im schlimmsten Fall, aber im Normalfall dürfte es eher 1-2% ausmachen. Dafür bin ich nicht bereit einen Sockel 2011-3 Chip zu kaufen.

Grestorn hat es in Shadows of Mordor gemessen. Ohne DSR und GSync ist das kein Thema. Weils über die Bridge läuft. Wenn nicht verliert man mehr als 10 %.

So2011v3 reicht nicht. Es muss auch mind der große 6 Core für 520 € sein. Erst der hat 40 Lanes. Der kleine 6 Core für 340 € hat nur 28 Lanes.
Aber es gibt auch 1050 Boards mit PLX Switch. Also genug Lanes.

Die Frage ist ob man die SLI Nachteile akzeptieren kann (gefühlt nur 50 % Mehrleistung und der Fakt dass es nicht immer ein SLI Profil und damit keine Mehrleistung).

occ-kh@Mirko
2014-10-25, 15:02:08
Wenn man den Test einiger Seiten glaubt, ist ein 970-SLI schneller als eine 295x2 (zum niedrigeren Preis) auch die GTX-Z bleibt auf der Strecke, natürlich mit den 40 verfügbaren PCIe Lanes! Daher würde ich jetzt eher auf eine schnelle Single GPU setzen, wenn der Unterbau so bleiben soll.

Nein, der 2600k Aufbau reicht für ein 970 SLI dann nicht mehr. Wenns Nvidia sein soll, lieber eine GTX980 nehmen und ordentlich (stabil) OC. Das dürfte billiger als ein 970-SLI sein, zudem weniger problembehaftet. Du hast ja eine GTX 670, das dürfte dann erstmal reichen.

Wenn Dir die Karte ansich egal ist, alternativ mal eine 290x ansehen! Der Preis ist derzeit Hammer (um 299) oder auf GM200 oder Fuji etc. warten. Aber das wird wohl teuer! (oder teurer)

Ansonstenm musst du Dir überlegen grundsätzlich etwas neues anzuschaffen.

Max944
2014-10-25, 18:05:35
Erst der hat 40 Lanes.

Ja, den meinte ich auch.

Aber es gibt auch 1050 Boards mit PLX Switch. Also genug Lanes.

Meintest du vielleicht Sockel 1150? Ich hab ein Gigabyte GA-Z68X-UD7-B3 das zwei 16x PCIe 2.0 Steckplätze hat.

Die Frage ist ob man die SLI Nachteile akzeptieren kann (gefühlt nur 50 % Mehrleistung und der Fakt dass es nicht immer ein SLI Profil und damit keine Mehrleistung).

Ich habe SLI schon seit fast einer Dekade. Angefangen mit einer 7950 GX2, GTX 295, GTX 580 2-Way SLI und mit der GTX 970 wird es auch wieder mindestens 2-Way SLI.

occ-kh@Mirko
2014-10-25, 18:22:12
Die Karten könnten nur über 2x8 Lanes angeschlossen werden (die Anzahl der reinen PCIe 16x Steckplätze sind dabei völlig irrrelvant). Da du ggf. den NF200 von Nvidia auf dem Bord hast (Revision B3?) müsste ein SLI mit voller PCIe-Bandbreite laufen (2x16Lanes). Dann dürfte das SLI zweifelsfrei gehen! Der i7 2600k schafft das.

Meine obige Aussage muss ich dann zurücknehmen.;) Los gehts!

Max944
2014-10-25, 20:30:16
Es ist ein GA-Z68X-UD7-B3 mit NF200. Wie können zwei Karten mit 16x laufen wenn der i7-2600K insgesamt nur 16 Lanes hat? Bei zwei Karten müssten sich die 16 Lanes von der CPU doch in zweimal 8 aufteilen, oder nicht?

Falls das doch funtioniert, weiß jemand ob es solch ein Feature auch beim 1155 Sockel Z97 Chipsatz gibt? Ich wollte auf einen i7-4790K aufrüsten und zwei 16x mit PCIe 3.0 wären sehr nice.

Gast
2014-10-26, 02:04:29
@robbitop und @Mirko deuten es bereits an, der NF200 oder PLX stellen weitere 32 PCIe Lanes zur Verfügung, es geht wie sie beschreiben, du kannst dein SLI ohne Einbussen an der PCIe-Lane-Verfügbarkeit betreiben.

Das Gigabyte in R3 und Boards mit dem PLX sind kompatibel. Alles gut. @robbitop hattenders gewählt. Wie @Blaire schreibt wird aber noch ein Treiberupdate zwecks DSR+Gsync folgen. Macht Euch nicht verrückt.

Nightspider
2014-10-26, 02:42:13
@TS: Du kannst dir auch jetzt SLI holen und in ~9 Monaten eine Skylake Plattform nachrüsten. Dann gibts für alle mehr Lanes im Mainstream-Segment.

Würde ich nicht machen.

Er spielt in 3D und würde ~60-70% mehr Leistung haben. Nur 50% sind übertrieben.

Wenn er in 3D spielt braucht er auch kein DSR und G-Sync wird er auch nicht haben. Wenn er auf TXAA verzichten kann passt das also.


Es gibt noch ein weiteres Kriterium, wann dieses Problem entsteht: TXAA. Da läuft der FB Transfer ebenfalls nicht über die Brücke. Bei TXAA muss nicht nur der fertige Framebuffer übertragen werden sondern auch alle Subsamples. Der Bandbreitenbedarf steigt also um die Anzahl der verwendeten Samples. DSR ver-n-facht den Bandbreitenbedarf übrigens auch.

War das bei Assassins Creed 4 auch schon so?

robbitop
2014-10-26, 11:37:50
Er spielt in 3D und würde ~60-70% mehr Leistung haben. Nur 50% sind übertrieben.

Achso. GPU 1 Berechnet Frame fürs linke Auge und GPU 2 für das rechte Auge? Das müsste - wenn die CPU schnell genug oder Auflösung hoch genug - nahezu perfekt skalieren und kein µ-Ruckeln erzeugen. Dann ist die Skalierung um so besser. Und dann muss auch nicht so viel an Datenmenge zwischen den GPUs hin und hergeschaufelt werden. :)


War das bei Assassins Creed 4 auch schon so?
Betrifft alle Spiele mit TXAA Implementierung.


Trotz PLX Bridge ein Einwurf: PCIe 2.0 16x Lanes ist nur auf dem Level von PCIe 3.0 8x. Zwar nicht katastrophal - aber im 2D SLI kombiniert mit G-Sync/DSR trotzdem eine leichte Handbremse dann.

Erst PCIe 3.0 mit 16x Lanes bietet genug Bandbreite.

occ-kh@Mirko
2014-10-26, 13:53:10
PCIe 2.0 16x Lanes ist nur auf dem Level von PCIe 3.0 8x
Nicht ganz aber fast.;)

PCIe2.x=16x=80GT/s=8.00GByte/s*
PCIe3.0= 8x=64GT/s=7.88GByte/s*
(*netto Bandbreite je ->)

Wobei die 16Lanes der CPU dem Slot 1 zugeordnet werden und 16Lanes des PLX dem Slot wo die andere Karte steckt (optional 2, 3, 4). Sicherlich ist PCIe3.0 im Endeffekt schneller, aber die 970 dürften damit womöglich auskommen. Muss man mal Probieren.

Bei der 680 - PCIe2.x-SLI gabs kaum Einbußen hin zu PCIe3.0-SLI.

robbitop
2014-10-26, 16:07:39
Solange die Brücke benutzt wird, gibts keine Einbußen. Sobald nicht (DSR/GSync/TXAA) hingegen schon. Darüber müssen wir auch nicht mehr diskutieren. Das haben wir vermessen und ist somit Fakt.

Gast
2014-10-26, 16:33:17
Und andere haben auch schon vermessen das es ohne GSync++ schei*egal ist: http://www.computerbase.de/2013-01/bericht-pcie-3.0-vs-pcie-2.0/5/

AMD leidet etwas, Nvidia kaum oder minimal.

Wird GSync durch den Treiber unter SLI bisher überhaupt unterstützt? Da kannst du messen was willst, wenn GSync dir die andere Karte aushebelt und entsprechende SLI Profile oder Optimierungen fehlen.

robbitop
2014-10-26, 16:45:47
Schau dir die Messungen und den Thread an. Da steht alles was du wissen musst.
An der Frage sehe ich, dass dir ein paar Hintergrundinfod fehlen. :)
In kurz: es reicht schon, wenn der Treiber das Gsync Modul detektiert. Haben wir reproduzierbar gemessen gegen Non GSync Monitore. Und ja: Gsync und SLI gehen. Sehen kann man es beim rog swift an der roten LED die leuchtet sobald gsync an ist.
Sobald gsync detektiert wird oder TXAA genutzt wird oder DSR fällt bei SLI die Brücke weg und die PCIe Last steigt - das drückt nachweislich auf die Skalierung.
Erst PCIe 3.0 16x hat genung Bandbreite, damit es keine Performanceeinbußen mehr gibt. (Wenn die Brücke nicht benutzt werden kann)

Blaire
2014-10-26, 17:20:38
In kurz: es reicht schon, wenn der Treiber das Gsync Modul detektiert. Haben wir reproduzierbar gemessen gegen Non GSync Monitore. Und ja: Gsync und SLI gehen. Sehen kann man es beim rog swift an der roten LED die leuchtet sobald gsync an ist.
Sobald gsync detektiert wird oder TXAA genutzt wird oder DSR fällt bei SLI die Brücke weg und die PCIe Last steigt - das drückt nachweislich auf die Skalierung.

Einzig G-Sync läuft über PCIe-Bus, das kann einen minimalen Performance-Impact zur Folge haben, ist so gewollt und auch kein Problem.
DSR-Feature + SLI Support über PCIe-Bus wird vom Treiber noch nicht unterstützt (was für G-Sync Monitore nötig) und soll später folgen.
TXAA kann stärker auf die PCIe-Bandbreite drücken ja, das ist aber wieder ein ganz anderes Thema, sollte man nicht vermischen.

Gast
2014-10-26, 18:28:18
An der Frage sehe ich, dass dir ein paar Hintergrundinfos fehlen. :)
Sicher nicht, so nett wie du das auch ausdrücken willst. Es ist eher anders herum.

Den Thread habe ich gelesen. Den Rest hat @Blaire bereits beantwortet. Vielleicht kann man @CB animieren ihren PCIe2.0/3.0 Vergleichstest noch mal mit neueren GPU-Messergebnissen zu updaten, oder vielleicht macht ihr das mal selbst (würde deinen Thread dann ja auch sinnvoll ergänzen, die Gen kannst du ja mittels Speed im @Bios deines MB auswählen). Ohne den/die angepassten Treiber werden bestimmte Feature eben nicht unterstützt! Vielleicht sollte man einfach warten bis nV diesen nachschiebt und sich dann ein Bild machen.

Dem @TS ging es ja um ein 970-SLI auf dem GA-Z68X-UD7-B3 mit NF200 und erstmal nicht um G-Sync. Das SLI läuft auf dem GA-Z68X-UD7-B3 so wie es hier schon beschrieben wurde. 1x wird x16 durch die Sandy-Bridge-CPU und 1x wird x16 über den NF200 bereitgestellt. Die Bandbreite müsste dem Zweck entsprechend dann ausreichen. Irgendwann würde unter gewissen Umständen sowieso der 2600k limitieren.

Dein Thread+Ergebnis ist so gesehen ein berechtigter Fingerzeig, aber als etwas Abschließendes kann man das so nicht sehen und schon gar nicht auf alles und jeden bzw. dessen Bedürfnisse ummünzen. Darauf hinweisen macht sicherlich Sinn.

Falls das doch funktioniert, weiß jemand ob es solch ein Feature auch beim 1155 Sockel Z97 Chipsatz gibt? Ich wollte auf einen i7-4790K aufrüsten und zwei 16x mit PCIe 3.0 wären sehr nice.
Nicht wirklich, eher für 4mal-x8 (2xPCIe3.0x8; 2xPCIE2.1x8, also 4 Grafikkarten, wobei dann 2 zuweilen mit dem PCIe2.0/2.1 Standard angebunden werden). Daher kauf Dir deine zweite 970 dass passt bei Dir schon! Der Rest ist in Arbeit. Dein 2600k geht mittels Overclocking sowieso weiter als jeder 4790k. Wenn Du hauptsächlich spielen willst, reicht der noch eine ganze Weile. Ich würde dann auf Skylake warten, oder sehen was AMD so anbieten will.

Nightspider
2014-10-26, 18:45:05
Einzig G-Sync läuft über PCIe-Bus, das kann einen minimalen Performance-Impact zur Folge haben, ist so gewollt und auch kein Problem.
DSR-Feature + SLI Support über PCIe-Bus wird vom Treiber noch nicht unterstützt (was für G-Sync Monitore nötig) und soll später folgen.
TXAA kann stärker auf die PCIe-Bandbreite drücken ja, das ist aber wieder ein ganz anderes Thema, sollte man nicht vermischen.

Warum ist das gewollt und warum soll der Rest folgen? Wozu hat man dann die SLI Brücken noch verbaut? Diesen Vorteil schon vorab per Treiber zu deaktivieren ist doch schwachsinn wenn es dafür keinen ordentlichen Grund geben sollte.

Zumal eine Karte sogar 2 SLI Connectoren hat. Wieso nicht beide für 2 karten nutzen = 2GB/s?

Und wieso baut Nvidia nicht einen schnelleren Anschluss? Wenn dieser hier von 2004 und damit 10 Jahre alt ist sollte es doch nicht schwierig sein für 2-4GB/s einen recht günstigen Anschluss zu entwerfen? :confused:

robbitop
2014-10-26, 19:39:59
Sicher nicht, so nett wie du das auch ausdrücken willst. Es ist eher anders herum.

Den Thread habe ich gelesen. Den Rest hat @Blaire bereits beantwortet. Vielleicht kann man @CB animieren ihren PCIe2.0/3.0 Vergleichstest noch mal mit neueren GPU-Messergebnissen zu updaten, oder vielleicht macht ihr das mal selbst (würde deinen Thread dann ja auch sinnvoll ergänzen, die Gen kannst du ja mittels Speed im @Bios deines MB auswählen). Ohne den/die angepassten Treiber werden bestimmte Feature eben nicht unterstützt! Vielleicht sollte man einfach warten bis nV diesen nachschiebt und sich dann ein Bild machen.

Dem @TS ging es ja um ein 970-SLI auf dem GA-Z68X-UD7-B3 mit NF200 und erstmal nicht um G-Sync. Das SLI läuft auf dem GA-Z68X-UD7-B3 so wie es hier schon beschrieben wurde. 1x wird x16 durch die Sandy-Bridge-CPU und 1x wird x16 über den NF200 bereitgestellt. Die Bandbreite müsste dem Zweck entsprechend dann ausreichen. Irgendwann würde unter gewissen Umständen sowieso der 2600k limitieren.

Ganz im Gegenteil? An Selbstbewußtsein fehlt es dir nicht. Dann lass mal hören, welche Hintergrundinfos du zu haben glaubst, die mir fehlen. Ich bin gespannt. :)

Ich habe nicht gesagt, dass es dem TS um Gsync geht, sondern habe nur auf die Restriktionen hingewiesen falls sie mal relevant werden. Wenn nicht - um so besser.

robbitop
2014-10-26, 19:45:27
Einzig G-Sync läuft über PCIe-Bus, das kann einen minimalen Performance-Impact zur Folge haben, ist so gewollt und auch kein Problem.
DSR-Feature + SLI Support über PCIe-Bus wird vom Treiber noch nicht unterstützt (was für G-Sync Monitore nötig) und soll später folgen.
TXAA kann stärker auf die PCIe-Bandbreite drücken ja, das ist aber wieder ein ganz anderes Thema, sollte man nicht vermischen.

Der Framebuffertransfer läuft bei Erkennung eines GSync Monitors über den PCIe.

Wir haben bei Grestorn gemessen, dass die Differenz schon ab PCIe 3.0 mit 8x Lanes auf ca. 10 % kommt ggü 16 Lanes oder aber 8 Lanes ohne GSync Monitor. Für den Falle der Viertelung (8 Lanes PCIe 2.0) wird es eher stärker.

Ob das "kein Problem" oder "minimal" ist, muss jeder selbst wissen. Zahlen haben wir ja.

Blaire
2014-10-26, 19:47:58
Warum ist das gewollt und warum soll der Rest folgen? Wozu hat man dann die SLI Brücken noch verbaut? Diesen Vorteil schon vorab per Treiber zu deaktivieren ist doch schwachsinn wenn es dafür keinen ordentlichen Grund geben sollte.

Ich verstehe die Frage nicht? :confused: Was soll denn mit den SLI-Bridges nicht stimmen? SLI Support für DSR + G-Sync gleichzeitig, wird vom Treiber nicht unterstützt, das ist auch schon alles. Keine Ahnung was da jetzt das Problem sein soll?

robbitop
2014-10-26, 19:54:08
Naja davon abgesehen, dass es der SLI Bridge an Bandbreite fehlen würde. 1 GB/s reicht gerade mal für 1440p. Wenn man jetzt DSR anbieten will, vervierfacht sich der Bandbreitenbedarf.

Es sieht tendenziell so aus als würde NV mittelfristig alles auf PCIe schiebt. Hat AMD auch gemacht. ;)

Gast
2014-10-26, 20:15:46
Ganz im Gegenteil? An Selbstbewußtsein fehlt es dir nicht. Dann lass mal hören, welche Hintergrundinfos du zu haben glaubst, die mir fehlen. Ich bin gespannt. :)
Antwort:
Was meinst du eigentlich mit SLI Support seitens NV? Ich bin in der "Szene" extrem neu und habe praktisch keine Ahnung! Plaudere mal ein wenig aus dem Nähkästchen.
Habs mal mit deinen eigenen Worten versucht auszudrücken.

Achja: warum postest du eigentlich als Gast, Memoal? Wegen deiner Sperrung?
Was willst du mir damit sagen?

Das zeigt das du wahrscheinlich nicht weißt wie ein Netzwerk funktionieren kann http://www.ripe.net/. Aber schön das man sich die IP-Adressdaten von einem Zugangsknotenpunkt mal genauer anguckt! http://www.ripe.net/ Könnte ja irgend jemand interessieren! Frag mich bloß wozu? Wie willst du 70000 Anschlüsse zuordnen können. Eine Diskussion um ein Gigabyteboard und dessen Möglichkeit ein SLI zu betreiben endet in einem für mich nicht nachvollziehbaren Vorwurf. Klick ruhig noch mal drauf und sieh dich um. Ich hab dazu mal ein Log angelegt. Weiß ja nicht was Du da gerade machst.

robbitop
2014-10-26, 20:30:37
OK also keine technischen Argumente zum Thema. Soviel dazu. *gähn*
Melde dich sobald du Dinge zu SLI sagen kannst, die neu für mich sein könnten deiner Meinung nach.

occ-kh@Mirko
2014-10-26, 23:26:00
OK also keine technischen Argumente zum Thema. Soviel dazu.
Ein bestimmter Teil des Datenaustausch wird doch schon seit längerem über das PCIe Interface geschoben (um nicht zu sagen seit Jahren!). Man konnte früher die Brücke sogar abziehen.


Die Bandbreite reicht eigentlich für ganz andere Sachen. Nur mal schnell gegoogelt:
http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/1#.VE1k8cIwdmI
http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/News/GTX-780-4-Way-SLI-INF-Datei-Treibermodifikation-1080828/
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/News/Geforce-Titan-LN2-Overclocking-1056874/

Das man sich bei Äußerungen und dem schlechten Funktionsumfang des eigenen SLI betroffen fühlt ist wieder ein anderes Thema. Wie man aber oben lesen kann gibt es ganz nette Spielereien. Der Treiber wird kommen, wurde ja nun nochmal bestätigt.

Der Rest ohne Kommentar. Lesen und zuordnen? Finde es ohne Grund daneben.

robbitop
2014-10-27, 06:51:00
Ein bestimmter Teil des Datenaustausch wird doch schon seit längerem über das PCIe Interface geschoben (um nicht zu sagen seit Jahren!). Man konnte früher die Brücke sogar abziehen.
Das ist ein alter Hut. Aber bis dato wurde immerhin der Framebuffertransfer (und gerade der kostet ja richtig Bandbreite) über die Brücke durchgeführt.

Long story short:
Der User hier hat dank PLX Bridge einen Vorteil. Aber noch nicht auf dem Level dass es bei G-Sync/DSR/TXAA keine Flaschenhälse geben sollte. Und das will gesagt werden und entspricht der Wahrheit.

SLI/Crossfire ist per se nicht schlecht - hat aber wesentliche Restriktionen, die jeder wissen sollte, bevor er die Entscheidung trifft, so viel Geld auszugeben. Da braucht man nicht gegen anzureden.




Die Bandbreite reicht eigentlich für ganz andere Sachen. Nur mal schnell gegoogelt:
http://www.hardocp.com/article/2013/04/22/nvidia_geforce_gtx_titan_3way_sli_review/1#.VE1k8cIwdmI
http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/News/GTX-780-4-Way-SLI-INF-Datei-Treibermodifikation-1080828/
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/News/Geforce-Titan-LN2-Overclocking-1056874/

Das man sich bei Äußerungen und dem schlechten Funktionsumfang des eigenen SLI betroffen fühlt ist wieder ein anderes Thema. Wie man aber oben lesen kann gibt es ganz nette Spielereien. Der Treiber wird kommen, wurde ja nun nochmal bestätigt.

Davon abgesehen, dass 3-Way und 4-Way AFR noch schlechter funktioniert als 2-way: der Bandbreitenbedarf pro Slot steigt dadurch nicht. (Ausnahme der von der GPU1 - aber eben begrenzt)
Außerdem läuft auch bei 3-way SLI der Framebuffertransfer normalerweise über die Brücke, was den PCIe entlastet.

Bei der Nutzung von DSR, TXAA und G-Sync aber eben nicht mehr. Weil die Brücke nicht mehr zeitgemäß ist. Also schiebt man den Verkehr auf den PCIe.

Es ist schade, dass NV seit 10 Jahren (AMD ist nicht besser! - die haben die Brücke gänzlich fallen gelassen) die SLI Brücke nicht upgedatet hat. Dann hätte man diesen Effekt vermeiden können.
Es ergibt, wenn man sich den Markt so ansieht, einfach Sinn. Je mehr Leute die Voraussetzung haben, SLI ohne Performanceeinbußen einzusetzen desto besser.

Hier im Forum wird man aber von einigen SLI Leuten schon nicht mehr ernst genommen, sobald man nicht die absoluten Enthusiastkomponenten hat - egal welche technischen Argumente vorhanden sind.

Mit einer anständigen Brücke könnte man SLI sogar für Sandy Bridge Käufer ohne PLX Switch empfehlen. Auch bei Nutzung von G-Sync/DSR/TXAA.
So könnte NV mehr Karten verkaufen. Das wäre sicher in ihrem Sinne.

Ich kann dieses Sinnlos-Gehabe ehrlich gesagt nicht mehr lesen. Sinnvoll wäre rein auf technischer Ebene darüber zu diskutieren.


Der Rest ohne Kommentar. Lesen und zuordnen? Finde es ohne Grund daneben.


Immer dieses Aufgespiele von Leuten, die "Jahre" SLI Erfahrung haben und die Messungen im Nebenthread klein-/ wegreden zu versuchen. Und am Ende steckt wenig dahinter. SLI ist kein Thema, das großartig von "Erfahrung" profitiert. Es ist jetzt nicht irgendeine Raketenwissenschaft sondern eigentlich ein recht einfaches Verfahren.

occ-kh@Mirko
2014-10-27, 10:22:02
@robbitop
Das ist zwar weit offtopic aber du weisst schon das einige PLs als reserviert gelten, heißt Pins noch garnicht in Benutzung sind? Wenn die treiberseitige Priorisierung des Datenverkehrs (Optimierung=Vorrang) fehlt, kann die Bandbreite nicht sinnvoll genutzt werden. Was das alles mit der Brücke zu tun haben soll, ich weiss es wirklich nicht und tappe im dunkeln.

AMD liefert im Enthusiastbereich (AM3+) nicht mal PCIe3.0! Wenn dann mit irgendwelchen zusammen gefrickelten Lösungen.

Wenn man die Leute mal ausreden lassen würde anstatt ihnen das Wort zu verbieten oder sie als "nicht aussagekräftig" hinzustellen, wäre eine Diskussion wohl sinnvoller. Man kann sich damit auch der Infos berauben die man eigentlich gern hätte.

Mag ja sein das du jetzt wegen meiner Bemerkungen "Enthusiast oder nicht" eingeschnappt bist, ist aber nicht so als wenn ich nicht versucht hätte darauf hinzuweisen. Du aber wegen deines Aufbaus an bestimmte Layouts gebunden warst. Falls dich das ärgern sollte entschuldige ich mich ganz offiziell. Kleingeredet habe ich weder hier noch woanders was. Das würde ich auch nicht wollen. Gut das wir uns darüber ausgetauscht haben.;)

@gast
Bastian bist du es?

Gast
2014-10-27, 15:10:50
Bastian bist du es?
Nein. Lass mal gut sein.

Warum man hier generell von PLX spricht obwohl auf der Platine ein NF200 verbaut ist, muss mir auch mal jemand erklären. Erst der PLX 8747 ermöglich 4WaySLI (G1. Sniper 3 http://www.gigabyte.de/products/product-page.aspx?pid=4169#ov)

NF200 (16x/16x, 16x/0x, 16x/8x/8x, PCI-E 2.0 fähig)
PLX8747 (16x/16x, 16x/0x, 16x/8x/8x/0x, 8x/8x/8x/8x, PCI-E 3.0 fähig)

Dunkelwald
2014-10-27, 16:05:00
Also ich bin aktuell noch am Warten auf meine erste 970 (MSI 970 GTX Gaming). So ganz abgeschrieben habe ich die SLI-Idee noch nicht, denn es geht mir in erster Linie um die Leistung unter 3D Vision. DSR brauche ich da nicht wirklich (naja nett wäre es bei Spielen ohne gescheiten 3D Vision Support schon...) und nen G-Sync-Monitor besitze ich nicht und habe auch nicht vor mir einen solchen in naher Zukunft zuzulegen. Dagegen wäre ein 750W-PSU, welches hoffentlich für ein SLI-System reichen sollte, vorhanden.

Falls es @3DVision keine Restriktionen a la @DSR oder @G-Sync gibt, wäre das weiterhin eine attraktive Option für mich. DSR oder sonstiges AA ist nicht so wichtig @3D Vision, da das Hirn hier diesen Part übernimmt. :wink:

@TS: Du kannst dir auch jetzt SLI holen und in ~9 Monaten eine Skylake Plattform nachrüsten. Dann gibts für alle mehr Lanes im Mainstream-Segment.



Er spielt in 3D und würde ~60-70% mehr Leistung haben. Nur 50% sind übertrieben.

Wenn er in 3D spielt braucht er auch kein DSR und G-Sync wird er auch nicht haben. Wenn er auf TXAA verzichten kann passt das also.


Genau das ist aktuell meine Überlegung. Mir geht es drum möglicht viele aktuelle Spiele @1080p @max Details @3DVision flüssig zocken zu können. Mit der derzeitigen 670er geht das meist nicht (logisch), mal schauen wie eine 970er performt.

Nochmals Thx an alle, habe echt einiges gelernt, was mir vorher nicht klar war (auch aus den anderen exzellenten Thread von Robbitop).

Palpatin
2014-10-27, 17:16:24
Genau das ist aktuell meine Überlegung. Mir geht es drum möglicht viele aktuelle Spiele @1080p @max Details @3DVision flüssig zocken zu können.
Die Überlegung ist einfach für 3dVision brauchst du doppelte FPS , wobei sachen wie DSR und hohe AA Stufen etc unwichtig werden.
Sprich die Anforderungen sind bei 3dVsision viel CPU lastiger als bei jemanden der 4k, 1440p oder hohe DSR Stufen flüssig haben will -> 3dvision in 1440p hier wird SLI sehr intressant, 3dvision 1080p hier lohnt SLI imo eher nicht -> evtl das Geld in eine S2011 CPU investieren.

Dunkelwald
2014-10-27, 18:05:21
Die Überlegung ist einfach für 3dVision brauchst du doppelte FPS , wobei sachen wie DSR und hohe AA Stufen etc unwichtig werden.
Sprich die Anforderungen sind bei 3dVsision viel CPU lastiger als bei jemanden der 4k, 1440p oder hohe DSR Stufen flüssig haben will -> 3dvision in 1440p hier wird SLI sehr intressant, 3dvision 1080p hier lohnt SLI imo eher nicht -> evtl das Geld in eine S2011 CPU investieren.

Hmm, ich dachte 3DVision ist in erster Linie GPU-Last, sofern die CPU nicht schon im 2D-Betrieb so stark limitiert, dass keine passablen FPS mehr rausspringen? Da pro Frame die gleichen Geometriedaten von der CPU an die GPU geliefert werden und diese dann daraus 2 Frames macht?

In einem anderen Forum habe ich dazu folgendes Statement von NVidia gefunden:

"You are absolutely correct, in the case of 3D Vision the addition tax will certainly be on the GPU side and not so much the CPU. In fact the CPU load should be similar with or without 3D Vision since all the extra 3D stereoscopic effect is done on the GPU side. Although you may notice slight increase in CPU but the baulk of the work for 3D Vision will be on the GPU."

http://www.computerbase.de/forum/showthread.php?t=853155 (Posting #5)

Oder meinst du dass ein 2600k@4.5Ghz in 1080p ohne DSR/sonstiges AA in Verbindung @ max. Details mit ner 970GTX schon grundsätzlich am CPU-Limit hängt? Kann ich mir ehrlich gesagt nicht so recht vorstellen, von Ausnahmen natürlich abgesehen. Und selbst wenn, dürfte sich das dann unter 3D Vision auf die GPU verlagern, sofern die GPU-Last im 2D-Betrieb nicht gerade bei nur <= 50% liegt.

Palpatin
2014-10-27, 21:05:04
Also bei mir ist es so:
Wenn ich 3dvision anmache halbieren sich die Frames. Aus 50 werden 25 aus 100 werden 50 aus 120 werden 60.
Ja die 970 reicht bei einigen Games um in 1080p in ein CPU Limit zu laufen. Kommt halt ganz auf das Game an und vor allem auf die Szene an, irgendwelche Benchmark Läufe sind da oft nicht sehr aussagekräftig
Ich würde an deiner Stelle weder die CPU noch die GPU aufrüsten. (Hab auch einen 2600k@4,3 und eine 780ti).
Meine nächste Investition wird ein ASUS ROG Swift PG278Q Monitor und dann hoffe ich das es auch bald darauf gute 8gb Karten von NV gibt -> wird dann die übernächste und irgendwann muss natürlich dann auch ein 6 oder 8 Core her.
Vor der 780ti hatte ich zwei 670er im SLI und war nicht sonderlich zufrieden.

occ-kh@Mirko
2014-10-28, 20:34:11
@Dunkelwald
Hier lief es eigentlich ganz gut, kommt natürlich darauf an auf welche Auflösung du setzen möchtest: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_970_SLI/

robbitop
2014-10-28, 22:19:19
SLI für 3DVision ist deutlich sinnvoller. Das könnte theoretisch massiv besser sklaieren. Immerhin (auf der Zeitachse gesehen) wird das gleiche Bild mit 2x verschiedenen Blickwinkeln gerendert. Das bedeutet dann auch kein Mikroruckeln, wenn man das auf 2 GPUs aufteilt. Bedeutet, dass die Mehrleistung nahezu 1:1 ankommt (sofern die CPU kein Flaschenhals darstellt). Ist eben kein AFR mehr.

Ich bin gespannt, wie gut das funktioniert.

@occ-kh@Mirko

@robbitop
Das ist zwar weit offtopic aber du weisst schon das einige PLs als reserviert gelten, heißt Pins noch garnicht in Benutzung sind?
Und das heißt? Potenziell mehr Bandbreite auf der Brücke? Deutlich mehr?


Wenn die treiberseitige Priorisierung des Datenverkehrs (Optimierung=Vorrang) fehlt, kann die Bandbreite nicht sinnvoll genutzt werden.
Über den PCIe meinst du?
Ich bin mir nicht sicher, ob eine andere Priorisierung so viel bringt. Die Geometriedaten müssen genauso wie der Framebuffertransfer innerhalb einer kritischen Zeit da sein. Kann mir nur schwer vorstellen, dass man das hinten anstellen kann. Das sind IMO alles sehr zeitkritische Transfers. Sowohl von GPU 2 zu GPU 1 als ach von CPU zu den GPUs (Geometrie).


Was das alles mit der Brücke zu tun haben soll, ich weiss es wirklich nicht und tappe im dunkeln.
Was gibt es daran nicht zu verstehen? Die Brücke stellt eine zusätzliche Möglichkeit für den Transfer dar und entlastet den PCIe. Dann sollte eine Brücke aber schon zeitgemäß sein und bei Bedarf überarbeitet werden (so wie alle Schnittstellen regelmäßig angepasst werden)

Aufgrund dieser Limitierung muss eben der Framebuffertransfer dann über den PCIe. IMO hätte das nicht sein müssen, wenn man das Interface dann und wann erneuert hätte.

Das sieht für mich so aus als würde SLI keine hohe Priorität in ihrer Hardwareentwicklung vorsehen. (wenn Pascal allerdings NVLink als neues Interface zwischen 2 Karten nutzen sollte, stimmt diese Aussage in 1-2 Jahren nicht mehr)

AMD liefert im Enthusiastbereich (AM3+) nicht mal PCIe3.0! Wenn dann mit irgendwelchen zusammen gefrickelten Lösungen.
Man sollte schon zwischen AMDs GPUs (ATI) und AMDs CPUs unterscheiden.

AMDs GPUs unterstützen PCIe 3.0 und Crossfire profitiert davon auch. AMDs CPU Department sieht seit Jahren kein Land mehr. Darüber muss man glaube ich nicht diskutieren.

Crossfire ist vermutlich keinen Deut besser. Es wurde zwar massiv verbessert - aber ich tippe mal darauf, dass SLI noch immer die bessere Wahl ist.

Wenn man die Leute mal ausreden lassen würde anstatt ihnen das Wort zu verbieten oder sie als "nicht aussagekräftig" hinzustellen, wäre eine Diskussion wohl sinnvoller. Man kann sich damit auch der Infos berauben die man eigentlich gern hätte.
Um es klar zu stellen - das betrifft hier eher den "Gast". Im Forum hat man alle Zeit der Welt Informationen zu präsentieren. Bis auf ganz wenige andere im Nebenthread (Blair, 4fighting, Grestorn) hat hier noch kaum jemand etwas Substanzielles zum Thema SLI und der Skalierung und Datenübertragung und deren Analyse beigetragen. Wenn jemand etwas konkretes beitragen will: gern! Dann gibt's auch Anerkennung. Aber hier braucht aber niemand arrogant zu werden. Das kann ich nicht leiden. (idealerweise auch niemand mit dem Wissen eines Codas, Alphatiers oder Demirug). Aber wenn schon arrogant - dann muss auch deutlich was kommen. Und nicht nur Denunzierungen und Sprüche*. Dann müssen Details auf HW-Ebene kommen.

*Und nein - es ist keine große Leistung, Hersteller und Fabrikat des PCIe-Switches herauszusuchen und sich darüber zu freuen. Das ist wie die Differenzierung zwischen Coke und Pepsi wenn es augenscheinlich um Cola geht und man Markenname und Generika versehentlich vertauscht. IMO Erbsenzählerei.

Diese Sprüche mit "ich habe XYZ Jahre SLI Erfahrung" sind IMO sinnlos. SLI ist ein Thema, in das man schnell hineinkommt und nicht furchtbar komplex ist. Das ist ein bisschen Iteration und ein paar Grundlagen bezüglich AFR. Nicht mehr und nicht weniger.

Ergo: lieber konkrete Diskussion, Vorschläge oder Fakten(!) statt irgendwelches Sinnlosgehabe.

SLI ist sicher keine schlechte Umsetzung von AFR unter heutigen erschwerten Randbedingungen. Aber diese Randbedingungen bestehen nunmal. Und ich werde diese bei einer Kaufberatungsanfrage immer wieder nennen. Der User muss am Ende selbst wissen, ob es ihm das wert ist.
Aus meiner subjektiven Sicht lohnt sich SLI heute nur bedingt - oder unter gewissen Umständen.

Ansonsten: Schwamm drüber. :) Am besten möglichst sachlich bleiben und dann passt das schon. Ich mag es nur nicht, blöd angemacht zu werden. (wer tut das schon?)

Gast
2014-11-03, 04:50:38
@robbitop
Der nf200 ist deutlich langsamer! Das ist kein unbedeutender Hinweis aber man kann sich alles schön reden. Für ein Titan-Sli und Sockel1150 auf Z97-Basis: http://www.gigabyte.de/products/product-page.aspx?pid=4963#ov ( um die 200 Euro) Bei Asrock wird man sowas nicht finden. Womöglich noch bei Asus.

Für den Sockel1155 gibt es das hier: http://www.gigabyte.de/products/product-page.aspx?pid=4169#ov und glücklich werden mit einem GTX970-Sli.