PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G-Sync + SLI geht nicht


Seiten : 1 [2]

robbitop
2014-10-23, 15:20:50
@1: He? Du hast doch deine GPUs in der Wakü, warum sollte da was irre heiß werden? Ich hatte 4! Titans ohne Wakü in meinem System. Da war kein Platz mehr zwischen den Karten.

@2: Highend kostet eben viel Geld und da die S2011v3 Plattform neu ist, eben noch etwas mehr. :/

Ein Board mit PLX Chips ist natürlich für dich die billigste und praktischste Variante, aber das weißt du eh selber auch.

Ich spiele aktuell mit folgenden Szenarien:

1.) Board 1:1 tausch (falls das Board die Ursache ist) -> SLI behalten und mit der Sklaierung leben. Bei PCIe 8x sind es ja nur im hohen FPS Bereich ca. 10 %
2.) Board gegen ein PLX Board tauschen -> SLI behalten
3.) Haswell-E + Board + DDR4 -> SLI behalten
4.) Board behalten -> SLI auflösen

Ich tendiere mittlerweile zu Variante 1. oder 4.

Bei allen Varianten muss ich entweder mit dem Riser leben oder aber ich gehe auf deinen Rat ein und entferne die Ramkühlkörper bei der einen Titan.

Meinst du, dass eine Backplate etwas hilft?

Die Graka wird unter Wasser natürlich weniger heiß als sonst. Aber der GDDR5 läuft immerhin mit 3500 MHz. Irgendwo muss die Wärme ja hin. Mit der Backplate könne man sie vieleicht ein wenig verteilen.

Wenn man sich 2 Titans gönnt, will man natürlich auch dafür sorgen, dass es ihnen gutgeht. :D

akuji13
2014-10-23, 15:26:11
Vielleicht ist man garnicht soviel Entusiast wie man selbst annimmt. Vor allem dann wenn man über Preise nachdenken muss oder will.

http://www.duden.de/rechtschreibung/Enthusiast
Ein Verhältnis zum Geld wird in der Definition erstmal nicht genannt.

Enthusiast heißt mMn auch experimentierfreudig.
Nur leider wird das allzu oft bestraft.

Übrigens darf man als Enthusiast auch andere, weitaus teurere, Hobbys als den Rechner haben. ;)
Und irgendwann muss man zwangsläufig aufs Geld schauen.

Ist wie mit DSR. Wozu? Enthusiasten kaufen einen 4k Monitor.

Um dann einen TN mit 60 Hz zu bekommen. :D
Klingt sinnvoll und steigert die Bildqualität enorm.

2 Titanen Stück a' für 500 Euro hört sich eher nach logischer Überlegung und sinnvollem Ansatz an, nur soviel zu investieren wie man als notwendig erachtet, als denn nach Enthusiast.

Muss das eine das andere ausschließen?

Könnte es nicht auch sein, das man den anderen "high-end" Karten mit nur 4 Gb Vram keine settings zutraut die eines Enthusiasten würdig sind?

Gerade in bezug auf 4k.


@Wakü ist auch kein Alleinstellungsmerkmal mehr. Hört sich blöd an, ist aber so.

Und gleich kommst du mit Zahlen zur massenhaften Verbreitung von WaKü´s. ;D

Godmode
2014-10-23, 15:40:25
Ich spiele aktuell mit folgenden Szenarien:

1.) Board 1:1 tausch (falls das Board die Ursache ist) -> SLI behalten und mit der Sklaierung leben. Bei PCIe 8x sind es ja nur im hohen FPS Bereich ca. 10 %
2.) Board gegen ein PLX Board tauschen -> SLI behalten
3.) Haswell-E + Board + DDR4 -> SLI behalten
4.) Board behalten -> SLI auflösen

Ich tendiere mittlerweile zu Variante 1. oder 4.

Bei allen Varianten muss ich entweder mit dem Riser leben oder aber ich gehe auf deinen Rat ein und entferne die Ramkühlkörper bei der einen Titan.

Meinst du, dass eine Backplate etwas hilft?

Die Graka wird unter Wasser natürlich weniger heiß als sonst. Aber der GDDR5 läuft immerhin mit 3500 MHz. Irgendwo muss die Wärme ja hin. Mit der Backplate könne man sie vieleicht ein wenig verteilen.

Wenn man sich 2 Titans gönnt, will man natürlich auch dafür sorgen, dass es ihnen gutgeht. :D

Ich würde die Speicherchips einfach mal messen. Durch die Wakü wird sehr viel der Wärme über die Platine abgeführt, daher werden die Rams auch auf der Rückseite durch die Lötstellen mitgekühlt. Wie gesagt, es hat schon einen Grund warum da standardmäßig nichts verbaut ist. IMHO machst du dir hier unnötig das leben schwer.

Bevor du eine Backplate kaufst, miss einfach mal wie warm die Dinger wirklich werden.

robbitop
2014-10-23, 15:45:22
Vielleicht ist man garnicht soviel Entusiast wie man selbst annimmt. Vor allem dann wenn man über Preise nachdenken muss oder will.
Come on. Ich habe 4.500 €*für den PC ausgegeben. Inkl Monitor. Das ist zumindest in dem Bereich, wo man erwarten können sollte, dass da keine Basteleien auf Treiberebene und keine beschissenen Restriktionen mehr da sind.


Ist wie mit DSR. Wozu? Enthusiasten kaufen einen 4k Monitor.
Kommt drauf an, was man will. 4K sind zur Zeit fast alle mit TN Panel und 60 Hz.

Wer einmal 144 Hz + G-Sync hatte, will darauf nicht mehr verzichten.

Also muss man sich heute entscheiden ob schnell, hohe Auflösung oder gutes Panel. Alles drei gibt es noch nicht.

Mein ROG SWIFT ist mit 800 €*sicherlich ein Enthusiastengerät.


@Wakü ist auch kein Alleinstellungsmerkmal mehr. Hört sich blöd an, ist aber so.

Eine Wakü in einem Corsair 900D mit 24 Lüftern und 3x großen Radiatoren und bester Steuerung, die es zu kaufen gibt, ist ganz sicher nicht irgendeine Wakü.
Das Ding ist komplett lautlos und selbst mit übertakteten Devils Canyon und 2x übertakteten Titans komplett unterfordert.

Das ist nicht irgendeine Komplettwakü.


2 Titanen Stück a' für 500 Euro hört sich eher nach logischer Überlegung und sinnvollem Ansatz an, nur soviel zu investieren wie man als notwendig erachtet, als denn nach Enthusiast.

Entschuldigung...;).

Ich bin Ingenieur. Ich bin generell bereit mehr zu zahlen, wenn ich dafür mehr bekomme. Natürlich ist es klar, dass man ab einem gewissen Punkt mehr zahlt als man bekommt. Aber irgendwann wird es sinnlos.

Sorry aber für das Geld ist das jedenfalls kein Standard-PC mehr. Da erwarte ich solche Schlampigkeiten (Boardlayouts, Treiber DSR/G-Sync) nicht. Und das hat auch nicht mehr viel mit dem Geld zu tun, weil es auch wenn ich 20.000 € investieren würde nicht deutlich besser würde.

Insofern tue ich deinen Post mal als Trollerei ab.

Grestorn
2014-10-23, 16:26:22
Und selbst wenn man alles auf WaKü umstellt sieht es mit Sound + PhysX Karte dazu ganz schlecht aus.

Was aber vorallem daran liegt, dass alle Karten DualSlot-Blenden haben, was bei WaKü völlig unnötig ist. Für die Titan hab ich einen Umbau auf eine SingleSlot Blende gesehen, aber für die GTX980 gibt's sowas leider noch nicht...

Mysterion
2014-10-23, 16:50:58
Wer einmal 144 Hz + G-Sync hatte, will darauf nicht mehr verzichten.



Ich hatte den ASUS Swift da und habe ihn aus den folgenden Gründen zurückgeschickt:

1. Bei 144Hz kann G-Sync nicht sein volles Potenzial entfalten. Ich konnte bei 100fps+ kaum Unterschiede feststellen zwischen G-Sync on/off. Wenn die Indikator LED nicht vorhanden hätte ich wahrscheinlich in einem Blind Test oftmals falsch gelegen. Klar die 144Hz sind super, das merkt man selbst auf dem Desktop. Aber bei einem SLI Gespann erreicht man bei 1440p bei den meisten games 80fps+ und da ist der Effekt von G-Sync marginal. Zumal Tearing bei 144Hz eigentlich auch kaum vorkommt. Die 144hz negieren mMn also die Notwendigkeit von G-Sync. Ohne G-Sync wäre der Monitor für mich attraktiver da günstiger.

2. Der Sprung von 1080p zu 1440p war mir zu gering. Zumal 1440p eine Nischen Auflösung ist und bleiben wird (Genauso wie 2560x1600 was es schon lange gibt). 2015 wird 4K immer beliebter und verbreiteter werden. 4K ist die Zukunft.

Von daher kam für mich nur ein 4K Monitor in Frage und da G-Sync in dem Bereich 45-60 fps den größten Vorteil bietet und man bei 4K in den meisten games genau in diesem Bereich landet, war für mich klar es wird der ACER XB280HK. Bin begeistert von dem Gerät. Panel ist minimal schlechter als jenes vom Swift. Die Unterschiede konnte ich mit dem bloßen Auge jedoch nicht ausmachen, erst mit den Testbildern hier:
http://www.lagom.nl/lcd-test/
hat sich gezeigt, dass das Panel des Swift einen Ticken besser ist. Der Unterschied zwischen 1080p und 2160p ist wie Tag und Nacht, zwischen 1440p und 2160p ebenfalls deutlich bemerkbar. Als ich gestern meinen alten 1080p angemacht habe, habe ich fast Augenkrebs bekommen so verpixelt wie die Schrift und Desktop Symbole waren. :D

Jeder, der 4K live erlebt hat wird davon begeistert sein. Da bin ich mir sicher :)

btw die Diskussion bezüglich IPS vs TN habe ich noch nie nachvollziehen können. Klar, die Farben sind etwas satter und das schwarz ist etwas besser. Aber wozu braucht man sowas zum Spielen? Es liest sich oftmals so als wäre TN der letzte Müll, was vollkommener Schwachsinn ist. Ein gutes TN Panel reicht zum Spielen und für den Desktopbetrieb vollkommen. Und warum sollte ich dafür einen 6-7 höheren input lag auf mich nehmen? Nein, Danke.

akuji13
2014-10-23, 17:28:50
Bei 144Hz kann G-Sync nicht sein volles Potenzial entfalten.

Das war doch aber schon vorher klar.

Aber bei einem SLI Gespann erreicht man bei 1440p bei den meisten games 80fps+ und da ist der Effekt von G-Sync marginal.

Diese Aussage lese ich oft und immer frage ich mich ob die Leute was anderes Spielen als ich. :D

Ich knalle die settings natürlich auch hoch in Sachen AA z. B., alles andere wäre ja irgendwie sinnfrei.
"Shadow Warrior" z. B. ist selbst mit SLI bei mir grenzwertig, in 3D kaum noch spielbar ohne das ich was absenke.

Ein "State of Decay" profitiert auch bei 60+ enorm von G-Sync.

Jeder, der 4K live erlebt hat wird davon begeistert sein. Da bin ich mir sicher :)

Nö. :D

Im Gegenteil, es ist bislang eine herbe Enttäuschung für mich (!):

- miese panels
- miese fps
- immer noch nicht gut genug um auf AA verzichten zu können

Grundsätzlich finde ich aber höhere Auflösungen super.

Ein gutes TN Panel reicht zum Spielen und für den Desktopbetrieb vollkommen. Und warum sollte ich dafür einen 6-7 höheren input lag auf mich nehmen? Nein, Danke.

Zum Spielen reicht auch ein 10 Jahre alter V7 TFT. :wink:
Oder 1080p. :wink:

Jeder hat da so seine eigenen Ansprüche.

Den meisten von uns schwebt ein schneller IPS vor mit tollen Farben, tiefem Schwarz mit allen features die es so gibt vor.

Grestorn
2014-10-23, 17:35:56
Jeder, der 4K live erlebt hat wird davon begeistert sein. Da bin ich mir sicher :)

4k ist out of the Question, zumindest so lange bis alle Apps unter Windows sauber skalieren können.

WQHD ist momentan der beste Kompromiss. Bei 27" noch gut ohne Skalierung nutzbar und trotzdem gute Auflösung. Deine Meinung, dass der Sprung von 1080p zu klein wäre, kann ich keineswegs teilen.

Mysterion
2014-10-23, 19:10:17
Das war doch aber schon vorher klar.



Diese Aussage lese ich oft und immer frage ich mich ob die Leute was anderes Spielen als ich. :D


Es hängt auch am vom persönlichen Empfinden ab. Es gibt eigentlich nur ein game bei welchem ich 100fps+ haben will: BF4.
Und genau dieses game funktioniert aus irgend einem Grund nicht so toll mit G-Sync. Von daher war das eben auch eine Enttäuschung für mich, bzw auch ein Grund weshalb der ASUS zurück ging. Ich zahle keine 200€ für ein Feature, wenn dieses in dem game, bei welchem ich mir am meisten dafür versprochen hatte nicht so toll funktioniert. Die 144Hz sind geil ohne Frage, nur sie alleine waren für mich keinen Rechtfertigung.
Bei Sinlge Player games habe ich die 2.te Karte eigentlich immer für eye candy benutzt. Denn was will ich mit 100fps in z.B. Assassins Creed oder Alien Isolation? Nun brauche ich keine AA Modi mehr und habe dennoch ein besseres Bild.

Ich knalle die settings natürlich auch hoch in Sachen AA z. B., alles andere wäre ja irgendwie sinnfrei.
"Shadow Warrior" z. B. ist selbst mit SLI bei mir grenzwertig, in 3D kaum noch spielbar ohne das ich was absenke.

Ein "State of Decay" profitiert auch bei 60+ enorm von G-Sync.



Dazu kann ich nichts sagen, weil ich diese games nie gespielt habe.

Nö. :D

Im Gegenteil, es ist bislang eine herbe Enttäuschung für mich (!):

- miese panels
- miese fps
- immer noch nicht gut genug um auf AA verzichten zu können

Hattest du einen 4K auf dem Schreibtisch?

Diejenigen mit einem TN unter diesen:
http://geizhals.de/?cat=monlcd19wide&xf=950_Acer~950_ASUS~5137_14~950_Dell#xf_top

haben mit ziemlicher Sicherheit alle das selbe panel. Wie man da von "miesem Panel" sprechen kann verstehe ich nicht. Lies dir reviews durch. Ich kann keins finden wo das Panel wirklich als "Mist" bezeichnet wird. Schlechter als IPS? Ja. Ist es deswegen Mist? Nein.
Übrigens hast du dann auch ein mieses Panel :P
Das Panel vom ACER XB280HK ist wie ich schon sagte nahezu identisch bzw. nur minimal schlechter als das des Swifts. Ich hatte beide da und das wird in reviews auch so bestätigt. Siehe z.B. hier:
http://www.pcper.com/reviews/Displays/Acer-XB280HK-28-4K-G-Sync-Monitor-Review

Zu den miesen fps:

Du schreibst doch selbst, dass du die AA settings so hochdrehst, dass du kaum noch flüssig wirkende fps erreichst. Warum also nicht gleich eine 4K Auflösung bei der du dir das verwaschene Bild ersparst? ;)

Grundsätzlich finde ich aber höhere Auflösungen super.

Eben. Man kann Pixel nicht durch AA settings wettmachen.
Auch nicht durch 64xJDKRWXYZAA :D

Zu der Notwendigkeit von AA:

Jein, in vielen games brauchst du AA nicht mehr. Wenn überhaupt maximal 2xAA
Ehrlich gesagt habe ich sogar das Gefühl, dass AA das Bild sogar etwas "verschlechtert". Bei der hohen Auflösung und damit verbundenen Schärfe merkt man stärker, dass AA das Bild unscharf macht. Auch MSAA. Dazu muss man aber genau hinsehen.

Zum Spielen reicht auch ein 10 Jahre alter V7 TFT. :wink:
Oder 1080p. :wink:


Der Vergleich hinkt aber. Oder willst du allen ernstes sagen, dass "IPS=4K" und "TN=V7 TFT" eine korrekte Analogie ist?
Ich verstehe natürlich worauf du hinaus willst aber der Vergleich ist übertrieben.

Jeder hat da so seine eigenen Ansprüche.

Das stimmt natürlich und ist auch gut so :)

Den meisten von uns schwebt ein schneller IPS vor mit tollen Farben, tiefem Schwarz mit allen features die es so gibt vor.
[/QUOTE]
Wenn es das gäbe würde ich es natürlich mitnehmen. Aber das gibt es nicht und ich persönlich habe kein Problem mit TN und daher auch nicht wirklich das Bedürfnis für IPS/VA/MVA....

Und wenn es eins gibt, was ich hasse ist es input lag. Deswegen habe ich auch nie V-Sync benutzen können. Diablo 3 ist das einzige game an das ich mich erinnern kann in den letzten 3 Jahren mit V-Sync gespielt zu haben weil mir das tearing dort auf den Sack ging. Und in der Hinsicht hinken IPS Panels den TNs hinterher. Die eierlegende Wollmichsau gibt es (noch) nicht daher muss jeder für sich seine Kompromisse machen. Ich bin mit dem ACER XB280HK vollkommen zufrieden und genieße die hohe Auflösung und G-Sync :)

4Fighting
2014-10-23, 19:33:42
Come on. Ich habe 4.500 €*für den PC ausgegeben. Inkl Monitor. Das ist zumindest in dem Bereich, wo man erwarten können sollte, dass da keine Basteleien auf Treiberebene und keine beschissenen Restriktionen mehr da sind.



Mit den Restriktionen bin ich bei Dir.

Ich halte weiterhin die Variante gebrauchtes 2011er Sys +4930k für am besten.

Ich hab für meine Komponenten ca. 530 EUR bezahlt und der 4930k gehört zu den deutlich besseren.

Wenn du die Sachen für ca. 480 EUR bekommst, hält es sich auch in Grenzen mit der Zuzahlung. Deinen 4790k kriegst Du sicherlich noch für 220 EUR weg, Board 100 EUR

150 EUR für einen 6-Kerner + PCIe nativ (PLX Anbindung speist ja auch nochmal ein paar ms bei der FPS-Weitergabe ein)

Gast
2014-10-23, 20:31:38
Ich bin mit dem ACER XB280HK vollkommen zufrieden und genieße die hohe Auflösung und G-Sync.
Definitiv, der Monitor ist topp, hab den gleichen :).

Wenn du die Sachen für ca. 480 EUR bekommst, hält es sich auch in Grenzen mit der Zuzahlung.
Dann setzt doch auf die 2011 Architektur (muss nicht wieder 2011-3 sein)
Natürlich, das sagen jetzt schon mehrere Leute. Für 40 Lanes braucht es mehr als einen z-Chipsatz + CPU.

Es ist doch keine Schande sowas sogar gebraucht zu kaufen, wenn man nicht wieder alles zum Neupreis erwerben will. Sogar der 4820k würde hier reichen. @robbitops Titans sind ja nun auch nicht neu, heißt ja noch lange nicht das sie damit nicht Enthusiast sind und bleiben.

Hinterher ist man immer schlauer.:)

Boardlayouts, Treiber DSR/G-Sync
Da kann man doch selbst was machen! Ist wohl nur eine Frage der Zeit bis nV schnallt das das wichtig ist. Ich stell mir vor das es schneller geht als wir glauben. Man muss aber auch warten können. Genausogut hätten sie sagen können DSR+Kepler nö is nicht.

Das Mainbord+Layout hast du doch selbst ausgesucht. Selbstkritik?

akuji13
2014-10-24, 08:44:09
Das Mainbord+Layout hast du doch selbst ausgesucht. Selbstkritik?

Wobei man da erwähnen muss das man nur kaufen kann was es gibt.

Für mein setup (2x iChill + PhysX + Soundkarte) gibt es kein passendes mb.


ROG Swift na ja, Spiele Enthusiast vielleicht. Der ist einfach teuer! Asus ROG typisch. Das gleiche bekommst du mittlerweile für 500-600 Euro in 4K.

Das featureset weicht deutlich ab:

ULMB
120/144 HZ
3D Vision
Optik (fette Rahmen, gerne mal verspiegelt)

Hattest du einen 4K auf dem Schreibtisch?

Auf meinem nicht, aber ich bin alle 14 Tage bei einem Freund von mir und teste mit ihm u. a. 4k´s (sein Steckenpferd).

Da haben wir reichlich Vergleichsgeräte zur Hand.

Wie man da von "miesem Panel" sprechen kann verstehe ich nicht. Lies dir reviews durch. Ich kann keins finden wo das Panel wirklich als "Mist" bezeichnet wird. Schlechter als IPS? Ja. Ist es deswegen Mist? Nein.

Irgendetwas ist immer völlig daneben, entweder lag, Schwarzwert, glow, bleeding, Blickwinkel, Reaktionszeit, featureset usw.

Das kann ich mMn als "mies" oder "Mist" bezeichnen.
Ich kann nichts dafür das andere regelmäßig in Jubelarien ausbrechen weil ihr Anspruch geringer ist als meiner.
Ist so als wenn ich ein Auto habe was nachts nur eingeschränkt fahrbar wäre und dem trotzdem eine gute Note gebe.

Übrigens hast du dann auch ein mieses Panel :P

Jap, es gibt ja nix anderes.
Hier stehen nicht zum Spaß 3 Monitore die jeweils eingesetzt werden.
Unter den Blinden ist der Einäugige König heißt es, das trifft z. B. auf den Swift zu.

Die Farbdarstellung ist im Vergleich zu anderen TN´s gut, im Vergleich zu sehr guten IPS aber nicht.

Ich habe den wegen der brauchbaren Bewegtdarstellung für schnelle Spiele, mit den Farben, dem Schwarzwert und einigen anderen Dingen bin ich bei weitem nicht zufrieden.

Du schreibst doch selbst, dass du die AA settings so hochdrehst, dass du kaum noch flüssig wirkende fps erreichst.

Es ging darum das die fps jetzt am Limit wegen der hohen Einstellungen in Sachen AA.

Ich habe aber wenigstens die Wahl was runterzudrehen, in 4k gibts genügend Titel die selbst auf low ohne AA nicht mehr flüssig genug sind für mich.

Und da spielt es keine Rolle ob es sich um einen schlechten port handelt (= Dead Rising 3) oder ein anspruchsvolles Spiel (= Ryse), das Ergebnis ist identisch (= für mich nicht angenehm spielbar).

Jein, in vielen games brauchst du AA nicht mehr. Wenn überhaupt maximal 2xAA

Und genau wegen solcher Aussagen sind unsere Ansprüche meilenweit von einander entfernt.
Nur 2xAA reicht mir nicht, viele Titel benötigen hohe AA Modi um z. B. die Vegetation ruhig zu stellen.

Crysis z. B. flimmert trotz 4k munter vor sich hin, wenn man die highres Vegetation installiert wirds noch schlimmer.

Es hilft mir auch nicht wenn es in vielen Spielen nicht nötig wäre, das ist G-Sync auch nicht.
Es geht darum jeden Titel so gut als möglich darzustellen.

Was ist denn wenn es dann einen Lieblingstitel gibt den ich hunderte Stunden spiele und der dann nicht optimal läuft oder aussieht?
Momentan könnte man z. B. nicht mal aufrüsten weil selbst die neuen Karten kaum schneller sind.

Dann bleibt Interpolation...die keine ernsthafte Alternative darstellt.

Ich bin mit dem ACER XB280HK vollkommen zufrieden und genieße die hohe Auflösung und G-Sync :)

Gut für dich.
Jeder soll so spielen wie er es für richtig hält.
Ich kann natürlich immer nur meine Meinung dazu wiedergeben und die ist natürlich nicht allgemein gültig.

Mir fehlt z. B. 3D Vision, darauf möchte ich keinesfalls verzichten.
Und das noch in 4k?

Ich glaube das wird noch Jahre dauern bis die nötigen fps erreicht werden.

4Fighting
2014-10-24, 09:30:18
Wobei man da erwähnen muss das man nur kaufen kann was es gibt.

Für mein setup (2x iChill + PhysX + Soundkarte) gibt es kein passendes mb.



mit diesem Setup (2x3-Slot VGA-Kühler + 2 Erweiterungskarten) gehörst Du aber sicherlich zu 0,00001% der Kunden;(

akuji13
2014-10-24, 09:33:48
Genau das macht einen Enthusiasten aus. ;)

Man hat/will ein setup das die Masse nicht hat.

Selbst ohne PhysX Karte gäbe es kein passendes mb.

4Fighting
2014-10-24, 09:37:06
Genau das macht einen Enthusiasten aus.

Man hat/will ein setup das die Masse nicht hat.

Selbst ohne PhysX Karte gäbe es kein passendes mb.

Unter Wasser mit den Karten und dann wäre es noch "exklusiver". Dann könntest Du auch alles problemlos einbauen.

Boards mit 7 Slots gibt's doch zuhauf. dann ist es natürlich recht muckelig :)

Spaß bei Seite:
Hab ein Board für dich gefunden:freak:...fehlen noch 4 s.2011er xeons und ein bisschen ram;(

http://geizhals.de/supermicro-x9qr7-tf-jbod-retail-mbd-x9qr7-tf-jbod-o-a960638.html

akuji13
2014-10-24, 09:47:19
Zu lahme CPU´s, passt in kein schönes Gehäuse, sieht furchtbar aus. ;)

Ist die lanes Verteilung da dynamisch?

robbitop
2014-10-24, 13:28:36
Ich hatte den ASUS Swift da und habe ihn aus den folgenden Gründen zurückgeschickt:

1. Bei 144Hz kann G-Sync nicht sein volles Potenzial entfalten. Ich konnte bei 100fps+ kaum Unterschiede feststellen zwischen G-Sync on/off. Wenn die Indikator LED nicht vorhanden hätte ich wahrscheinlich in einem Blind Test oftmals falsch gelegen. Klar die 144Hz sind super, das merkt man selbst auf dem Desktop. Aber bei einem SLI Gespann erreicht man bei 1440p bei den meisten games 80fps+ und da ist der Effekt von G-Sync marginal. Zumal Tearing bei 144Hz eigentlich auch kaum vorkommt. Die 144hz negieren mMn also die Notwendigkeit von G-Sync. Ohne G-Sync wäre der Monitor für mich attraktiver da günstiger.

Zu hohe FPS sind eher ein Zeichen dafür, dass man die BQ nicht ausgereizt hat. Kein Downsampling, kein AA. Da bekommt man jedes SLI System auf 40 fps runter. Und dann sieht das Bild wie geleckt aus. Und genau dann macht 144 Hz und oder G-Sync einen gewaltigen Unterschied.

Wozu ein SLI System wenn ich immer mit so hohen FPS rumlaufe, die mir gar nichts mehr nützen.

Außerdem ist die Bewegungsschärfe massiv besser bei 144 Hz. Das sehe ich in Spielen und auch in Windows. Ultimativ wäre 4K + 120/144 Hz + G-Sync mit IPS Panel. :D


2. Der Sprung von 1080p zu 1440p war mir zu gering. Zumal 1440p eine Nischen Auflösung ist und bleiben wird (Genauso wie 2560x1600 was es schon lange gibt). 2015 wird 4K immer beliebter und verbreiteter werden. 4K ist die Zukunft.

1440p ist ein Kompromiss. Liegt halt zwischen FullHD und 4K.
4K haut halt wirklich extrem rein was Leistung angeht (Crysis 3, Shadows of Mordor, Watch Dogs etc). Mit SLI gerade so noch stemmbar. Aber dann muss man wirklich beten, dass es für jedes Spiel ein Profil gibt (was es immer häufiger nicht gibt).

Ansonsten ist es aber gut, dass du 4K + G-Sync hast. Aber wie gesagt: gibt es einmal kein Profil -> stehst du im Regen da. (und das kommt jetzt immer häufiger vor)


Von daher kam für mich nur ein 4K Monitor in Frage und da G-Sync in dem Bereich 45-60 fps den größten Vorteil bietet und man bei 4K in den meisten games genau in diesem Bereich landet, war für mich klar es wird der ACER XB280HK. Bin begeistert von dem Gerät. Panel ist minimal schlechter als jenes vom Swift. Die Unterschiede konnte ich mit dem bloßen Auge jedoch nicht ausmachen, erst mit den Testbildern hier:
http://www.lagom.nl/lcd-test/
hat sich gezeigt, dass das Panel des Swift einen Ticken besser ist. Der Unterschied zwischen 1080p und 2160p ist wie Tag und Nacht, zwischen 1440p und 2160p ebenfalls deutlich bemerkbar. Als ich gestern meinen alten 1080p angemacht habe, habe ich fast Augenkrebs bekommen so verpixelt wie die Schrift und Desktop Symbole waren. :D

Jeder, der 4K live erlebt hat wird davon begeistert sein. Da bin ich mir sicher :)

btw die Diskussion bezüglich IPS vs TN habe ich noch nie nachvollziehen können. Klar, die Farben sind etwas satter und das schwarz ist etwas besser. Aber wozu braucht man sowas zum Spielen? Es liest sich oftmals so als wäre TN der letzte Müll, was vollkommener Schwachsinn ist. Ein gutes TN Panel reicht zum Spielen und für den Desktopbetrieb vollkommen. Und warum sollte ich dafür einen 6-7 höheren input lag auf mich nehmen? Nein, Danke.

IPS vs TN: Blickwinkel!
Gerade bei so großen Bildschirmen ist das total wichtig. Wenn man nicht genau zentral vor dem Bildschirm sitzt, sondern seine Sitzposition häufiger mal ändert (gerade wer Rückenschmerzen hat, kennt das) oder sich auch mal in den Stuhl lümmelt. Bei einem TN sieht man dann in vertikaler Richtung wie der Kontrast total absäuft. Und da kann mir niemand erzählen, dass er das bei seinem TN nicht hat. Das haben alle TNs. Sogar mein SWIFT. Und das stört mich eigentlich am meisten an ihm. Sobald es den mit IPS gibt, kaufe ich den.

Zu 4K noch: IMO so lange auch nachteilig, solange es in Windows keine anständige UI Skalierung analog zu MacOS gibt. Mir ist es in 1440p schon echt grenzwertig. In 4K ohne Skalierung....meh.

robbitop
2014-10-24, 13:32:17
Mit den Restriktionen bin ich bei Dir.

Ich halte weiterhin die Variante gebrauchtes 2011er Sys +4930k für am besten.

Ich hab für meine Komponenten ca. 530 EUR bezahlt und der 4930k gehört zu den deutlich besseren.

Wenn du die Sachen für ca. 480 EUR bekommst, hält es sich auch in Grenzen mit der Zuzahlung. Deinen 4790k kriegst Du sicherlich noch für 220 EUR weg, Board 100 EUR

150 EUR für einen 6-Kerner + PCIe nativ (PLX Anbindung speist ja auch nochmal ein paar ms bei der FPS-Weitergabe ein)

Lieb gemeint. Aber ich werde mir keine veraltete Ivy Bridge Plattform einbauen. :)

Ich denke entweder Variante 1 oder 4.
SLI behalten würde vor allem Sinn machen, wenn ich einen 4K Monitor hätte oder DSR funktionieren würde (was ja bei der Erkennung von G-Sync Monitoren + aktivem SLI nicht geht).



Das Mainbord+Layout hast du doch selbst ausgesucht. Selbstkritik?
Und wieder einer, der nicht den Thread ganz gelesen hat. :)
Nein -das Layout aller Boards die man kaufen kann. Wirklich. SLI + ordentliche Soundkarte scheint kein Boardhersteller vernünftig vorzusehen.

Bei einer gut gekühlten Grafikkater brauche ich 3 Slots. Einen Slot hinter ihr damit die Wärme der Rückseite + der GDDR5 RAMs wegkann, einen Slot für die Karte und einen Slot für den Kühler.

Blöderweise sind die Slots für die GPUS aber so verteilt, dass man dann keinen Platz mehr für die Soundkarte hat, ohne mit einem Riserkabel rumpfuschen zu müssen. Und dabei müssten sie die Slots nur tauschen:

1. Rückseite GPU1
2. GPU1
3. Vorderseite GPU1
4.Rückseite GPU2
5. GPU2
6. Vorderseite GPU2
7. Slot für Erweiterungskarten

Wenn man es so sortiern würde (oder den Slot für Erweiterungskarten auf Position 0 hätte) würde es gehen. Aber nein - da werden die Slots mit den 16 Lanes bei jedem kaufbaren Board einfach willkürlich verteilt, so dass man am Ende entweder eine Kartenrückseite mit Wärmestau hat oder aber eine Soundkarte mit Riserkabel.

mit diesem Setup (2x3-Slot VGA-Kühler + 2 Erweiterungskarten) gehörst Du aber sicherlich zu 0,00001% der Kunden;(
Nope siehe oben. :)

4Fighting
2014-10-24, 14:05:42
Lieb gemeint. Aber ich werde mir keine veraltete Ivy Bridge Plattform einbauen. :)



Wie Du meinst.

Dein jetziges Problem resultiert aus fehlender Lane-Anbindung, die du mit einem veraltenten Ivy Bridge E-System nicht hättest.

Es mag sein, dass du im absoluten CPU Limit mit einem Haswell besser fährst, aber mit SLI dürfte das eher selten sein;)

robbitop
2014-10-24, 14:51:42
Wie Du meinst.

Dein jetziges Problem resultiert aus fehlender Lane-Anbindung, die du mit einem veraltenten Ivy Bridge E-System nicht hättest.

Es mag sein, dass du im absoluten CPU Limit mit einem Haswell besser fährst, aber mit SLI dürfte das eher selten sein;)
Ohne DSR brauche ich auf 1440p praktisch kein SLI. Und wer weiss wann DSR bei GSync und SLI mal geht. Alternativ einen 4K Monitor. Gibts aber keinen der meinen Ansprüchen genügt.

Mit 2x8 Lanes sollte es einigermaßen gehen. Je höher die fps desto schlimmer das Limit. Also theoretisch eher in Bereichen wo es eh überflüssig ist.

akuji13
2014-10-24, 15:06:35
Ohne DSR brauche ich auf 1440p praktisch kein SLI.

Paperlapapp!
Jetzt hört doch mal auf diese Lügen zu verbreiten. :D

Und wer weiss wann DSR bei GSync und SLI mal geht.

Ich tippe auf das Jahresende. =)

occ-kh@Mirko
2014-10-24, 20:44:08
@robbitop
Das Layout richtet sich eben auch an den Anwender bzw. dessen Bedürfnisse. Da kann man nicht Iighend mit Performance mischen auch wenn es glaubt. Jetzt durch die Gegend zu geistern und zu behaupten SLI ist Mist, macht es doch nicht besser, dass war doch vorher bekannt das man treibermäßig auch hinnehmen muss nicht als erster bedient zu werden. Schon dann nicht wenn man erst SLI Erfahrungen von 5 Monaten aufweisen kann. Genau das hatte ich gemeint, trotzdem nichts für ungut, das man jetzt frustriert ist mag ja sein, hilft aber nicht weiter.

Ich hab mich gestern Abend noch durch dein MB-Bios gegraben. Deine Sound-Karte ist immer noch mit diese USB Riser PCIe Ersatz Version angestepselt? Oder?

Bei einigen Bord wird automatisch x8/x4/x4 gesetzt soweit bestimmte Lanes belegt werden. Hast du mal versucht die Soundkarte beim Benchen einfach wegzulassen? Vielleicht ist die auch der Übertäter soweit DP+SLI+GSync mehr Bandbreite benötigt oder eben die volle Bandbreite ohne SLI-Bridge? Ich weiss nicht was der USB Riser dem Sys vorgaukelt?

Hast du mal den Link Speed des PCIe 2 und 5 manuell im Bios gesetzt? (Advanced -> Chipset Configuration -> PCIE2 Link Speed etc. oder so). Der steht sonst immer auf Auto, da gabs schon mit Asrock Boards das eine oder andere Problem auch wenn deren AMD Pedanten hier immer bejubelt werden.

Monitor vielleicht defekt! Schon mal drüber nachgedacht und bei Asus angefragt? Ist ja nicht auszuschließen wenns bei anderen zwanglos funzt.

DP Kabel durchprobiert?

Sieh dir mal das an: http://www.asrock.com/mb/Intel/X79%20Extreme4/index.de.asp derzeit 160 Flocken plus 4820k a' 299 (da verlierst du nicht viel, bzw. geht der bis 4.7 Ghz mit 30w mehr als der i7 47xx und kann sich dann mit einem x anlegen).

robbitop
2014-10-25, 08:22:03
Paperlapapp!
Jetzt hört doch mal auf diese Lügen zu verbreiten. :D

OK Stimmt. :D
60-80 FPS (mit einer Titan) in Ultra Settings + 1440p in jedem noch so neusten Spiel sind einfach super zäh. ;D;D;D
Ich brauche SLI :freak: Ernsthaft: im Moment macht SLI nur Sinn, wenn man 4K oder DSR befeuern will. (oder ein fps Fetischist ist :D :D)

@robbitop
Das Layout richtet sich eben auch an den Anwender bzw. dessen Bedürfnisse. Da kann man nicht Iighend mit Performance mischen auch wenn es glaubt.

:rolleyes: Alle Boards (!) Auch Boards für drölftausend Euro. Auch So2011v3 haben kein gutes Layout was für SLI/CF (3 Slots pro Karte) + Soundkarte. Wenn das kein High End ist, weiß ich auch nicht. (immer dabei drauf achten, welche PCIe 16x Slots sich Lanes "klauen" - braucht schon etwas Recherchearbeit, da einen Überblick zu bekommen, weil man es nicht beim ersten Blick auf das Board sieht)
Nochmal: es geht bei der Layoutfrage nicht um mein Board oder irgendein günstiges Board. Ich habe mir alle Boards in 1050 und 2011v3 angesehen, die 2x 16 Lanes bieten. Also erzähle hier keinen Quark.

Eine gute Kühlung besteht für mich darin, dass die Vorderseite wassergekühlt ist und die Hinterseite Luft zum Atmen hat. Also 3 Slots pro Karte.


Jetzt durch die Gegend zu geistern und zu behaupten SLI ist Mist, macht es doch nicht besser, dass war doch vorher bekannt das man treibermäßig auch hinnehmen muss nicht als erster bedient zu werden. Schon dann nicht wenn man erst SLI Erfahrungen von 5 Monaten aufweisen kann. Genau das hatte ich gemeint, trotzdem nichts für ungut, das man jetzt frustriert ist mag ja sein, hilft aber nicht weiter.
Ich weiß ja nicht, wie interlektuell das Thema SLI dich oder andere fordert. Ich brauche nicht mehr "Erfahrung" um die Limitierungen zu erkennen. Ich iteriere die Möglichkeiten durch und dann ist es absolut klar. Auch mit 10.000 Jahren SLI-Erfahrung ändert sich am jetzigen Bild nichts.

Das Kernproblem bei SLI (und Crossfire!!) sind (neben dem Kosten/Nutzen was wir mal ausklammern) vor allem:

- Profile für alle Spiele:

es gibt immer mehr DX11 Spiele - und immer öfter fehlen Profile - und die kann auch die Community nicht nachliefern. Das ist kein bloßes durchprüfen von vorhandenen SLI Bits. Oft genug muss NV neue Profile erstellen.

Die Kernschuld liegt beim Entwicklerstudio. Diese planen mGPU nicht ein. Ansonsten würde es ohne Profil laufen. Aber direkt danach kommt der IHV: NV/AMD. Diese müssen dafür sorgen, dass die Entwickler gut supportet werden und ggf. auch nachhelfen, damit sie es einsetzen. Und wenn das nicht geschieht, müssen sie sich eben hinknien und wieder Profile entwickeln. (lohnt sich aber für den Nischenmarkt mGPU offenbar kaum. Also dauert es immer länger bis Profile kommen oder es kommen schlicht keine)

- G-Sync + SLI + DSR geht nicht. Sobald ein G-Sync Display erkannt wird und SLI aktiviert wird, gibt es kein DSR mehr. WTF? Genau diese Kombination macht aber extrem viel Sinn!



Ich hab mich gestern Abend noch durch dein MB-Bios gegraben. Deine Sound-Karte ist immer noch mit diese USB Riser PCIe Ersatz Version angestepselt? Oder?

Bei einigen Bord wird automatisch x8/x4/x4 gesetzt soweit bestimmte Lanes belegt werden. Hast du mal versucht die Soundkarte beim Benchen einfach wegzulassen? Vielleicht ist die auch der Übertäter soweit DP+SLI+GSync mehr Bandbreite benötigt oder eben die volle Bandbreite ohne SLI-Bridge? Ich weiss nicht was der USB Riser dem Sys vorgaukelt?

Und wieder einer, der den Thread nicht vollständig gelesen hat.
Ja habe ich alles schon gemacht. Und selbstverständlich weiß ich, bei welchem Slot welche Lanes vorhanden sind und wann er umswitcht. Da gibt es bei ASRock im Manual eine Tabelle dazu. Die Soundkarte steckt natürlich in einem nativen PCIe 1x Slot, der nichts mit den PCIe16x Slots (lanemäßig) zu tun hat. Und klar habe ich die auch schon rausgeschmissen.

Wie gesagt: analytisch denken und iterieren ist erster Grundsatz zur Fehlerbehebung und das habe ich gemacht. Ist im Thread auch dokumentiert - sollte man aber lesen.


Hast du mal den Link Speed des PCIe 2 und 5 manuell im Bios gesetzt? (Advanced -> Chipset Configuration -> PCIE2 Link Speed etc. oder so). Der steht sonst immer auf Auto, da gabs schon mit Asrock Boards das eine oder andere Problem auch wenn deren AMD Pedanten hier immer bejubelt werden.
Siehe oben. Du hast den Thread nicht gelesen.


Monitor vielleicht defekt! Schon mal drüber nachgedacht und bei Asus angefragt? Ist ja nicht auszuschließen wenns bei anderen zwanglos funzt.
Thread nicht gelesen.

Schau mal in Post #1. Den habe ich editiert. Mein persönliches HW Problem ist gefunden und erkannt. Ich habe eine (bisher keinem in der Öffentlichkeit bekannten) Limitierung bei SLI durch mein HW Problem gefunden. Konnte Grestorn auch nachstellen. Lies Posting #1 nochmal. ;)


DP Kabel durchprobiert?
Ja.


Sieh dir mal das an: http://www.asrock.com/mb/Intel/X79%20Extreme4/index.de.asp derzeit 160 Flocken plus 4820k a' 299 (da verlierst du nicht viel, bzw. geht der bis 4.7 Ghz mit 30w mehr als der i7 47xx und kann sich dann mit einem x anlegen).
Ich baue mir bestimmt keine veraltete Ivy Bridge Architektur mehr ein. Zum Board Layout: Endlich ein Board, was bei SLI (PCIe1 und 3 in dem Falle! 3 Slots pro Karte) auch noch eine PCIe1x Karte zulässt. (ohne wieder Lanes zu stehlen).
Warum nicht auch bei So2011v3 oder 1050.

Und welches Layout hat das Board? Genau das, was ich vor ein paar Posts auch aufgemalt habe, was Sinn ergeben würde. Warum nicht auch bei neueren Boards? :rolleyes:

robbitop
2014-10-25, 13:58:35
http://abload.de/img/nvdsrxfrot.png

Yes! Das schiebt mich doch deutlich dahin, das SLI System zu behalten! SLI + DSR + G-Sync. Ab dem nächsten Treiber. :up:

aufkrawall
2014-10-25, 14:01:33
"Der nächste" steht da doch nicht.

robbitop
2014-10-25, 14:37:47
Stimmt. :(
Aber immerhin - sie arbeiten offiziell dran. Und wenn man so ein Statement veröffentlicht, ist das mal eine Aussage, dass es nicht irgendwann passiert. Klingt so als wenn das bald kommen würde.

:up:

occ-kh@Mirko
2014-10-25, 14:37:49
Ich baue mir bestimmt keine veraltete Ivy Bridge Architektur mehr ein.
Den 4820k gibt es seit 13 Monaten frei verkäuflich, viele der Tester verwenden noch 3x60k CPUs (z.B.)! Du kannst natürlich 3-9% theoretische CPU Leistung gegen 25-30% deiner möglichen SLI-Performance eintauschen, aber Sinn macht das auf Dauer und unter Spielen sicher nicht. Vielleicht hebt sich das ja unter anderen Anwendungen wieder auf. Ein 5x30k schlägt mit MB und Ram sicher mit 1000 Euro ein. Musst du selbst wissen, dann nimm aber den 5x30K. Die 2 zusätzlichen Cores (4 vs 6) bringen unter Spielen erstmal garnichts. Also auch ins Blaue investiert, wenn du mich fragst.

Das die Treiber auch geupdatet werden weil das eine oder andere Problem drückt ist doch klar. Erinnere Dich bitte an mein Posting (@Blaire) zwecks Valley Benchmark, der hier und da ganz beliebt ist. Das hat Monate gedauert! Und ich habe geduldig gewartet und viele andere auch. AMD hatte das Problem so nicht.

Den ersten Post (#1) habe ich vor dem 20.10. gelesen und dann nicht mehr drauf geachtet. Das Asrockboard ist so gesehen trotzdem keine "gute" Wahl und bleib es auch. Da musst du nochmal in Dich gehen.

Ich beeinflusse die Layoutentwicklung der Mainboardhersteller nicht, was soll ich dagegen machen. Meinst du die hören auf mich? Sicher nicht, egal was man denen sagt. Die kommen dann mit Kalkulationen und all diesem Zeug. Aber dann muss man sich an die wenden, als Community (Enthuisiast) und eben sagen, das haut so nicht hin. Nur die werden Dir antworten wie ich," wie, was, wo...Asrock Z97-Extreme4, da haben sie wohl was falsch verstanden!" Einsteigsbereich Enthusiast und 2 Titan, naja.

Extreme hört sich gut an, aber das war's! Sollte immer ein "X" dabei sein. Gut, denke das weißt du jetzt selbst. ;)

PHuV
2014-10-25, 23:47:59
Mir ist jetzt erst aufgefallen: Ich hab mir ja ein Gigabyte GA-Z97X Gaming G1-Board gekauft, der hat ja auch den PLX-Chip drin. Also würde hier SLI+G-Sync funktionieren?

Blaire
2014-10-25, 23:56:55
Klar warum sollte das auch nicht funktionieren? :confused:
Problematisch ist lediglich DSR zusätzlich zu G-Sync, das unterstützt der Treiber noch nicht. Das soll es erst mit einen späteren Treiber-Release, aber es gibt noch keinen Termin.

4Fighting
2014-10-31, 17:55:44
@Blaire

funzt eigentlich Gsync mit einer Titan-Z? Dort wird ja die Kommunikation über den internen PLX Chip geregelt und nicht direkt über PCIe oder?

Blaire
2014-11-01, 00:36:37
Macht prinzipiell keinen Unterschied es bleibt ja dabei, einzig die Latency da bin ich mir nicht sicher, könnte durch zus. PLX-Chip um einiges höher sein. Um wieviel genau, hab ich keine Ahnung.

akuji13
2014-11-02, 07:15:39
OK Stimmt. :D
60-80 FPS (mit einer Titan) in Ultra Settings + 1440p in jedem noch so neusten Spiel sind einfach super zäh. ;D;D;D

Du hast 60-80 fps in 1440p mit einer Titan z. B. in Lords of the Fallen oder Ryse?

http://www.neogaf.com/forum/showthread.php?t=920962
http://www.pcgameshardware.de/Ryse-PC-259308/Specials/Test-Technik-1138543/

Best case vielleicht, aber nicht normal/worst case.
Und genau darum geht es.

Dazu bedarf es nicht einmal der neuesten Spiele, ein Shadow Warrior 2013 richtet selbst ein SLI hin an diversen Stellen, von 3D oder schlechteren ports alá Dead Rising 3 oder The Evil Within fange ich gar nicht erst an.
Und hochwertiges AA, tweaks und modding kommt auch noch oben drauf.

Außerdem haben wir einen 144Hz Monitor, keinen 60-80Hz. ;)

Du kannst natürlich 3-9% theoretische CPU Leistung gegen 25-30% deiner möglichen SLI-Performance eintauschen

Die 25-30% Verlust hätte ich gerne mal gesehen.

Brainscan
2014-11-13, 16:57:58
Mir ist jetzt erst aufgefallen: Ich hab mir ja ein Gigabyte GA-Z97X Gaming G1-Board gekauft, der hat ja auch den PLX-Chip drin. Also würde hier SLI+G-Sync funktionieren?

Intressiert mich gerade auch ;)

4Fighting
2014-11-13, 17:14:15
warum sollte das einen Unterschied machen? Die Datenmenge, die ausgetauscht werden muss und anscheinend das Problem macht, bleibt doch gleich.

robbitop
2014-11-13, 18:00:12
SLI + G-Sync geht. Aber die Datenmenge ist das Problem. Ein PCIe Switch hilft, da die Bandbreite zwischen den GPUs höher ist als ohne (Sockel 1050/55 Plattform).
Ideal ist PCIe 16x 3.0.

4Fighting
2014-11-13, 19:07:33
Optimal ist es aber immer noch nicht mit PLX Chip vor dem Hintergrund eines möglichst flüssigen Spielens

Mysterion
2014-11-13, 23:05:42
Am Samstag erhalte ich ein ASrock Z97 OC Formula. Dann werde ich meine Tomb Raider Benchmarks noch mal durchführen. Damit sollte die Frage, ob SLI+G-Sync tatsächlich den Traffic auf die PCIe lanes umverteilt endgültig beantwortet werden können. Signifikante Unterschiede zwischen den Ergebnissen mit dem Formula (x8/x8) und dem XPower (x16/x16 PLX) könnten dies belegen.

Hübie
2014-11-13, 23:18:12
SLI + G-Sync geht. Aber die Datenmenge ist das Problem. Ein PCIe Switch hilft, da die Bandbreite zwischen den GPUs höher ist als ohne (Sockel 1050/55 Plattform).
Ideal ist PCIe 16x 3.0.

Theoretisch! Dann müsstest du aber SLi umprogrammieren oder halt fette Bandbreite über die Brücke haben.
Ich hab im Performance Toolkit von nVidia etwas gefunden womit man die Datenmenge messen kann welche über die Brücke wandert. Leider hab ich nicht die Expertise um das in ein Programm zu überführen :freak: Und meine Zockerkiste will ich nicht mit Visual Basic und dem PerfKit vollmüllen. Habe erst letzte Woche Win7 installiert, nachdem sich W8 zwei mal selbst "zerupdatet" hat:mad:
Orbmu2k hat wohl auch kein Interesse oder keine Zeit, vermute ich jetzt mal. Jedenfalls kann man alles herausfiltern. Die Frage ist natürlich was das "kostet".

robbitop
2014-11-14, 08:13:15
Optimal ist es aber immer noch nicht mit PLX Chip vor dem Hintergrund eines möglichst flüssigen Spielens
Warum?

Theoretisch! Dann müsstest du aber SLi umprogrammieren oder halt fette Bandbreite über die Brücke haben.
Ich hab im Performance Toolkit von nVidia etwas gefunden womit man die Datenmenge messen kann welche über die Brücke wandert. Leider hab ich nicht die Expertise um das in ein Programm zu überführen :freak: Und meine Zockerkiste will ich nicht mit Visual Basic und dem PerfKit vollmüllen. Habe erst letzte Woche Win7 installiert, nachdem sich W8 zwei mal selbst "zerupdatet" hat:mad:
Orbmu2k hat wohl auch kein Interesse oder keine Zeit, vermute ich jetzt mal. Jedenfalls kann man alles herausfiltern. Die Frage ist natürlich was das "kostet".
Wurde doch schon nachgewiesen, dass die PLX Lösung genauso skaliert wie eine native 2x PCIe 16x Lösung mit unserem Ansatz. Wie bei echtem 2x PCIe 16x gab es keinen Einbruch bei 16x G-Sync (über PCIe) vs non G-Sync (Framebuffertransfer über SLI Brücke). Reduzierung auf 2.0 und 1.0 zeigten wieder Einbrüche. Gleiches Verhalten wie bei Grestorns nativem PCIe 16x 3.0 System.

Für mich auch logisch, weil der Framebuffertransfer (alles andere vieleicht nicht - aber genau das ist bei SLI einer der Bandbreitenfresser!!) direkt zwischen den GPUs läuft. Und zwar über den PCIe.
Der Skalierungsbenchmark sagt für mich jedenfalls das aus.

4Fighting
2014-11-14, 09:09:52
Warum?

weil es eine weitere Komponente ist, die ihre eigene "Latency" einspeist.

robbitop
2014-11-14, 13:53:53
weil es eine weitere Komponente ist, die ihre eigene "Latency" einspeist.
Die Latenz und die Größenordnung dieser ist absolut unkritisch für das Gesamtergebnis. Wir sind da maximal im Mikrosekundenbereich. Ggf. sogar noch im hohen Nanosekundenbereich. Da mach dir mal keine Sorgen. Das hat 0 fühlbaren Einfluss.

4Fighting
2014-11-14, 14:12:00
Die Latenz und die Größenordnung dieser ist absolut unkritisch für das Gesamtergebnis. Wir sind da maximal im Mikrosekundenbereich. Ggf. sogar noch im hohen Nanosekundenbereich. Da mach dir mal keine Sorgen. Das hat 0 fühlbaren Einfluss.

Jedes Review, was ich gelesen habe, hat die Latency immer kritisch angeführt.

Hast Du Tests diesbezüglich?

Mysterion
2014-11-14, 16:25:16
100ns. Also völlig außerhalb der menschlichen Fähigkeiten der Wahrnehmung.

http://www.plxtech.com/download/file/1824

Es war früher wohl mal so, dass die Latenz tatsächlich spürbar war, sprich wahrscheinlich im Millisekunden Bereich. Die Zeiten sind jedoch vorbei.

robbitop
2014-11-14, 16:52:50
Jedes Review, was ich gelesen habe, hat die Latency immer kritisch angeführt.

Hast Du Tests diesbezüglich?
Gabs denn da objektive Messungen?

Mehr als im 100 ns Bereich kann es gar nicht sein. Das sollte klar sein, wenn man grob versteht, wie PCIe funktioniert.
An der Latenz der Bridge selbst dürfte es jedenfalls nicht liegen.

Gast
2014-11-15, 22:41:51
Ich habe auf die schnelle nun relevante Benchmarks mit dem Z97 OC Formula durchgeführt. Zusätzlich zu meinen Tomb Raider Benchmarks habe ich vorher mit dem PLX Board weitere Benchmarks laufen lassen.

Hier die Ergebnisse:

http://s14.directupload.net/images/141115/temp/wxg6g4ac.png (http://www.directupload.net/file/d/3807/wxg6g4ac_png.htm)

Fazit:

Zwischen x8/x8 und x16/x16 via PLX in Verbindung mit G-Sync und SLI liegen keine signifikanten Unterschiede. Lediglich in Firestrike Extreme und Firestrike Ultra war die Performance mit x16/x16 ca 2.3% bzw ca 3.4% höher. In allen anderen Tests war die Performance gleichwertig oder gar etwas besser.

Deine Vermutung kann ich nicht bestätigen, robbitop. Deine Perfomance Probleme müssen an etwas anderem liegen. An der x8 Anbindung kann es jedenfalls nicht liegen, das zeigen meine Tests.

PHuV
2014-11-15, 22:49:58
Danke für den Test, gast? Ist das richtig, mit G-Syncs sind es weniger FPS als ohne? 14 FPS weniger ist ja wirklich eine Hausnummer, das ist fast ein Viertel Verlust.

Kartenlehrling
2014-11-15, 22:57:59
Test mal bitte 3Dmark Skydiver,
das finde ich im moment beste Combi-test der einem Spiel auch am nächsten kommt.

Kartenlehrling
2014-11-15, 23:02:05
Hier die Ergebnisse:



Kann das sein das G-sync bei Tombraider nicht wirklich greift, die 59fps sind sehr verdächtig.

Grestorn
2014-11-15, 23:24:00
Kann das sein das G-sync bei Tombraider nicht wirklich greift, die 59fps sind sehr verdächtig.

Wenn der Monitor nur 60 Hz kann ist das doch ganz normal?!

Hübie
2014-11-16, 05:38:47
Wurde doch schon nachgewiesen, dass die PLX Lösung genauso skaliert wie eine native 2x PCIe 16x Lösung mit unserem Ansatz. Wie bei echtem 2x PCIe 16x gab es keinen Einbruch bei 16x G-Sync (über PCIe) vs non G-Sync (Framebuffertransfer über SLI Brücke). Reduzierung auf 2.0 und 1.0 zeigten wieder Einbrüche. Gleiches Verhalten wie bei Grestorns nativem PCIe 16x 3.0 System.

Für mich auch logisch, weil der Framebuffertransfer (alles andere vieleicht nicht - aber genau das ist bei SLI einer der Bandbreitenfresser!!) direkt zwischen den GPUs läuft. Und zwar über den PCIe.
Der Skalierungsbenchmark sagt für mich jedenfalls das aus.

Reden wir bei skalieren von den üblichen 2-5%? :freak: Es wandern im SLi eigentlich relativ wenig Daten über den Bus.
Wie ist denn deine Speicherbelegung mit und ohne G-Sync im SLi? Kannst du dass mal bitte aufzeichnen? Ergänzend auch die Auslastung auf dem Bus.

Mysterion
2014-11-16, 11:41:08
So, habe mich nun endlich mal angemeldet :D

Test mal bitte 3Dmark Skydiver,
das finde ich im moment beste Combi-test der einem Spiel auch am nächsten kommt.

Sorry geht nicht, dazu müsste ich das Xpower wieder einbauen, worauf ich jetzt keine Lust habe.

Danke für den Test, gast? Ist das richtig, mit G-Syncs sind es weniger FPS als ohne? 14 FPS weniger ist ja wirklich eine Hausnummer, das ist fast ein Viertel Verlust.

Der große Unterschied liegt in dem Fall daran, dass im Metro 2033 Benchmark die fps an einigen Stellen auf 100fps+ gehen. Vor allen in den letzten 4sek sind die fps dauerhaft bei 100+
Bei aktiviertem G-Sync gehen die fps logischerweise in diesen Szenen nur auf 59.9, was sich dann in den avg fps am Ende auswirkt. Daher diese hohe Diskrepanz. G-Sync kostet ca 5% Leistung.

Wenn der Monitor nur 60 Hz kann ist das doch ganz normal?!

So ist es. Mein Monitor ist der ACER XB280HK.

Bin mal gespannt, wann DSR in Verbindung mit G-Sync und SLI funktionieren wird. (Auch wenn es für mich eher uninteressant ist, da ich bereits einen 4K Monitor besitze und Auflösungen >2160p für aktuelle Spiele viel zu viel sind, was den Leistungsbedarf betrifft. Für andere jedoch mit Sicherheit interessant und das ein oder andere ältere Spiel kann man auch in 4320p spielen :D)

hellibelli
2014-11-19, 12:27:03
Wie schaut es denn jetzt mit Sli und G-Sync aus?

Habe ja den ROG Swift und ein Gigabyte Sniper 3 Z77 Board mit ner Ivy CPU 3770k.

Da arbeitet ja noch zusätzlich der PLX Chip mit.

Kann ich da jetzt Sli nutzen oder lohnt sich das nicht. Meine jetzt bei spielen die natürlich ein gutes Profil haben wie Crysis 3 etc.

Gast
2014-11-19, 13:20:30
Wie schaut es denn jetzt mit Sli und G-Sync aus?

Habe ja den ROG Swift und ein Gigabyte Sniper 3 Z77 Board mit ner Ivy CPU 3770k.

Da arbeitet ja noch zusätzlich der PLX Chip mit.

Kann ich da jetzt Sli nutzen oder lohnt sich das nicht. Meine jetzt bei spielen die natürlich ein gutes Profil haben wie Crysis 3 etc.

Ja du kannst SLI+G-Sync nutzen und der Performancegewinn ist bei Spielen mit vorhandenem SLI Profil bzw passenden Kompatibilitätsbits genau so hoch wie ohne G-Sync.

G-Sync kostet aber um die 5% Leistung, egal ob Multi oder Single GPU.

Grestorn
2014-11-19, 13:20:32
SLI und GSync geht wunderbar.

Mit PCIe 2 hat man etwa 5-10% Verlust mit GSync. Unter PCIe 3 ist die Performance identisch mit GSync.

Mysterion
2014-11-19, 13:25:16
SLI und GSync geht wunderbar.

Mit PCIe 2 hat man etwa 5-10% Verlust mit GSync. Unter PCIe 3 ist die Performance identisch mit GSync.

Hmm, also ich hatte auch unter PCIe 3.0 x16 einen Performanceverlust von ~5% mit aktiviertem G-Sync.

Grestorn
2014-11-19, 13:58:44
Ich habe Benchmarks laufen lassen OHNE VSync (und damit auch ohne aktives GSync). Einmal auf einem GSync Monitor und einmal auf einem normalen Monitor (alles identisch eingestellt). Und da gab es ein Delta von 5-10%

http://www.nhancer.com/Metro-Redux-Benchmark-Results-Asus-PCIe1.html
http://www.nhancer.com/Metro-Redux-Benchmark-Results-Dell-PCIe1.html

http://www.nhancer.com/Unigine_Heaven_Benchmark_4.0-Asus-PCIe1.html
http://www.nhancer.com/Unigine_Heaven_Benchmark_4.0_Dell_PCIe1.html

http://www.nhancer.com/Unigine_Valley_Benchmark_1.0_Asus-PCIe1.html
http://www.nhancer.com/Unigine_Valley_Benchmark_1.0_Dell-PCIe1.html

D.h. alleine die Tatsache, dass ein GSync Monitor angeschlossen ist, bremst unter PCI 2 die SLI Performance. Unter PCIe 3 kann ich das nicht nachvollziehen.

hellibelli
2014-11-19, 15:16:24
Super,

danke Leute. Manchmal ist es schon verwirrend auf was man alles achten muss ;D!!

Mysterion
2014-11-19, 16:21:33
Ich habe Benchmarks laufen lassen OHNE VSync (und damit auch ohne aktives GSync). Einmal auf einem GSync Monitor und einmal auf einem normalen Monitor (alles identisch eingestellt). Und da gab es ein Delta von 5-10%

http://www.nhancer.com/Metro-Redux-Benchmark-Results-Asus-PCIe1.html
http://www.nhancer.com/Metro-Redux-Benchmark-Results-Dell-PCIe1.html

http://www.nhancer.com/Unigine_Heaven_Benchmark_4.0-Asus-PCIe1.html
http://www.nhancer.com/Unigine_Heaven_Benchmark_4.0_Dell_PCIe1.html

http://www.nhancer.com/Unigine_Valley_Benchmark_1.0_Asus-PCIe1.html
http://www.nhancer.com/Unigine_Valley_Benchmark_1.0_Dell-PCIe1.html

D.h. alleine die Tatsache, dass ein GSync Monitor angeschlossen ist, bremst unter PCI 2 die SLI Performance. Unter PCIe 3 kann ich das nicht nachvollziehen.

Also ich habe PCIe3 x16/x16 via Z87 PLX und Z97 nativ PCIe3 x8/x8, was von der Bandbreite her PCIe2 x16/x16 entspricht gegengebencht auf einem G-Sync Monitor. Wenn PCIe2 bzw PCIe3 x8 limitiert, müssten die fps sinken. Das war aber nicht der Fall:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10424467#post10424467

Daraus lässt sich ableiten, dass PCIe 2.0 hinsichtlich G-Sync+SLI nicht limitiert. Ich kann gerne noch die selben Tests mit einen non G-Sync Monitor durchführen, allerdings ändert jegliches Ergebnis nichts an den Erkenntnissen meines vorherigen Tests. Ich habe auch schon G-Sync /non G-Sync Monitor gebencht, dort konnte ich keine signifikanten Unterschiede feststellen. Allerdings war dies mit PCIe3 x16/x16

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10397620#post10397620

Ich benche mal mit meinem 1080p non G-Sync Monitor.

Grestorn
2014-11-19, 16:26:17
Und wie erklärst Du Dir meine Ergenisse und auch die früheren aus diesem Thread und die von robbitop?

Mysterion
2014-11-19, 18:11:00
Das weiß ich nicht, die selbe Frage könnte ich Dir ebenfalls stellen.

Ich habe nun mit meinem 1080p Monitor ohne G-Sync auf der Z97 Plattform gebencht. Hier die interessanten Ergebnisse:

http://s14.directupload.net/images/141119/temp/sn8udqtb.png (http://www.directupload.net/file/d/3811/sn8udqtb_png.htm)

Bekräftigt (teilweise) deine Ergebnisse. Abhängig von der Anwendung ist der Performance Verlust bei x8/x8 zwischen einem G-Sync Monitor und einem regulären Monitor ~1% bis ~10%

Leider habe ich jetzt keine Benchmarks mit dem x16/x16 System an dem nicht G-Sync fähigen Monitor parat außer eben Tomb Raider. Dort gab es nur Unterschiede im Komma-Bereich. Wäre natürlich interessant zu sehen, wie die Skalierung in den anderen Benchmarks ist.

Bleibt aber dennoch die Frage, wie sich meine Ergebnisse bezüglich x16/x16 und x8/x8 an einem G-Sync Monitor erklären? Warum sinkt dort die Performance nicht ebenfalls im selben Maße? Lediglich im Firestrike Extreme und Ultra gab es einen drop von 2% bzw 3%
In den anderen Benchmarks war die Performace mit x8 gleichauf oder gar besser als mit x16.

Gibt es bei Mainboards heute noch relevante Performance Unterschiede, sprich ~10%? Oder könnte eventuell der Wechsel von Z87 auf Z97 einen Performance Gewinn bedeuten?
Falls ja, dann könnte dies meine Ergebnisse erklären, denn dann hätte dieser Performance Gewinn den Verlust von x16 zu x8 aufgefangen.

Edit: Könntest Du vielleicht mal an deinem G-Sync Monitor PCIe3 vs PCIe2 testen? Am besten einen Benchmark, den ich ebenfalls verwendet habe.

Grestorn
2014-11-19, 18:44:54
Ich hab ja auch mit PCIe 1 (und nicht 2, wie im Posting fälschlicher Weise geschrieben) getestet. Also hab ich nochmal die halbe Bandbreite wie Du, weswegen es klar ist, dass die Verluste bei mir entsprechend ausgeprägter sind, als bei Dir.

Heute werde ich keine Benches mehr laufen lassen, sorry :) Ein andermal gerne.