PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI-Diskussion


aths
2010-02-06, 18:05:32
Und Du findest es legitim, von einem Erfahrungswert ausgehend, eine allgemeingültige Aussage ("Theorem") zu treffen?

Crysis ist in der Tat problematisch. Je nach Situation bringt SLI einen Vorteil oder einen Nachteil. Auch die Treiberversion spielt bei Crysis eine große Rolle. Mit aktuelleren Treibern habe ich es schon länger nicht mehr probiert, muss ich zugeben. So ein Crysis-Fan bin ich nicht.Statt Theorem hätte ich auch Postulat schreiben können. Ich behaupte schließlich Dinge, ohne sie vollständig zu beweisen.

Zunächst möchte ich noch mal kurz die Hintergründe für meinen Rant ausführen.
Erstes athssches SLI-Theorem: Wenn man die Frameraten mit SLI/Crossfire auf einem Niveau hat dass Mikroruckeln nicht auffällt, benötigt man ohnehin kein SLI oder Crossfire *1. Zweites Theorem: Was SLI an Extra-Performance rausholt, frisst die verzögerte Reaktion auf die Eingabe wieder auf *2.


*1 SLI bringt im Durchschnitt etwa +70% Framerate. Die "effektive" FPS-Steigerung, abgeschwächt durch Mikroruckeln, schätze ich auf 50% wenn man Glück hat, 30% wenn man Pech hat. Wie ich zu den Zahlen komme ist etwas esoterisch, wenn jemand Messreihen hat werte ich die sehr gerne statistisch aus. Jedenfalls bringt der Ruckeleffekt auch Nachteile. Gleichmäßige 15 fps sind angenehmer als 10-20 fps mit Schwankungen in Zwei-Frame-Abständen.

*2 Nur einige 3D-Shooter haben auf maximaler Stufe 3D-Anforderungen die übliche Karten aus dem Performance-Segment nicht mehr packen. Gerade beim Shooter ist aber eine schnelle Reaktion auf die Eingabe notwendig.


Der Rant richtet sich weniger an 3dcf-User, die bewusst SLI einsetzen, sondern an Leute, die HybridSLI ("GeForce Boost") gut finden oder vorschlagen, bei GeForce Boost die schnellere Karte jeweils zwei Bilder berechnen zu lassen während die Onboard-Grafik eines berechnet. Denken die mal darüber nach, was das für Timing-Probleme aufwirft und was das für den Input-Lag bedeutet?

Crysis zocke ich derzeit im DX9-Modus mit zum Teil gesenkten Details damit es rund läuft. Mit SLI liefe es auch in DX10 flüssig, für mein Gefühl aber insgesamt nicht besser. Crysis ist außerdem ein Shooter, da brauche ich eine vernünftige Reaktionszeit. 2-way SLI bringt jetzt nicht sooo viel effektive Zusatzleistung, bei 3-way SLI haut die Zusatzlatenz schon einigermaßen rein, was ich dann zu Quad-SLI zu sagen habe kann man sich denken.

Mein Ansatz ist, auf die Entwicklung der GPU zu setzen. Die wird ja schneller schneller als die CPU. Für 30-50% effektive Mehrleistung würde ich nicht eine zweite Grafikkarte kaufen. Da drehe ich lieber erst mal Details runter und zocke das Game später mit einer stärkeren Grafikkarte mit vollen Details.

Andere setzen auf SLI. Inzwischen sind SLI-Mainboards ja ohne exorbitanten Aufpreis zu bekommen und die Grafikkarten unterstützen das sowieso. Mit schierer Masse die SLI-Nachteile wieder ausgleichen zu wollen, ist mir jedoch zu servil gegenüber den Hardware-Anbietern. Ich verlange ja auch lieber ordentlichen Conent anstatt das Geflimmer mit Extrem-Supersampling wieder wegbügeln zu müssen.

Dabei halte ich – hier kann man mir Inkonsistenz vorwerfen – SLI für SLI-AA mit Supersamplinganteil wiederum für gut. Der Qualitätsgewinn ist weitaus zwar geringer als 100% und man benötigt immerhin doppelte Grafikleistung. Ich weiß auch nicht ob es auch SLIAA-Modi gibt, welche zum Beispiel ein 4xS-AA-Muster rein als Supersampling realisieren und dazu noch Multisampling nutzen. Man könnte so ohne großen Aufwand in der Treiberprogrammierung und für die Anwendung transparent die Bildqualität noch steigern. Man könnte via Treiber auch für DX10- oder 11-Anwendungen unabhängig von SLI Supersampling-AA realisieren, indem á la VSA-100 jedes Bild mehrfach gerendert wird und die GPU am Ende die Frames zusammenmischt. Da bin ich für obwohl der Qualitätsgewinn im Vergleich zum zusätzlichen Rechenaufwand gering ist.

Was mich bei SLI und CF aufregt, ist dass die Nvidia- und ATI-Heinis vor Vorfreude grinsend auf Applaus warten was für geile Leistungssteigerungen dank ihrer tollen Multi-GPU-Technologie möglich seien. Balkendiagramme zeigen einen angeblichen Leistungsgewinn als durchschnittliche fps-Rate – weil der normale Redakteur schlicht zu dumm ist, bei einer fps-Durchschnittsrate auch nach Standardabweichung oder Varianz zu fragen.

Cubitus
2010-02-06, 22:19:13
Erstes athssches SLI-Theorem: Wenn man die Frameraten mit SLI/Crossfire auf einem Niveau hat dass Mikroruckeln nicht auffällt, benötigt man ohnehin kein SLI oder Crossfire *1. Zweites Theorem: Was SLI an Extra-Performance rausholt, frisst die verzögerte Reaktion auf die Eingabe wieder auf *2.

Man sollte natürlich eine gute Balance, zwischen der rohen Kraft die man mit SLI bekommt und das was im Spiel damit möglich ist, finden!

Nvidia hat einige Games so optimiert das MR kaum mehr auffallen, Crysis ist da wirklich ein schönes Beispiel, das auch unter 30 FPS noch einen flüssigen Eindruck macht. Ich hab mir zudem sagen lassen, das bei ATIs Lösung die MR viel stärker wahrgenommen werden.

Zudem bieten die meisten Games mittlerweile einen Frame-Limitierer an,
bei allem Unreal Engine 3 Games ist zudem immer eine Framebegrenzung vorhanden,
man muss diese nur in der ini aktivieren, wenn das nicht schon im Spiel passiert ist.

und zu 2.
Fällt praktisch nicht ins Gewicht.
Ich treffe z.b bei Dods und Unreal genau so gut wie im Singel mode.
Nur das ich bei Online Games die Grafik nicht mehr runterschrauben muss!

Das einzige was mir zu schaffen macht ist ein hoher Ping!
Bei Track Mania spiele ich mit SLI und der Graphik bis zum Anschlag
Mit einer Singel GPU reagiert das Auto durch niedrige FPS zu träge .

Crysis zocke ich derzeit im DX9-Modus mit zum Teil gesenkten Details damit es rund läuft. Mit SLI liefe es auch in DX10 flüssig, für mein Gefühl aber insgesamt nicht besser. Crysis ist außerdem ein Shooter, da brauche ich eine vernünftige Reaktionszeit. 2-way SLI bringt jetzt nicht sooo viel effektive Zusatzleistung,


Man kann sich vieles schönreden, 2Way AFR bringt eine Messbare Verdoppelung der FPS, Die MR sind durch das optimierte AFR-Profil kaum wahrnehmbar.
zudem bietet Crysis wohl auch eine Art FPS-Limitierung an.



Dabei halte ich – hier kann man mir Inkonsistenz vorwerfen – SLI für SLI-AA mit Supersamplinganteil wiederum für gut. Der Qualitätsgewinn ist weitaus zwar geringer als 100% und man benötigt immerhin doppelte Grafikleistung


Der Qualitätsgewinn wird subjektiv empfunden, Supersampling und den fast schon vergessenen SLI AA Modi gefallen mir sehr, da diese Modis doch alles ziemlich glattbügeln.

SLI-AA kann bei guter CPU Leistung ein toller Kompromiss zwischen sehr guter Qualität und 100 prozentig Mikroruckler- freies Spielen sein !


Ich weiß auch nicht ob es auch SLIAA-Modi gibt, welche zum Beispiel ein 4xS-AA-Muster rein als Supersampling realisieren und dazu noch Multisampling nutzen

Gibt es nicht, es gibt nur MSAA mit Verbindung von SLI-AA SS

Man könnte so ohne großen Aufwand in der Treiberprogrammierung und für die Anwendung transparent die Bildqualität noch steigern. Man könnte via Treiber auch für DX10- oder 11-Anwendungen unabhängig von SLI Supersampling-AA realisieren, indem á la VSA-100 jedes Bild mehrfach gerendert wird und die GPU am Ende die Frames zusammenmischt. Da bin ich für obwohl der Qualitätsgewinn im Vergleich zum zusätzlichen Rechenaufwand gering ist.


Ist eben alles Politik, für mich als Qulitäts -Fetischist wäre so ein Lösungsansatz ebenfalls wünschenswert!

Was mich bei SLI und CF aufregt, ist dass die Nvidia- und ATI-Heinis vor Vorfreude grinsend auf Applaus warten was für geile Leistungssteigerungen dank ihrer tollen Multi-GPU-Technologie möglich seien.

Ich beschäftige mich mit SLI seit der 7900GX2 und hatte zwischenzeitlich auch ein X1900XT im CF laufen.

Trotz all der Nachteile die das AFR mit sich bringt bietet Nvidia zumindest die bessere
und komfortablere Multi-GPU Lösung an.

SLI kann wenn es richtig konfiguriert und bei guter Profilanpassung+optimaler Skalierung:

Viel Spaß bereiten.
einen Vorgeschmack auf die kommende GPU Generation bieten.

huha
2010-02-06, 23:04:30
Die Diskussion bzgl. SLI und Neustart befindet sich nun hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476655).

-huha

aths
2010-02-06, 23:29:12
und zu 2.
Fällt praktisch nicht ins Gewicht.
Ich treffe z.b bei Dods und Unreal genau so gut wie im Singel mode.
Nur das ich bei Online Games die Grafik nicht mehr runterschrauben muss!Hier sind wir uns einig – noch heute stellen Quake-Spieler die Grafik runter. Ich will Games auch online in voller Pracht genießen und kann die Sprüche aus Quake-Zeiten nicht hören dass man da halt kein AA nutzt weil man so-und-so-viele Frames benötige. Dann braucht man eben eine schnellere Grafikkarte. Das heißt für Quake 3 dann schon eine GeForce 4 Ti, obwohl man das Spiel in geringere Qualität auch locker auf einer TNT 2 Pro zocken kann.

Das einzige was mir zu schaffen macht ist ein hoher Ping!
Bei Track Mania spiele ich mit SLI und der Graphik bis zum Anschlag
Mit einer Singel GPU reagiert das Auto durch niedrige FPS zu träge .Trackmania habe ich auf einer 8600 GTS flüssig laufen gesehen ...?

In Dingen Autorennen bin ich ganz weg vom PC. Ich fahre nur noch in Gran Turismo 4. Dort habe ich 50 Frames ohne Ruckeln. Ohne kurzes Nachlade-Pausieren. In der Kurve dieselbe Framerate wie auf gerade Strecker. Beim virtuellen Autofahren ist eine stabile und gleichzeitig hohe Framerate für mich wichtiger als alles andere. Außerdem reagiert der Wagen in GT4 ohne spürbare Verzögerung.

Man kann sich vieles schönreden, 2Way AFR bringt eine Messbare Verdoppelung der FPS, Die MR sind durch das optimierte AFR-Profil kaum wahrnehmbar.
zudem bietet Crysis wohl auch eine Art FPS-Limitierung an.Verdopplung sehe ich nicht mal im 3DMark, obwohl der Treiber dafür sehr stark optimiert sein dürfte und obwohl es sich dabei um feste Szenarien handelt bei dem der Treiber im Voraus die Lastenverteilung kennt. Für mein Empfinden läuft zum Beispiel der Vantage nicht mal auf einer Single-GPU schön geschmeidig, sondern hat seltsame Sprünge in der zeitlichen Verteilung der Framerate.

Erst mit SLI die Framerate zu steigern und sie dann im Kampf gegen das Mikroruckeln zu limitieren ist absurd. Ja, mit einem Framerate-Limiter bekommt man den Mikroruckel-Effekt weg solange die Framerate immer am Limit-Anschlag läuft.

Ich weiß nicht wie der Treiber aktuell ist – ich kenne SLI noch so, dass kein VSync möglich ist. Das ist ebenfalls absurd – zweite Grafikkarte rein, dafür wieder Tearing. Und man benötigt einen Extra-Framerate-Limitier, obwohl VSync sonst bereits als idealer Limitier fungieren würde. Oder man lebt mit Mikroruckeln welches einen Großteil der Performance effektiv auffrisst plus Tearing.

Der Qualitätsgewinn wird subjektiv empfunden, Supersampling und den fast schon vergessenen SLI AA Modi gefallen mir sehr, da diese Modis doch alles ziemlich glattbügeln.

SLI-AA kann bei guter CPU Leistung ein toller Kompromiss zwischen sehr guter Qualität und 100 prozentig Mikroruckler- freies Spielen sein !Kann, aber nur unter idealen Bedingungen. Man muss mit SLI die Leistung so hochschrauben, dass man zwischendurch nicht doch mal ins Ruckeln gerät, sonst ist die Synchronisation dahin.

Es gibt Leute, die haben sich für teures Geld eine 9800 GX2 gekauft und denken, sie hätten effektiv 1024 MiB RAM. Die Karte ist so schnell, dass man tatsächlich 1024 MiB pro GPU brauchen könnte. Ich würde meine GTX 285 nicht gegen eine 295 eintauschen wollen, obwohl letztere – Mikroruckeln hin oder her – mehr Leistung hat: Der Wartungsaufwand für sorgenfreies Spielen ist mir zu hoch.

SLI kann wenn es richtig konfiguriert und bei guter Profilanpassung+optimaler Skalierung: Viel Spaß bereiten. einen Vorgeschmack auf die kommende GPU Generation bieten.Wenn man Spaß am Basteln hat, kann man mit SLI zurechtkommen. Mein Vorbehalt richtet sich auch gegen die von Nvidia suggierte Vorstellung, alles was man tun müsse ist ein SLI-fähiges Motherboard zu kaufen und mindestens zwei Grafikkarten. Dass SLI Probleme bereiten kann (erhöhte Instabilität, seltsame Freezes) und in WoW nichts bringt (dort limitiert sowieso die CPU, wenn es in Dalaran ruckelt, ich weiß gar nicht ob der Treiber für WoW überhaupt SLI aktiviert) wird natürlich nicht gesagt. Man benötigt neben der Geduld, alles schön einzurichten, auch Kenntnisse darüber wie man die Framerate limitieren kann (geht per Tool nur bis D3D9, dabei sind D3D9-Spiele durch die Bank schnell genug auf aktuellen Karten der Performance-Klasse) und man sollte unbedingt sowas wie den nHancer haben.

Das SLI-Marketing zeigt immer einen als Gamer verkleideten Lackaffen mit ernstem Gesichtsausdruck. Botschaft: Eh, willst du den Gegner pnwen, brauchst du krasses SLI!

Dass ausgerechnet Progamer oft wenig Ahnung von Hardware haben (Eingabe-Geräte wie Maus und Tastatur ausgenommen) kommt nicht zur Sprache.

Ich zweifle nicht die Existenzberechtigung von Karten wie GX2 oder GTX 295 an. Zum Beispiel für Cuda sind die sehr gut. Auch für einige wenige Gamer sind das die jeweils besten verfügbaren Lösungen gewesen.

Cubitus
2010-02-07, 00:14:42
Trackmania habe ich auf einer 8600 GTS flüssig laufen gesehen ...?

Aber nicht mit 2x2 SS + 2x MS :wink:

In Dingen Autorennen bin ich ganz weg vom PC. Ich fahre nur noch in Gran Turismo 4. Dort habe ich 50 Frames ohne Ruckeln. Ohne kurzes Nachlade-Pausieren. In der Kurve dieselbe Framerate wie auf gerade Strecker. Beim virtuellen Autofahren ist eine stabile und gleichzeitig hohe Framerate für mich wichtiger als alles andere. Außerdem reagiert der Wagen in GT4 ohne spürbare Verzögerung.

ich spiele gerne Shift mit einem X360 Pad von der Couch aus. Hab als Monitor ja einen LCD-TV. Schade das es GT4 nicht auch für den PC gibt, muss mich mit GT2 auf einem Playstation emulator begnügen. Wenigstens sieht es durch das AA und AF besser aus als damals auf der PSX.

Verdopplung sehe ich nicht mal im 3DMark, obwohl der Treiber dafür sehr stark optimiert sein dürfte und obwohl es sich dabei um feste Szenarien handelt bei dem der Treiber im Voraus die Lastenverteilung kennt.

3DMark ist auch ein schlechtes Beispiel, bzw mir persönlich ist der 3DMark Score völlig egal
Falls du SSAA verwendest, erreichst du mit SLI fast immer die doppelte FPS-Rate!

Natürlich ist die ganze Situation auch von der Auflösung und diversen Settings abhängig.

Erst mit SLI die Framerate zu steigern und sie dann im Kampf gegen das Mikroruckeln zu limitieren ist absurd. Ja, mit einem Framerate-Limiter bekommt man den Mikroruckel-Effekt weg solange die Framerate immer am Limit-Anschlag läuft.

Bei der Leistung eines High End SLI Gespann auch kein Problem. Durchgängig 60 FPS+ 8xS bei der U3E sind kein Thema! Sogar das neuste Mass Effect 2 spiele ich mit reinem 2x2 SS@1080p. Die Framerate geht sehr selten unter die 30 FPS Marke, meistens liegt sie auf 60 FPS. Zudem kann man den Limitierer bei der U3E, je nach Setting mit variablen Werten einstellen.


Ich weiß nicht wie der Treiber aktuell ist – ich kenne SLI noch so, dass kein VSync möglich ist. Das ist ebenfalls absurd – zweite Grafikkarte rein, dafür wieder Tearing. Und man benötigt einen Extra-Framerate-Limitier, obwohl VSync sonst bereits als idealer Limitier fungieren würde. Oder man lebt mit Mikroruckeln welches einen Großteil der Performance effektiv auffrisst plus Tearing.

Vsync ist mit SLI problemlos möglich!

Wenn man Spaß am Basteln hat, kann man mit SLI zurechtkommen. Mein Vorbehalt richtet sich auch gegen die von Nvidia suggierte Vorstellung, alles was man tun müsse ist ein SLI-fähiges Motherboard zu kaufen und mindestens zwei Grafikkarten. Dass SLI Probleme bereiten kann (erhöhte Instabilität, seltsame Freezes) und in WoW nichts bringt (dort limitiert sowieso die CPU, wenn es in Dalaran ruckelt, ich weiß gar nicht ob der Treiber für WoW überhaupt SLI aktiviert) wird natürlich nicht gesagt. Man benötigt neben der Geduld, alles schön einzurichten, auch Kenntnisse darüber wie man die Framerate limitieren kann (geht per Tool nur bis D3D9, dabei sind D3D9-Spiele durch die Bank schnell genug auf aktuellen Karten der Performance-Klasse) und man sollte unbedingt sowas wie den nHancer haben.

Deswegen ist SLI auch eher was für Enthusiasten, weil doch etwas Konfigurations- Aufwand nötig ist.
Das WOW Profil beherrscht wie fast alle AFR Profile.bis 4Way AFR. Klar sollte für SLI immer ein starke CPU vorhanden sein. Mittlerweile ist SLI relativ stabil, außer man übertaktet seine Karten ins bodenlose, oder das NT ist zu schwach für zwei Karten.

Natürlich gibt es durch die aktuelle HD5XXX Gen. super schnelle Singel Karten,
allerdings spiele ich schon fast zwei Jahre mit dieser brachialen Leistung ;)

Ja der Nhancer ist Pflicht, ich hab selbst schon mit dem Kollegen Blaire an diversen SLI Profilen herumgebastelt um noch das letzte an Skalierung heraus zu kitzeln. Sowas geht bei ATI leider überhaupt nicht! Da hat man 2-3 gute exe Dateien die in die Qualitäts- optimierte Cataylst AI integriert sind und das war es dann auch schon. Auch durchaus simple aber unverzichtbare Goodys wie eine Lastanzeige kennt ATI nicht.

Das SLI-Marketing zeigt immer einen als Gamer verkleideten Lackaffen mit ernstem Gesichtsausdruck. Botschaft: Eh, willst du den Gegner pnwen, brauchst du krasses SLI!

Dass ausgerechnet Progamer oft wenig Ahnung von Hardware haben (Eingabe-Geräte wie Maus und Tastatur ausgenommen) kommt nicht zur Sprache.

;D Mich kotzt das ebenfalls an, ein Nerd so wie in der IBM Werbung wäre mir persönlich lieber..

kmf
2010-02-09, 11:27:24
[...]
Verdopplung sehe ich nicht mal im 3DMark, obwohl der Treiber dafür sehr stark optimiert sein dürfte und obwohl es sich dabei um feste Szenarien handelt bei dem der Treiber im Voraus die Lastenverteilung kennt. Für mein Empfinden läuft zum Beispiel der Vantage nicht mal auf einer Single-GPU schön geschmeidig, sondern hat seltsame Sprünge in der zeitlichen Verteilung der Framerate.

Erst mit SLI die Framerate zu steigern und sie dann im Kampf gegen das Mikroruckeln zu limitieren ist absurd. Ja, mit einem Framerate-Limiter bekommt man den Mikroruckel-Effekt weg solange die Framerate immer am Limit-Anschlag läuft.

Ich weiß nicht wie der Treiber aktuell ist – ich kenne SLI noch so, dass kein VSync möglich ist. Das ist ebenfalls absurd – zweite Grafikkarte rein, dafür wieder Tearing. Und man benötigt einen Extra-Framerate-Limitier, obwohl VSync sonst bereits als idealer Limitier fungieren würde. Oder man lebt mit Mikroruckeln welches einen Großteil der Performance effektiv auffrisst plus Tearing.

Kann, aber nur unter idealen Bedingungen. Man muss mit SLI die Leistung so hochschrauben, dass man zwischendurch nicht doch mal ins Ruckeln gerät, sonst ist die Synchronisation dahin.

Ich würde meine GTX 285 nicht gegen eine 295 eintauschen wollen, obwohl letztere – Mikroruckeln hin oder her – mehr Leistung hat: Der Wartungsaufwand für sorgenfreies Spielen ist mir zu hoch.

Wenn man Spaß am Basteln hat, kann man mit SLI zurechtkommen. Mein Vorbehalt richtet sich auch gegen die von Nvidia suggierte Vorstellung, alles was man tun müsse ist ein SLI-fähiges Motherboard zu kaufen und mindestens zwei Grafikkarten. Dass SLI Probleme bereiten kann (erhöhte Instabilität, seltsame Freezes) und in WoW nichts bringt (dort limitiert sowieso die CPU, wenn es in Dalaran ruckelt, ich weiß gar nicht ob der Treiber für WoW überhaupt SLI aktiviert) wird natürlich nicht gesagt. Man benötigt neben der Geduld, alles schön einzurichten, auch Kenntnisse darüber wie man die Framerate limitieren kann (geht per Tool nur bis D3D9, dabei sind D3D9-Spiele durch die Bank schnell genug auf aktuellen Karten der Performance-Klasse) und man sollte unbedingt sowas wie den nHancer haben.

Das SLI-Marketing zeigt immer einen als Gamer verkleideten Lackaffen mit ernstem Gesichtsausdruck. Botschaft: Eh, willst du den Gegner pnwen, brauchst du krasses SLI!

Dass ausgerechnet Progamer oft wenig Ahnung von Hardware haben (Eingabe-Geräte wie Maus und Tastatur ausgenommen) kommt nicht zur Sprache.

Ich zweifle nicht die Existenzberechtigung von Karten wie GX2 oder GTX 295 an. Zum Beispiel für Cuda sind die sehr gut. Auch für einige wenige Gamer sind das die jeweils besten verfügbaren Lösungen gewesen.SLi arbeitet unter 3DMark06 eigentlich gar nicht so gut, da dieser zu sehr CPU Taktraten abhängig ist. Vantage hingegen wird erst durch SLi relativ flüssig wiedergegeben.

Basteln musste ich nur bei meinem X38 Board, um dem überhaupt SLi-Fähigkeit einzuhauchen. Beim 780i Board hingegen ging das ratzfatz, Karten rein, Brücke drauf, Treiber installieren und SLi genießen. Unter Win7 wird das sogar automatisch aktiviert. ;)

VSync funtioniert einwandfrei. Auch Multi-Display-Betrieb ist kein Thema mehr, das funktioniert tadellos. Microruckeln ist mit aktuellen Treibern unter Win7 kaum noch spürbar. Auch die immer wieder angesprochene Eingabeverzögerung fällt mir nicht auf, sei es jetzt, dass ich an SLi schon so gewöhnt bin oder meine Reflexe eh nicht mehr die besten sind. Ich spiele fast alle aktuellen Shooter und RPGs. Online spiele ich jedoch so gut wie gar nicht mehr.

Im Prinzip bin ich aber gar nicht auf maximale Frames aus, sondern auf BQ. Und gerade da ist SLi ein probates Mittel, was gegen den Augenkrebs zu tun.

Im Moment zocke ich z.B. Dragon Age Origins, in meiner Hardware maximal zumutbaren BQ-Settings. Dazu kommt noch der hochauflösende TexturMod. Selbst VSync ist aktiviert, um die Zwischensequenzen sauber darzustellen. Mit nur einer Karte verkommt solch ein Szenario ganz schnell zur Diashow.

Grestorn
2010-02-09, 19:41:56
Nur mal ein weiteres Beispiel, bei dem SLI optimal funktioniert:

Bioshock 2 unter DX10. Mit Anti-Aliasing (4x) bekommt man unter 1920 nur noch zwischen 40 und 60 fps schwankend. Mit SLI hat man nahezu überall konstante 60 fps (mit VSync).

Input Lag merke ich nicht ebensowenig Mikroruckeln. Im Gegenteil, schon lange kein so rundes Spiel mehr gespielt.

Gast
2010-02-13, 11:07:12
Hallo,

eigentlich ist es doch recht simpel und bei Cryostasis (mit Physx Patch) merke ich es sehr gut: 2x GTX260 in SLI laufen je nach Szenen besser oder schlechter als ein GTX280 + GTX260 (Physx Beschleuniger). Wenn SLI unter eine kritische Grenze fällt (ich schätze 25 fps) ist es einfach nur große Schei*e. Es ist als hätte man 10 fps oder so. Andere Szenen die mit der GTX280 + GTX260 zäh laufen sind spürbar schneller (smoother). Auf jeden Fall ist ein großer Fortschritt seit meinen ersten SLI Erfajrungen (7950GX2) erfolgt. Wer immer auf der sichernen Seite sein will, sollte kein SLI nutzen.
Meine GTX260 takten im 2D Modus herunter, wenn man GPUZ truen kann.

Wuge
2010-02-13, 11:09:28
Als ich begann CoD World at War zu spielen, lief das ganze auf einer einzelnen GF8 mit etwa 45 - 55 FPS ohne AA. Dazu noch Tearing, da die FPS für VSync zu niedrig waren. Dann kam die zweite GF8 - die ich eigentlich nur gekauft habe, weil ich sie fürn Appel&nEi bekommen hab - und ich konnte mit konstant 60 FPS bei 4xAA und VSync on spielen. Das ist für mich eine deutliche Verbesserung.

NFS Shift. Beim Erscheinen (es gab kein SLI-Profil) mit den gewünschten Einstellungen ~ 45 FPS ohne VSync. Mit VSync kaum mehr als 30 FPS und damit echt unschön. Dann kam das SLI-Profil und ich hatte wieder meine 60 FPS mit VSync on, bei sehr seltenen Abstechern nach unten.

Wings of Prey - zunächst wieder ohne SLI-Profil mit 20-35 FPS je nach Situation. Mit SLI-Profil wurde es fast doppelt so schnell und damit gut spielbar.

Man muss dazu sagen, ich hasse es generell ohne VSync zu spielen. Dazu kommt, dass meine CPU den Grafikkarten dermaßen überlegen ist, dass ich mit SLI eine Skalierung von 90% und teilweise noch etwas besser habe. SLI macht für mich häufig den Unterschied, ob ich auf VSync verzichten oder starkes Ruckeln in Kauf nehmen muss oder ob es mit VSync und 60 FPS läuft. Ich würde zwar beim Neukauf immer zu einer möglichst starken Einzel-GPU tendieren aber wenn das nicht reicht, kann man mit SLI durchaus einiges an Qualität gewinnen.

tombman
2010-02-13, 11:42:02
Man darf ja auch nicht vergessen, daß man mit SLI (und mit Quad-SLI erst recht;D) meist in so hohen FPS-Regionen spielt, daß man auf MR getrost "pissen" kann.
80fps Quad-SLI fps fühlen sich BESSER an als 30fps SINGLE GPU- und zwar in jeder Hinsicht.
Latenz SPÜRBAR besser, MR nicht vorhanden ;)

Lawmachine79
2010-02-13, 12:21:25
Man darf ja auch nicht vergessen, daß man mit SLI (und mit Quad-SLI erst recht;D) meist in so hohen FPS-Regionen spielt, daß man auf MR getrost "pissen" kann.
80fps Quad-SLI fps fühlen sich BESSER an als 30fps SINGLE GPU- und zwar in jeder Hinsicht.
Latenz SPÜRBAR besser, MR nicht vorhanden ;)
Naja, aber ich habe doch keine SLI, um etwas, was vorher mit 80fps lief, jetzt mit 160fps zu spielen. Ich habe es, um etwas, was vorher mit 25fps lief, jetzt mit 40-50fps zu spielen. Und da haut MR schon rein. Mit einer 5870 kann ich im Moment doch eh alle Spiele auf Max Details mit 4xMSAA spielen - das werde ich mit Fermi dann erst recht können. Somit ist bei Fermi die einzige SLI-Existenzberechtigung das Zuschalten von Supersampling, insbesondere vor dem Hintergrund, daß immer weniger ressourcenfressende Spiel released werden. Und Supersampling schalte ich solange hoch, bis ich "nur noch" 40-50fps habe, so mache ich es zumindest mit meiner GTX275 bei den Spielen, die nicht matschig damit aussehen (viele sind das leider nicht mehr). Bei 40-50fps habe ich aber MR (bzw. HÄTTE mit SLI).

aths
2010-02-13, 13:54:58
Man darf ja auch nicht vergessen, daß man mit SLI (und mit Quad-SLI erst recht;D) meist in so hohen FPS-Regionen spielt, daß man auf MR getrost "pissen" kann.
80fps Quad-SLI fps fühlen sich BESSER an als 30fps SINGLE GPU- und zwar in jeder Hinsicht.
Latenz SPÜRBAR besser, MR nicht vorhanden ;)80 fps mit Quad-SLI – dann ohne VSync.

Wenn man in Bereichen ist dass Mikroruckler nicht auffallen, braucht man sowieso nicht so viele Grafikkarten. Es sei denn man nimmt wieder VSync und lässt die meiste Zeit die Zusatzleistung verpuffen. Was Latenzen angeht empfindet das jeder wohl anders – ich brauche direkte Reaktion, keinen Nachzieh-Effekt. Dafür setze ich selbst mit der Single-GPU das Prerendering-Limit schon mal runter, auch wenn das FPS kostet.

Beim wettbewerbsorientierten Spielen ist Latenz unheimlich wichtig. Selbst auf meinem Nooblevel in Starcraft so mit um die 45 APM (Actions per Minute) nervt es tierisch, wenn die Mutaliksen nicht sofort abdrehen sobald die Protoss-Cannon schießt. (Hier gehts nicht um Grafik- sondern Netzverbindungs-Lag, aber der Effekt ist vergleichbar.) In Quake oder UT können einige Frames Latenz den Unterschied machen, wer den Frag kassiert. Gerade bei Shootern würde ich nicht auf die Idee kommen, mit SLI irgendwie Zusatzlatenz grafikseitig einzufügen.

Naja, aber ich habe doch keine SLI, um etwas, was vorher mit 80fps lief, jetzt mit 160fps zu spielen. Ich habe es, um etwas, was vorher mit 25fps lief, jetzt mit 40-50fps zu spielen. Und da haut MR schon rein. Mit einer 5870 kann ich im Moment doch eh alle Spiele auf Max Details mit 4xMSAA spielen - das werde ich mit Fermi dann erst recht können. Somit ist bei Fermi die einzige SLI-Existenzberechtigung das Zuschalten von Supersampling, insbesondere vor dem Hintergrund, daß immer weniger ressourcenfressende Spiel released werden. Und Supersampling schalte ich solange hoch, bis ich "nur noch" 40-50fps habe, so mache ich es zumindest mit meiner GTX275 bei den Spielen, die nicht matschig damit aussehen (viele sind das leider nicht mehr). Bei 40-50fps habe ich aber MR (bzw. HÄTTE mit SLI).Quake 3 zockte ich auf der Voodoo4 4500 zwar in 32 Bit aber in 640x480 – ich brauche die 60-75 fps in Shootern. Man kann natürlich heute statt Auflösung runterzudrehen auch mehrere Grafikkarten nutzen. Aber die tatsächliche Verbesserung ist weitaus unterhalb dessen was die Durchschnitts-FPS-Angabe suggeriert. Wenns fürn Singleplayer-Shooter wie Crysis ausreicht, ok.

Als ich begann CoD World at War zu spielen, lief das ganze auf einer einzelnen GF8 mit etwa 45 - 55 FPS ohne AA. Dazu noch Tearing, da die FPS für VSync zu niedrig waren. Dann kam die zweite GF8 - die ich eigentlich nur gekauft habe, weil ich sie fürn Appel&nEi bekommen hab - und ich konnte mit konstant 60 FPS bei 4xAA und VSync on spielen. Das ist für mich eine deutliche Verbesserung.

[...]

Man muss dazu sagen, ich hasse es generell ohne VSync zu spielen. Dazu kommt, dass meine CPU den Grafikkarten dermaßen überlegen ist, dass ich mit SLI eine Skalierung von 90% und teilweise noch etwas besser habe. SLI macht für mich häufig den Unterschied, ob ich auf VSync verzichten oder starkes Ruckeln in Kauf nehmen muss oder ob es mit VSync und 60 FPS läuft. Ich würde zwar beim Neukauf immer zu einer möglichst starken Einzel-GPU tendieren aber wenn das nicht reicht, kann man mit SLI durchaus einiges an Qualität gewinnen.Ja, wenn man billig zu einer zweiten Karte kommt und dann SLI nutzen kann, kann sich das unter dem Strich rechnen. Vor allem für Singleplayer-Spiele. Man hat auch mehr Optionen (SLIAA) als mit nur einer GPU.

Ich würde die GTX 285 aber z. B. nicht gegen zwei GTS 250 eintauschen auch wenn die rein von den durchschnittlichen fps her schneller sein können. Ich würde sie auch nicht gegen drei GTS 250 eintauschen, obwohl die im Benchmark die GTX locker abziehen. SLI hat das Image, einfach geil zu sein: Boah, ZWEI Grafikkarten krass!! Oder sogar drei Grafikkarten. Oder vier.

Das ist keine Beschimpfung von Usern die sich bewusst für ein Multi-GPU-Setup entschieden weil es ihnen Vorteile bringt. Doch beim Vergleich was es bringt muss die Varianz der Framerate sowohl über die komplette Messtrecke, als auch über einen kurzen Zeitraum mit angegeben werden. SLI bringt zum Beispiel in Szenen mit sehr niedriger CPU-Last sehr viele Frames. Nur nützt das gar nichts wenn der Monitor eine Bildwiederholrate von 60 Hz hat. Doch die 200 fps durch SLI reißen den Gesamtscore hoch. Das Endergebnis spiegelt nicht wider, was SLI wirklich bringt.

Wenn ich Zeit habe, schreib ich mal einen kurzen Artikel.

daywalker4536
2010-02-13, 14:54:23
60fps+ ist nicht alltagstauglich und Verschwendung da man mit VSYNC arbeiten sollte. Wer das nicht tut sollte mal zum Augenarzt wenn er es ohne VSYNC besser findet. 60fps, VSYNC auf einem 50" sieht einfach grandios aus. Ein verdammt flüssiges Bild. Unverständlich außerdem die unsinnige, übertriebene Kantenglättung von 4xAA+. Es ist einfach nicht wirtschaftlich und nicht nötig. Also reicht eine SGPU. Wer nur auf maximale Benchmarwerte aus ist sollte sich ernsthaft Gedanken machen.

Grestorn
2010-02-15, 11:15:34
Ich nutze SLI um Spiele, die es bei der von mir gewünschten Qualität eben ohne SLI nicht ganz auf 60 fps schaffen (also zwischen 40 und 50fps hängen bleiben) damit auf 60fps (+VSync) zu bringen. Und da stören mich keine Mikroruckler, jeder der das behauptet, kennt entweder nur Extremfälle oder hat das noch nie selbst in der Praxis gesehen. Zumal VSync selbst ja auch für MR sorgt, was den MR-Einfluss durch SLI praktisch völlig unsichtbar macht.

Ob einem das so viel Geld Wert, soll jeder für sich selbst entscheiden. Es ist für mich aber im Prinzip das gleiche, ob ich statt € 150,- für ne GraKa ausgebe, die es nur auf 40 fps ohne AA schafft, oder € 320,- für eine ausgebe, die bei 4xAA im selben Spiel halt auf 60fps kommt... Auch da zahlt man mehr als das doppelte, aber niemand regt sich darüber auf. Nur SLI wird von vielen als Spinnerei angesehen. Und das nervt mich.

Sonyfreak
2010-02-15, 12:02:46
60fps+ ist nicht alltagstauglich und Verschwendung da man mit VSYNC arbeiten sollte. Wer das nicht tut sollte mal zum Augenarzt wenn er es ohne VSYNC besser findet. 60fps, VSYNC auf einem 50" sieht einfach grandios aus. Ein verdammt flüssiges Bild. Unverständlich außerdem die unsinnige, übertriebene Kantenglättung von 4xAA+. Es ist einfach nicht wirtschaftlich und nicht nötig. Also reicht eine SGPU. Wer nur auf maximale Benchmarwerte aus ist sollte sich ernsthaft Gedanken machen.Endlich weiß ich wie ich meine Grafikkarte zu nutzen habe. Bisher habe ich nämlich immer anstatt mit VSync zu spielen lieber höhere AA-Modi genutzt. :rolleyes:

Für mich persönlich käme SLI nicht in Frage, da ich ziemlich allergisch auf ein Input-Lag reagiere. Kürzlich fiel mir nach einer Neuinstallation des Grafiktreibers auf, dass der Mauszeiger in Fallout 3 nur relativ träge meinen Eingaben folgte, und das obwohl das Prerenderlimit auf 1 lag. Zwar war im Treiberpanel VSync auf Off, trotzdem schien da irgendwie ein Wert steckengeblieben zu sein. Erst nach einem neuerlichen Umschalten (zuerst auf On und dann nochmals auf Off) besserte sich die Lage, und das leichte "Nacheiern" des Mauszeigers blieb fortan aus.

Ähnliche Erfahrungen habe ich auch schon davor einige Male gemacht. Zum Beispiel reagieren die Eingaben bei UT3 meiner Meinung nach wesentlich präziser, wenn man die Höchstgrenze der Framerate von 60 auf 150 oder sogar 200 setzt.

Wie sich ein Prerenderlimit von 4 bei Quad-SLI anfühlt, möchte ich lieber gar nicht wissen. Wenn man damit gut zurecht kommt, wieso nicht? Aber für eine Person wie mich, die sehr allergisch auf Eingabeverzögerungen reagiert, ist das mit Sicherheit nichts. :)

mfg.

Sonyfreak

Gast
2010-02-15, 12:11:53
Zumal VSync selbst ja auch für MR sorgt, was den MR-Einfluss durch SLI praktisch völlig unsichtbar macht.

Dass Nvidia standardmäßig Triple-Buffering aktiviert und es keine Möglichkeit gibt, dieses zu deaktivieren, ist durchaus kritikwürdig.

Grestorn
2010-02-15, 12:48:53
Dass Nvidia standardmäßig Triple-Buffering aktiviert und es keine Möglichkeit gibt, dieses zu deaktivieren, ist durchaus kritikwürdig.

Auch ohne TP hast Du mit VSync immer Microruckler. Denn der zeitliche Bezug zwischen dem Zeitpunkt, an dem Du ein Frame zu sehen bekommst, stimmt auch dann nicht mehr mit dem überein, für den das Spiel das Frame errechnet hat.

Ein Triple-Puffer ändert daran eigentlich recht wenig.

no6ody
2010-02-15, 15:08:04
60fps+ ist nicht alltagstauglich und Verschwendung da man mit VSYNC arbeiten sollte. Wer das nicht tut sollte mal zum Augenarzt wenn er es ohne VSYNC besser findet. 60fps, VSYNC auf einem 50" sieht einfach grandios aus. Ein verdammt flüssiges Bild. Unverständlich außerdem die unsinnige, übertriebene Kantenglättung von 4xAA+. Es ist einfach nicht wirtschaftlich und nicht nötig. Also reicht eine SGPU. Wer nur auf maximale Benchmarwerte aus ist sollte sich ernsthaft Gedanken machen.

Das ist wohl eine Frage des persoenlichen Geschmacks. Wenn dir eine "Kantenglaettung von 4xAA" als "unsinnig und uebertrieben" vorkommt solltest evtl du mal lieber zum Augenarzt gehen.

Sicher ist es besser keine zerhackten Bilder zu haben aber der zusaetzliche Delay ist es mir nicht Wert. Ein 50" Fernseher macht das erst recht nicht besser.

Mit fluessig oder nicht fluessig hat VSYNC sowieso nichts zu tun.

boxleitnerb
2010-02-15, 15:58:23
Ich glaube, er meinte 4xAA+ wie in "mehr" als 4xAA. Bei normalen Polygonkanten (Leitungen u.ä. mal beiseite) ist das schon richtig.

tombman
2010-02-15, 20:32:18
Vsync ist mir viel zu laggy, ich spiele ohne. (egal ob single oder multi gpu)
Schaltet bei 1080p mal 24Hz ein (bei TVs geht das :naughty:) und dann Vsync an -> Willkommen in der Lag-Hölle ;D

Und bei Quake und co schalte ich SLI im Profil aus- weil da baucht man eh keine Leistung.

Sli bringt eben dann Leistung, wenn man sie braucht- und wenn es stört, kann man es ja abschalten.

Ich verstehe aber, wenn Leute kein multi-gpu wollen- man muß es eben mögen, oder eben nicht mögen.
Im Gegensatz zu Grestorn regt es mich schon lange nimmer auf, wenn Leute Multi-Gpu usern jegliche Vernunft absprechen- es ist mir einfach egal ;)

E.T.
2010-02-15, 22:18:30
Zu SLI

Zu 3dfx Zeiten hatte das klare Vorteile:
-Mit einer V2-Karte betrug die maximale Auflösung mit z-Buffer 800x600.
-Mit 2 V2-Karten 1024x768.

Man konnte natürlich auch auf die höhere Auflösung zugunsten höherer Framerate verzichten, aber die war bei Glide-Spielen ohnehin selten das Problem, da perfekt auf eine V2-Karte abgestimmt.

Mikroruckler und Load-Balancing waren aufgrund des Zeilensprungverfahrens kein Thema. Lags soweit ich das in Erinnerung habe auch nicht, die Bilder wurden ja glaub praktisch unverzögert in Hardware zusammengesetzt.

Das heutige SLI und Crossfire hat damit nichts mehr zu tun. Und ich sehe noch einen anderen Aspekt:
SLI/CF lohnen sich ja bekanntlich nur mit High-End-Karten. Aber gerade bei solchen ist mir die Verlustleistung zu hoch, dass ich erst recht keine zweite möchte.


Zu V-sync

Hierzu hätte ich auch eigene Theoreme :D

1. Wenn die Framerate niedrig ist, dann nützt V-sync am meisten, also V-sync an.
2. Wenn die Framerate hoch ist, dann ist die Verzögerung gering, also stört V-sync nicht, also V-sync ebenfalls an.

Zu 1.): V-synch verhindert ja, dass mitten im Bildaufbau des Monitor bereits das nächste nachgeschoben wird, also dass man nicht in der oberen Hälfte das alte und unten schon das neue Bild hat. Das fällt zumindest für mein Empfinden sehr störend auf, wenn bei niedrigen Frameraten V-sync ausgeschaltet ist.

Cubitus
2010-02-18, 09:04:24
Man darf ja auch nicht vergessen, daß man mit SLI (und mit Quad-SLI erst recht;D) meist in so hohen FPS-Regionen spielt, daß man auf MR getrost "pissen" kann.
80fps Quad-SLI fps fühlen sich BESSER an als 30fps SINGLE GPU- und zwar in jeder Hinsicht.Latenz SPÜRBAR besser, MR nicht vorhanden ;)

Der "Entdecker" der aktuellen MR-Problematik hat gesprochen, AMEN :tongue:

Aber so sind auch meine Erfahrungen,
MR fallen bei High END SLI wirklich nur extrem selten auf und da auch nur wenn man extreme Qualitäts-Settings einstellt.

Ob einem das so viel Geld Wert, soll jeder für sich selbst entscheiden. Es ist für mich aber im Prinzip das gleiche, ob ich statt € 150,- für ne GraKa ausgebe, die es nur auf 40 fps ohne AA schafft, oder € 320,- für eine ausgebe, die bei 4xAA im selben Spiel halt auf 60fps kommt... Auch da zahlt man mehr als das doppelte, aber niemand regt sich darüber auf. Nur SLI wird von vielen als Spinnerei angesehen. Und das nervt mich.

Naja weil es dann fast das Dreifache an Geld kostet, deswegen vielleicht.
Aber wie sagte mal eine bekannte Werbung von Einst,

Manchmal muss man Prioritäten setzen.

@aths

Hattest du eigl mal ein SLI-System am laufen ?

Zatoichi
2010-02-18, 15:55:00
Multi GPU ist lang nicht so schlecht wie sein Ruf. Manchmal denke ich, das da entweder Neid oder ein persönlicher Feldzug mitschwingt. Ich hatte 2 SLi Systeme und war jedesmal hoch zu frieden.

E.T.
2010-02-18, 23:14:41
Multi GPU ist lang nicht so schlecht wie sein Ruf. Manchmal denke ich, das da entweder Neid oder ein persönlicher Feldzug mitschwingt. Ich hatte 2 SLi Systeme und war jedesmal hoch zu frieden.

Ich bin mit meinem 5-Liter-Motor auch hochzufrieden, selbst wenn er PS-mässig gerade einmal auf dem Niveau eines aktuellen 2-Liter-Motors ist.

Zatoichi
2010-02-20, 11:41:31
Ich bin mit meinem 5-Liter-Motor auch hochzufrieden, selbst wenn er PS-mässig gerade einmal auf dem Niveau eines aktuellen 2-Liter-Motors ist.

Wenn dann sollte schon Sinn hinter solchen abstrusen Vergleichen stecken. Ihr argumentiert zuviel auf hab ich gelesen oder hab ich gehört Basis. Und wenn der Schreiber von vorn hinein gegen MGpu ist, dann wirds nicht besser.

Gast
2010-02-20, 23:27:07
Wenn dann sollte schon Sinn hinter solchen abstrusen Vergleichen stecken. Ihr argumentiert zuviel auf hab ich gelesen oder hab ich gehört Basis. Und wenn der Schreiber von vorn hinein gegen MGpu ist, dann wirds nicht besser.
Ich hatte MGPU mit der 7950GX2. Da hat mich dieses Gezuppel schon vor tombman's Dokumentation per Fraps gestört. Erst hatte ich geglaubt, dass das daran liegt, dass um die 30 fps halt ruckelig sind. Zu der Zeit war gerade Call of Juarez und Need for Speed (Most Wanted und Carbon) in.
Die Karte war dort mit funktionierendem SLi im 30 fps Bereich und es war optisch ein Grauen. Der Inputlag war für mich auch leicht spürbar, aber kein K.O. Kriterium.
Bei ausgeschaltetem SLi haben sich die Frames zwar fast halbiert, aber optisch war es kaum schlimmer. Es hat halt gewöhnlich geruckelt während SLi halt anders ruckelt. Kann sein, dass sich das jetzt nach "jahrelangen" Beschwerden und Offenlegungen der Problematik durch etwas Hingabe des Treiberteams bei einigen Spielen verbessert hat. Aber Raff von PCGH sagt ja afaik immer noch, dass SLi nicht ansatzweise ein würdiger Single-GPU-Ersatz ist und man immer noch die Mikroruckler fühlt.

StefanV
2010-02-21, 00:40:05
die HybridSLI ("GeForce Boost") gut finden oder vorschlagen, bei GeForce Boost die schnellere Karte jeweils zwei Bilder berechnen zu lassen während die Onboard-Grafik eines berechnet. Denken die mal darüber nach, was das für Timing-Probleme aufwirft und was das für den Input-Lag bedeutet?
Schon, aber das kann man noch hinbekomen - wenn mans drauf anlegen würde, da sehe ich kein Problem.
Man müsste nur einen Faktor einbauen und das prerenderlimit anheben.

Anyway: hast du mal Hybridpower versucht?
Braucht 3-7 Sekunden zum umschalten, dabei flackert der Schirm, bei mir ward auch das 'Farbsetting' etwas anders (Bild wurd etwas dunkler), also unterm Strich mehr eine gute Idee, die in der Praxis nicht so gut funktioniert, wie sie sollte/müsste...

Lu
2010-02-21, 09:34:07
Ich hatte MGPU mit der 7950GX2. Da hat mich dieses Gezuppel schon vor tombman's Dokumentation per Fraps gestört. Erst hatte ich geglaubt, dass das daran liegt, dass um die 30 fps halt ruckelig sind. Zu der Zeit war gerade Call of Juarez und Need for Speed (Most Wanted und Carbon) in.
Die Karte war dort mit funktionierendem SLi im 30 fps Bereich und es war optisch ein Grauen. Der Inputlag war für mich auch leicht spürbar, aber kein K.O. Kriterium.
Bei ausgeschaltetem SLi haben sich die Frames zwar fast halbiert, aber optisch war es kaum schlimmer. Es hat halt gewöhnlich geruckelt während SLi halt anders ruckelt. Kann sein, dass sich das jetzt nach "jahrelangen" Beschwerden und Offenlegungen der Problematik durch etwas Hingabe des Treiberteams bei einigen Spielen verbessert hat. Aber Raff von PCGH sagt ja afaik immer noch, dass SLi nicht ansatzweise ein würdiger Single-GPU-Ersatz ist und man immer noch die Mikroruckler fühlt.

Du berichtest von deinen Erfahrungen mit Sli als dieses noch in den Kinderschuhen steckte ergo absolut nicht relevant.
"Bei einigen Spielen" ;D. Es sei dir gesagt das fast jedes Spiel das halbwegs was taugt Sli unterstützt und oder nicht braucht. Die Microrucklerproblematik tritt jenseits der 30 Fps Marke nicht auf, egal bei welchem Spiel (2 Way Sli).
Über den Inputlag kann ich nichts sagen weil er entweder nicht vorhanden ist oder ich mich schon daran gewöhnt habe.

noch ein Gast
2010-02-21, 10:10:09
Die Microrucklerproblematik tritt jenseits der 30 Fps Marke nicht auf, egal bei welchem Spiel (2 Way Sli).Sie tritt auch bei höheren Frameraten auf, liegt dann nur für die meisten unterhalb der Wahrnehmungsschwelle.
Über den Inputlag kann ich nichts sagen weil er entweder nicht vorhanden ist oder ich mich schon daran gewöhnt habe.Er ist vorhanden, bei AFR zwangsläufig, geht gar nicht anders.

Lu
2010-02-21, 11:21:04
Bei 60 Fps is auch bei deiner Wahrnehmungsschwelle ende der Fahnenstange. ;) ( bezieht sich nur auf 2 Way Sli )

redpanther
2010-02-21, 11:39:50
Sie tritt auch bei höheren Frameraten auf, liegt dann nur für die meisten unterhalb der Wahrnehmungsschwelle.

Wen interessiert es denn wenn mans nicht Wahrnimmt? Gehts hier ums prinzip (ich hab recht) oder darum was hinten raus kommt???

Ist doch genauso wie mit DLP Beamern. Wenn man den Regenbogen effekt nicht wahrnimmt sind das tolle dinger, wenn doch ist es ziehmlicher mist.

Wenn du so empfindlich bist das dich Lag oder microruckeln Stören, dann ist es einfach nichts für dich. Ganz einfach, wo ist das Problem?

noch ein Gast
2010-02-21, 11:40:49
Bei 60 Fps is auch bei deiner Wahrnehmungsschwelle ende der Fahnenstange. ;)[QUOTE]Da ich mit den Reflexen eines schläfrigen Faultiers gesegnet bin wahrscheinlich zutreffend ;)
Das heißt allerdings noch nicht, dass ein anderer Nutzer eine ähnliche Wahrnehmungsschwelle wie ich haben muss.
Speziell bei konstanten 60 FPS sollten MRs nebenbei fast immer verschwinden, so denn der Monitor mit 60Hz läuft und Vsync an ist. Auch ein MGPU-System im AFR-Betrieb sollte sich auf diese externe Frequenz schnell syncen, wenn die Treiberentwickler keinen kapitalen Bockmist verzapfen.
[QUOTE]( bezieht sich nur auf 2 Way Sli )Wobei irritierenderweise die MRs bei steigender Zahl der aktiven GPUs laut der bisherigen Beobachtungen weniger schlimm werden, der zusätzliche Inputlag aber schnell unerträglich. In die Mainstreampresse wie z.B. CT hat leider bisher erst die MR-Problematik Einzug gefunden, der Inputlag hingegen noch nicht. Für mich unverständlich, da ich den Inputlag für ein weit schwerwiegenderes (und vor allem mit AFR unbehebbares!) Problem halte als die MRs.

Gast
2010-02-21, 11:47:45
Wen interessiert es denn wenn mans nicht Wahrnimmt? Gehts hier ums prinzip (ich hab recht) oder darum was hinten raus kommt???Bei einer grundsätzlichen Diskussion um die Technik muss es immer vor allem ums Prinzip gehen, sonst könnten wir gleich jegliche Diskussion bleiben lassen und nur noch die Pro- und Contra-Fanboys schlagen sich wegen ihren Vorlieben die Schädel ein.
Wenn du so empfindlich bist das dich Lag oder microruckeln Stören, dann ist es einfach nichts für dich. Ganz einfach, wo ist das Problem?Dass die Presse wenn sie überhaupt etwas von Problemen erwähnt fast immer nur Profile und MRs beachtet, der Inputlag wird meist unterschlagen.

Gast
2010-02-21, 14:16:10
Du berichtest von deinen Erfahrungen mit Sli als dieses noch in den Kinderschuhen steckte ergo absolut nicht relevant.
"Bei einigen Spielen" ;D. Es sei dir gesagt das fast jedes Spiel das halbwegs was taugt Sli unterstützt und oder nicht braucht.

Hättest richtig lesen müssen. Ich sagte nicht, dass SLi jetzt mehr Spiele unterstützt, sondern die Treiber-Devs nach den Beschwerden wohl einige Blockbuster händisch angepasst haben, um die Mikrocruckler wenigstens in den Benchmarkszenen einzudämmen. Das hat aber nichts mit den SLi-Profilen zu tun. Die gibt es schon seit Anbeginn von SLi und schon zu 7950GX2-Zeiten wurde für fast jedes Spiel SLi-Profile mitgeliefert und die Skalierung war auch sehr gut. Zur Not konnte man sich selber welche erstellen, entweder manuell oder bequem per nHancer.
Und großartige Weiterentwicklung sehe ich bis heute nicht. AFR bleibt AFR, mit all seinen Vor- und Nachteilen. ;)

Lu
2010-02-21, 15:29:03
Du solltest meinen Post komplett lesen und nicht nur selektiv :wink:

Raff
2010-02-21, 15:42:53
Wobei irritierenderweise die MRs bei steigender Zahl der aktiven GPUs laut der bisherigen Beobachtungen weniger schlimm werden, der zusätzliche Inputlag aber schnell unerträglich. In die Mainstreampresse wie z.B. CT hat leider bisher erst die MR-Problematik Einzug gefunden, der Inputlag hingegen noch nicht. Für mich unverständlich, da ich den Inputlag für ein weit schwerwiegenderes (und vor allem mit AFR unbehebbares!) Problem halte als die MRs.

Ich halte das mit meinem Laienverständnis nicht für irritierend. Wenn drei oder vier GPUs im Verbund arbeiten ist die Wahrscheinlichkeit, dass ein Frame zum zeitlich passenden Moment fertig wird, eben größer als wenn nur zwei GPUs werkeln. Der/die/das Lag stinkt bei mehr als 2 GPUs allerdings bis zur Sonne, sodass man fast gezwungen ist, mit mindestens 60 Fps zu spielen. Ganz einfach, weil bei 30 Fps (bei Single-GPUs idR gut spielbar) kein vernünftiges Aktion-Reaktion-Verhältnis mehr auf der Kiste stattfindet.

Da frag ich mich generell, warum man sich 4 GPUs in den PC flakkt, wenn dann bei 60 Fps die Reaktionszeiten von 15 Fps auf einer einzelnen GPU stattfinden.

MfG,
Raff

Gouvernator
2010-02-21, 16:04:53
Die Problematik das ein Spiel zwar nicht direkt mikroruckelt aber nicht flüssig genug läuft kommt irgendwie nicht auf? Spezielle 3D Monitore mit 120Hz sind doch im Kommen. Mit diesen kann man doch am besten spüren, wenn ein Spiel 120FPS anzeigt aber es fühlt sich nicht so flüssig an. Für den Fall das man nicht direkt auf grundsätzliche Spielbarkeit achtet sondern auf native Ansteuerung mit 120 FPS ist Multi-GPU eigentlich auch reif für die Mülltonne.

noch ein Gast
2010-02-21, 16:10:29
Da frag ich mich generell, warum man sich 4 GPUs in den PC flakkt, wenn dann bei 60 Fps die Reaktionszeiten von 15 Fps auf einer einzelnen GPU stattfinden.Knapp daneben ist auch vorbei:
Der Lag durch AFR ist nicht der einzige im Gesamtsystem, außerdem muss noch zwischen Lag, der sich sich in "FPS-Frames" bemisst (z.B. AFR-Inputlag) und Lag, der sich in "Monitor-HZ" (z.B. Inputlag durch TB) bemisst, unterschieden werden. In vielen Fällen wird sich Quad-AFR nur z.B. in einem doppelt so hohen Inputlag des Gesamtsystems äußern verglichen mit SFR/EinzelGPU.

Wobei ich mir liebend gern etliche GPUs in den Rechner flakken würde... wenn sie denn nur sinnvoll nutzbar wären (SFR/Stereo3D/"VSA100-SSAA") :usad:

redpanther
2010-02-21, 16:18:49
Da frag ich mich generell, warum man sich 4 GPUs in den PC flakkt, wenn dann bei 60 Fps die Reaktionszeiten von 15 Fps auf einer einzelnen GPU stattfinden.

Vielleicht weil man sich drauf einstellen kann, es einen nicht stört und man nicht Profispieler in irgendeiner Shooterliga ist? :smile:

Nicht das ich mir 4 GPUs in den PC Bau, aber man muß ja nicht immer von sich und seinen persönlichen Vorlieben auf andere schließen.

Raff
2010-02-21, 16:30:27
Knapp daneben ist auch vorbei:
Der Lag durch AFR ist nicht der einzige im Gesamtsystem, außerdem muss noch zwischen Lag, der sich sich in "FPS-Frames" bemisst (z.B. AFR-Inputlag) und Lag, der sich in "Monitor-HZ" (z.B. Inputlag durch TB) bemisst, unterschieden werden. In vielen Fällen wird sich Quad-AFR nur z.B. in einem doppelt so hohen Inputlag des Gesamtsystems äußern verglichen mit SFR/EinzelGPU.

Es ist im Grunde egal, welche Zahl man am Ende messen kann. Spiel mal mit Quad-SLI Crysis (etwa mit zwei GTX 295). Wow, 40 Fps in DX10, 2.560x1.600! Blöd nur, dass das abartig schwammig ist, Gummi-Gameplay. Es vergeht etwa eine halbe Sekunde, bis aus der Mausbewegung eine Reaktion auf dem Bildschirm wird. An einem CRT mag Quad-Crossfire fast schon brauchbar sein, nicht aber am durchschnittlichen LCD mit Overdrive und Eigenlag. 30 Fps sind aber stets ein No-go. Natürlich kommt's auch auf die eigene Sensorik und die Peripherie an.

Wobei ich mir liebend gern etliche GPUs in den Rechner flakken würde... wenn sie denn nur sinnvoll nutzbar wären (SFR/Stereo3D/"VSA100-SSAA") :usad:

Wenn MGPU ohne Nebenwirkungen skalieren würde, hätte ich auch schon mindestens zwei GPUs im Rechner. Tut's aber nicht.

Vielleicht weil man sich drauf einstellen kann, es einen nicht stört und man nicht Profispieler in irgendeiner Shooterliga ist? :smile:

Nicht das ich mir 4 GPUs in den PC Bau, aber man muß ja nicht immer von sich und seinen persönlichen Vorlieben auf andere schließen.

Irgendwie ist's ein blöder Zustand, wenn man sich die teure Investition die ganze Zeit schönreden muss, oder? ;) Besser meckern und hoffen, dass das bei den IHVs ankommt. Premium-Kunden haben auch Premium-Leistung verdient. Eine höhere Fps-Zahl allein ist kein Premium.

MfG,
Raff

Gouvernator
2010-02-21, 16:31:41
Vielleicht weil man sich drauf einstellen kann, es einen nicht stört und man nicht Profispieler in irgendeiner Shooterliga ist? :smile:

Nicht das ich mir 4 GPUs in den PC Bau, aber man muß ja nicht immer von sich und seinen persönlichen Vorlieben auf andere schließen.
Profispieler?:freak:
Guck mal bei Prad vorbei und vergleiche Inputlag von Profispieler Monitoren. Das sind 10ms-15ms also nur 1 Frame. Und wir sprechen von 15(!) Frames... Monitore mit diesem Lag sind nicht mal für 2D geeignet.

aths
2010-02-21, 16:57:06
Es ist im Grunde egal, welche Zahl man am Ende messen kann. Spiel mal mit Quad-SLI Crysis (etwa mit zwei GTX 295). Wow, 40 Fps in DX10, 2.560x1.600! Blöd nur, dass das abartig schwammig ist, Gummi-Gameplay.Ich hab mal kurz Crysis mit 2x GTX 295 angespielt. Die Grafik war gefühlt flüssig, aber ich traf kaum Gegner. Wenn die Grafik nicht so schnell ist, halte ich automatisch die Kanone in Richtung Bewegung des Gegners vor. Das klappte hier aber nicht wie gewohnt trotz guter Framerate.

Jetzt bei Starcraft 2 ist mein Micro natürlich noch nicht so geil, aber es kann den Unterschied machen, wer den ersten Hit landet. Ich schraube sogar einige Details runter damit ich direkte Reaktion habe. Obwohl meine Reaktion bei weitem nicht auf Pro-Level ist, will ich meinen Noob-Skill schon voll ausnutzen. Dafür hab ich erst mal das Prerender-Limit runtergedreht.

noch ein Gast
2010-02-21, 17:14:42
Wenn MGPU ohne Nebenwirkungen skalieren würde, hätte ich auch schon mindestens zwei GPUs im Rechner. Tut's aber nicht.Wenn SFR/Stereo3D/VSA100-SSAA möglich wäre würde ich mir ja sogar eher Octo-SLI/CF aus Mainstream- oder sogar Lowend-GPUs verbauen statt einer Highest-Possible-End-Graka, aber nööö... is halt leider nicht :usad:

Zum Lag:
Wollte ja auch gar nicht sagen das Quad-AFR erträglich wäre, nur ist es eben auch nicht ganz so grauenhaft wie "OMFG-vierfacher-Lag!!elf!" klingt, denn im Regelfall vervierfacht es eben nicht den Inputlag des Gesamtsystems - bringt ihn aber wohl in grenzwertige Regionen.

Zatoichi
2010-02-21, 17:31:21
Multi GPU ist ja mit 2 Karten schon eher selten. Wieso wird dann immer auf triple oder quad rumgeritten?

Ich quote mal von weiter oben:

Nur mal ein weiteres Beispiel, bei dem SLI optimal funktioniert:

Bioshock 2 unter DX10. Mit Anti-Aliasing (4x) bekommt man unter 1920 nur noch zwischen 40 und 60 fps schwankend. Mit SLI hat man nahezu überall konstante 60 fps (mit VSync).

Input Lag merke ich nicht ebensowenig Mikroruckeln. Im Gegenteil, schon lange kein so rundes Spiel mehr gespielt.

Das gleich gilt auch für Crossfire. Wo bitte liegt da also das Problem? Das natürlich nicht jede Kombo gut/sinnvoll ist will ich nicht behaupten. Aber dieses generelle verteufeln nervt.

Gouvernator
2010-02-21, 18:19:56
Multi GPU ist ja mit 2 Karten schon eher selten. Wieso wird dann immer auf triple oder quad rumgeritten?

Ich quote mal von weiter oben:



Das gleich gilt auch für Crossfire. Wo bitte liegt da also das Problem? Das natürlich nicht jede Kombo gut/sinnvoll ist will ich nicht behaupten. Aber dieses generelle verteufeln nervt.

Ja ein Spiel herausgepickt und alles ist gut? Was ist mit anderen? Wo CPU Limit es nicht erlaubt diese 60 FPS zu erreichen?
Außerdem was ist mit Preis/Leistung? Mickroruckler setzen netto FPS massiv herab so das du für 200% mehr Geld keine 80%... keine 50%... sondern nur 20% mehr Leistung bekommst.

Zatoichi
2010-02-21, 18:34:30
Ja ein Spiel herausgepickt und alles ist gut? Was ist mit anderen? Wo CPU Limit es nicht erlaubt diese 60 FPS zu erreichen?
Außerdem was ist mit Preis/Leistung? Mickroruckler setzen netto FPS massiv herab so das du für 200% mehr Geld keine 80%... keine 50%... sondern nur 20% mehr Leistung bekommst.

Da kannst du auch ein anderes Spiel einsetzen. Das galt nur als Bsp.
Nenn mal ein Beispiel für dein CPU Limit außer Crysis. Bei Strategie oder anderen Spielen die keine hohe Leistung benötigen kann man auch die 2 Gpu ausschalten. Ist ein klick.
Und der Rest ist mir zu wirr. 200% von was? Ich hab sogar noch Geld gespart. Und nicht nur 20% Mehrleistung. MR sind mir noch keine in nicht erzwungenen Situtionen begegnet. Weder bei SLi oder CFX.

noch ein Gast
2010-02-21, 18:50:17
MR sind mir noch keine in nicht erzwungenen Situtionen begegnet.Mal so ins Blaue geraten, du hast früher mit einer GPU überall TB aktiviert wo es ging? In dem Fall warst du bereits an MR gewöhnt, bevor du erstmalig mit AFR konfrontiert wurdest. Außerdem noch an einen unnötigen "Monitor-Hz-Frame" Inputlag.

Zatoichi
2010-02-21, 18:54:59
Mal so ins Blaue geraten, du hast früher mit einer GPU überall TB aktiviert wo es ging? In dem Fall warst du bereits an MR gewöhnt, bevor du erstmalig mit AFR konfrontiert wurdest. Außerdem noch an einen unnötigen "Monitor-Hz-Frame" Inputlag.

Sorry ? Was ?

Gouvernator
2010-02-21, 18:57:32
Und der Rest ist mir zu wirr. 200% von was?
Sprich du setzt 200% mehr Geld ein als Standard Käufer der nur eine Single GPU betreibt.

Und nicht nur 20% Mehrleistung. MR sind mir noch keine in nicht erzwungenen Situtionen begegnet. Weder bei SLi oder CFX.
Wir sind beim Preis/Leitung momentan. Durch ungleichmäßige Bildausgabe hast du real/netto verrechnet auf Single-GPU Bildausgabe unabhängig davon ob du MR spürst oder nicht nur eine Leistungssteigerung von +20% mit unoptimierten AFR mickroruckel Profilen. Dein unoptimiertes AFR Modus frisst dir die meisten FPS. So das du praktisch für 200% Geld nur 120% mehr Leistung bekommst.
Perfekte Dual-GPU Lösung würde so aussehen:
- Einzel GPU liefert 60 FPS, du bekommst 120 FPS.
Aber durch schlimme MR, man nehme immer allergrößte Kadenz hat man nur ein Teil von 120 FPS. Dazu kommt noch allgemeine niedrigere Effizienz von MultiGPU und dann hast du im schlimmsten Fall deine 20%+ gegenüber SingleGPU Lösung.
Es gibt zwar Leute denen dieser Umstand nichts ausmacht und die dann 4 GPUs betrieben und haben ihre "flüssige" FPS welche sich eigentlich aus drei Mal +20% zusammensetzen... Aber mir ist es zu teuer.

Gast
2010-02-21, 19:04:31
Sorry ? Was ?Vsync mit Triple Buffering statt Double Buffering. Gibt wie AFR Mikroruckler und Inputlag.

Zatoichi
2010-02-21, 19:11:30
Sprich du setzt 200% mehr Geld ein als Standard Käufer der nur eine Single GPU betreibt.


Wir sind beim Preis/Leitung momentan. Durch ungleichmäßige Bildausgabe hast du real/netto verrechnet auf Single-GPU Bildausgabe unabhängig davon ob du MR spürst oder nicht nur eine Leistungssteigerung von +20% mit unoptimierten AFR mickroruckel Profilen. Dein unoptimiertes AFR Modus frisst dir die meisten FPS. So das du praktisch für 200% Geld nur 120% mehr Leistung bekommst.
Perfekte Dual-GPU Lösung würde so aussehen:
- Einzel GPU liefert 60 FPS, du bekommst 120 FPS.
Aber durch schlimme MR, man nehme immer allergrößte Kadenz hat man nur ein Teil von 120 FPS. Dazu kommt noch allgemeine niedrigere Effizienz von MultiGPU und dann hast du im schlimmsten Fall deine 20%+ gegenüber SingleGPU Lösung.
Es gibt zwar Leute denen dieser Umstand nichts ausmacht und die dann 4 GPUs betrieben und haben ihre "flüssige" FPS welche sich eigentlich aus drei Mal +20% zusammensetzen... Aber mir ist es zu teuer.

5850 kostet in der freien Wildbahn ca 280€ (eher mehr). Die 5870 ca 350€ (eher mehr). Meine beiden 5770er haben 250€ gekostet. Wenn CFX geht (und das tut es bei meinen aktuellen Spielen/ATi arbeitet ja auch an Verbesserungen wie zB dem Low Power State bei Karte 2, Profilen ect.) lieg ich locker über einer 50er ehrer im Bereich der großen. Das wenn es nicht geht, die Leistung nur einer Karte erreicht wird, ist klar und das mir durchaus bewußte Risiko. Man muß wegen dem PLV auch immer von Fall zu Fall schauen. Das kann man nicht verallgemeinern.
MR über 60 FPS sind eine Urban Legend und ja, ich weis wie die aussehen.
Man kauft kein MultiGpu um die FPS ins sinnfreie zu erhöhen. Wenn du 80 hast läuft es auch mit 100 nicht flüssiger.
CFX skaliert idR sehr gut. Ich spreche nur für 2 Karten. Mehr würde ich nicht kaufen und kann auch nichts zu triple oder quad sagen.

@Gast kurz und knapp nein.

Gouvernator
2010-02-21, 19:19:24
MR über 60 FPS sind eine Urban Legend und ja, ich weis wie die aussehen.
Man kauft kein MultiGpu um die FPS ins sinnfreie zu erhöhen. Wenn du 80 hast läuft es auch mit 100 nicht flüssiger.
Doch wenn du über ein entsprechendes Bildschirm verfügst. Bei 200 Hz würde ich nichts sagen (dort bewegen sich auch MR auf nur 1 ms Niveau). Aber 120 Hz sind heute schon günstig machbar.

RavenTS
2010-02-21, 19:32:53
...
Dafür hab ich erst mal das Prerender-Limit runtergedreht.

Auf wieviel? Hilft das denn deutlich?

Sonyfreak
2010-02-21, 21:22:25
Auf wieviel? Hilft das denn deutlich?Ich habs immer auf dem Minimum (1) und ja, das hilft deutlich.

mfg.

Sonyfreak

kmf
2010-02-21, 21:57:29
Ich hab mal kurz Crysis mit 2x GTX 295 angespielt. Die Grafik war gefühlt flüssig, aber ich traf kaum Gegner. Wenn die Grafik nicht so schnell ist, halte ich automatisch die Kanone in Richtung Bewegung des Gegners vor. Das klappte hier aber nicht wie gewohnt trotz guter Framerate.

[...]Kann ich bei 260er Sli und bei 280er Sli nicht nachvollziehen. Ich treffe, obwohl meine Reaktionen altersbedingt nicht mehr die besten sein dürften.

Natürlich musst du dich an die veränderten Gegebenheiten anpassen. Denn wenn du die Maus bewegst, erschlägt dich erst mal das silky-smooth-Feeling. :D

InsaneDruid
2010-03-02, 12:27:24
Mal so ins Blaue geraten, du hast früher mit einer GPU überall TB aktiviert wo es ging? In dem Fall warst du bereits an MR gewöhnt, bevor du erstmalig mit AFR konfrontiert wurdest. Außerdem noch an einen unnötigen "Monitor-Hz-Frame" Inputlag.

TB hat nicht mehr Outputplag als DB, im Gegenteil.

http://www.anandtech.com/video/showdoc.aspx?i=3591&p=3

noch ein Gast
2010-03-03, 07:10:55
TB hat nicht mehr Outputplag als DB, im Gegenteil.

http://www.anandtech.com/video/showdoc.aspx?i=3591&p=3Haben wir bereits in früheren Threads abgearbeitet, anfangs wollte es auch keiner glauben. TB als Chain bringt Outputlag. In der Implementation, die bei Anand beschrieben wird, hätte es keinen Outputlag.
Nur ist diese Implementation eben nicht die praktisch verfügbare, sondern TB als Chain.
Sad but true :usad:

BeeRockxs
2010-03-03, 17:21:50
Haben wir bereits in früheren Threads abgearbeitet, anfangs wollte es auch keiner glauben. T
Link?

noch ein Gast
2010-03-03, 17:43:43
Link?Hmm Suchfunktion will noch nicht so richtig...
Weiß jedenfalls noch, dass Xmas anfangs die Position vertrat, TB gebe keinen Outputlag, ich dann erklärte, warum ich der Meinung bin dass die tatsächlich gebräuchliche Implementation von TB sehr wohl Outputlag erzeugt und Coda dann das Wörtchen "Chain" als Bezeichnung für die Art der Implementation von TB einbrachte und sich wunderte, warum TB als Chain implementiert wird. Hats einer von euch beiden vielleicht noch in den Bookmarks? Wahrscheinlich nicht, ist schließlich schon viele viele Monde her :freak:

redpanther
2010-03-03, 18:31:51
Sprich du setzt 200% mehr Geld ein als Standard Käufer der nur eine Single GPU betreibt.
Wir sind beim Preis/Leitung momentan. Durch ungleichmäßige Bildausgabe hast du real/netto verrechnet auf Single-GPU Bildausgabe unabhängig davon ob du MR spürst oder nicht nur eine Leistungssteigerung von +20% mit unoptimierten AFR mickroruckel Profilen. Dein unoptimiertes AFR Modus frisst dir die meisten FPS. So das du praktisch für 200% Geld nur 120% mehr Leistung bekommst. ... Aber mir ist es zu teuer.

1. Ich rede nur von Dual SLI, das habe und kenne ich.
2. Wenn du "immer und überall" AFR microruckeln siehst bei SLI, dann akzeptire ich das, kann ja sein das du empfindlich bist. Ich sehe und fühle in 90% aller Fälle keins, bitte akzeptiere das auch. Menschen empfinden verschieden!

3. Ich habe auf der letzten LAN die meisten Matches gewonnen, habe mit einen höheren Lag also keine Probleme. Das jemand der von singel GPU auf Dual oder gar quad umsteigt, sich erstmal daran gewöhnen muss ist ja wohl auch klar, zumindest für mich. Das vorhalten kann man schließlich auch nicht von heute auf morgen.
Man kann sich daran anpassen ohne das es stört. Betonung auf "kann", wenn jemand sagt "ich nicht" dann ist das für mich OK, wenn derjenige es nicht grad nach 5 Minuten sagt und es wenigstens mal versucht hat.
4. P/L ist bei Multi GPU nicht so einfach festzulegen. Der Leistungszuwachs durch SLI ist natürlich selten 100%, aber auch selten 20%, wobei es natürlich auch Fälle gibt wo es gar nicht tut. Bei nVidia kann man sich da aber oft per nHancer selbst helfen.
Klar, eine GPU hat immer die Nase vorn im P/L im Vergleich zu zweien der selben Sorte. Aber wenn ich jetzt z.b. meine zwei 260GTXen, mit jeweils Einer 285GTX oder 295GTX vergleiche, dreht sich imho das Blatt wieder.
Dazu gibt es auch noch Leute für die P/L nicht das wichtigste ist.

Fazit: Alle Kritikpunkte finde ich berechtigt, ABER sie sind nicht unbedingt pauschal ein no-go gegen SLI (CF vermutlich auch, kenn ich aber nicht aus Erfahrung)

Was mich einfach sehr Stört, ist das es so viele gibt die einfach nur dagegen Bashen, die vielleicht keine oder nur alte Erfahrung damit haben.
Denn aus meiner eigenen Erfahrung heraus kann ich die Kritik zwar nachvollziehen, aber FÜR MICH PERSÖNLICH als nicht störend/zutreffend bezeichnen. Und da ich mich für nicht so besonders halte, wird das auch auf andere zutreffen.