PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mikroruckler - Stand Anfang 2012 (Split aus 7970-Review-Thread)


Langenscheiss
2012-01-11, 20:51:44
Was ich mangels Interesse an Multi-GPU immer vergesse, aber mich jetzt doch mal interessieren würde:
Hat sich was getan bei den Micro-Rucklern? Mein letzter (vermutlich etwas veralteter) Stand war, dass es bei AMD schlimmer ist als bei Nvidia.

Gipsel
2012-01-11, 20:59:49
Was ich mangels Interesse an Multi-GPU immer vergesse, aber mich jetzt doch mal interessieren würde:
Hat sich was getan bei den Micro-Rucklern? Mein letzter (vermutlich etwas veralteter) Stand war, dass es bei AMD schlimmer ist als bei Nvidia.
AFAIK hängt es vom Spiel ab oder sogar von der konkreten Situation im Spiel. Gab es nicht vor kurzem was von PCGH dazu? In ein und demselben Spiel war AMD beim Vorwärtslaufen AMD besser und beim Seitwärtslaufen nV (oder umgedreht, habe ich jetzt nicht mehr im Kopf).

Fazit: Manchmal ist AMD besser, manchmal nV, oft sind beide mehr oder weniger mies ;). Im Schnitt der entsprechenden Berichte dazu glaube ich einen kleinen Vorsprung für nV zu erkennen, aber eine wirkliche Besserung hat es da wohl nicht gegeben und ich weiß auch nicht, ob es die bei AFR je geben wird.

boxleitnerb
2012-01-11, 21:02:00
Was ich mangels Interesse an Multi-GPU immer vergesse, aber mich jetzt doch mal interessieren würde:
Hat sich was getan bei den Micro-Rucklern? Mein letzter (vermutlich etwas veralteter) Stand war, dass es bei AMD schlimmer ist als bei Nvidia.

Da wäre mal ein aktueller Artikel mit mehreren Spielen fällig. Es gibt nur einen neueren bei Techreport mit 2 Spielen (Starcraft 2 und Bulletstorm):
http://techreport.com/articles.x/21516

Tomshardware hat auch einen Artikel gebracht, leider nur mit einem Spiel (Call of Juarez) und sie verkennen leider, dass Mikroruckler im CPU-Limit abnehmen bzw. verschwinden. Einige ihrer Schlussfolgerungen sind daher falsch.
http://www.tomshardware.de/AMD-Crossfire-SLI-Nvidia-Powercolor,testberichte-240834-3.html

Generell kann gesagt werden, dass Nvidia "frame-metering" betreibt, also versucht (sogar in Hardware) die fps flüssiger auszugeben. Ich lese regelmäßig die MGPU-Artikel bei HardOCP, da dort auch in Worte das Spielgefühl beschrieben wird. Oft wird dort SLI ein flüssigeres Spielerlebnis zugesprochen.

Knuddelbearli
2012-01-11, 21:11:43
ich sehe da eindeutig NV vorne, bei 2 Karten sind sie gleichwertig aber bei 3 ist NV um Welten besser, egal ob es um MR geht oder ob und wie gut sie skalieren, bei 3 Karten hat AMD leider oft total Aussetzer wo 3 Karten sogar schlechter sind als 2

Langenscheiss
2012-01-11, 21:47:11
Danke für den schnellen Antworten zum Thema Mikroruckler.
Wenn Seiten tatsächlich darüber berichten und Artikel schreiben, frage ich mich, warum sowas nicht genauso wie etwa Probleme mit dem AF mal speziell von den Reviewern untersucht wird wenn eine neue Karte fällig wird und wenns um CrossFire/SLI Setups geht. Ich bin mir z.B. nicht ganz sicher, ob AMD Karten wirklich zu diesem Zeitpunkt sauberes AF hätten, wenn es nicht massivst Kritik speziell von den deutschen Seiten (das kann sich u.a. auch das 3DCenter selbst anrechnen) gegeben hätte. Aber kein Wort zu Mikrorucklern in den Reviews!
Wenn das Thema wirklich so schlimm ist, wie es teilweise behauptet wird (ich selber habe, wie gesagt, noch kein Multi-GPU System gehabt, deswegen kann ich das nicht beurteilen) und die "gefühlte" Framerate deutlich unter der gemessenen ist, so sollte das imo schon mehr Relevanz haben, weil das doch ein deutlicher Wertverlust ist. Vielleicht lassen sich die Hersteller dann mal was einfallen.

boxleitnerb
2012-01-11, 21:58:06
Nun, es wird manchmal erwähnt, hauptsächlich (wieder mal) auf deutschen Seiten. Lobend zu erwähnen sind hier HT4U und Computerbase. PCGH testet recht selten MGPU soweit ich weiß.

Wie Gipsel schon sagt, kann man das nicht einfach so lösen. Man muss die fps verzögern, damit sowas hier rauskommt:
http://www.abload.de/img/2gpus33fps_optimaleslqay6g.png (http://www.abload.de/image.php?img=2gpus33fps_optimaleslqay6g.png)

Also keine Komponente wartet auf die andere, GPU 2 fängt genau dann an, wenn GPU 1 zu 50% fertig ist. Da man dazu aber in die Zukunft blicken müsste, kann man das vergessen. Kostet außerdem Performance - wohl wie die Nvidialösung, also das frame-metering mit Puffer. Die CF-Skalierung wird immer so gelobt, aber was qualitativ hinten rauskommt, ist ne andere Geschichte. Aber es zählen ja nur Balken...

Zu gefühlten fps und gemessenen fps:
Das ist schwierig. Fühlen ist subjektiv. Frametimes mit fraps messen ist auch nicht optimal, da dies anscheinend an einer ungeschickten Stelle passiert. Videos können das ab einer gewissen fps-Rate auch nicht vermitteln, ohne Hochgeschwindigkeitskameras sowieso nicht. Da fehlt der direkte Zusammenhang zwischen actio (Bewegung) und reactio (Darstellung), das muss man fühlen, das kann man schlecht messen. Außer in Extremszenen wo man mit 30-40fps dann wirklich auch "Makroruckler" spürt, weil die gefühlte Rate auf unter 25-30 fällt.

Was ich gerne mal machen würde, aber ich hab leider nur eine Kiste hier:
Zwei komplette Rechner nebeneinander, einmal AFR, einmal nur eine GPU. Gleiche fps, gleiche Szene. Direktvergleich. Ich bin sicher, auch 80 AFR-fps fühlen sich nicht wie 80 fps auf einer GPU an. Das wird aber nur direkt erlebbar sein, kaum messbar.

Edit:
OT, auslagern?

Raff
2012-01-11, 22:06:29
PCGH testet recht selten MGPU soweit ich weiß.

Ja und es wird in jedem Artikel begründet, warum es so selten getestet wird: Weil es jedes Mal episch abkackt und daher der Bedarf an Analyse gedeckt ist.

MfG,
Raff

boxleitnerb
2012-01-11, 22:09:52
Ja und es wird in jedem Artikel begründet, warum es so selten getestet wird: Weil es jedes Mal episch abkackt und daher der Bedarf an Analyse gedeckt ist.

MfG,
Raff

Hört man von dir auch mal was anderes? Wird langweilig. Wie soll man "episch abkackt" ernst nehmen? Vielleicht kannst du das Thema auch mal objektiver angehen, statt jedes Mal herumzubashen. Das muss jetzt echt mal gesagt werden.

Raff
2012-01-11, 22:12:38
Das ist meine Meinung, basierend auf zahlreichen Tests nach immer demselben Schema:

1. Single-GPU-Tests: erfolgreich abgeschlossen, alles bestens
2. Einbau einer zweiten Karte, immer optimistisch, dass es diesmal schon gehen wird
3. Erstes Fuckup bei der Treiberinstallation, zweites beim Starten irgendeines Benchmarks (Skalierung bleibt aus, Bildfehler, whatever)
4. Kotzkrampf & Durchbiss, Hälfte der Werte sieht kurios aus
5. Vernichtendes Fazit, auch wenn man es selbst gerne hätte, dass MGPU eine Alternative ist

MfG,
Raff

samm
2012-01-11, 22:14:45
Da wäre mal ein aktueller Artikel mit mehreren Spielen fällig. Es gibt nur einen neueren bei Techreport mit 2 Spielen (Starcraft 2 und Bulletstorm):
http://techreport.com/articles.x/21516Sehr guter Artikel. So nebenbei werden Probleme mit Fraps-Frametime-Messungen (vor der tatsächlichen Ausgabe) und mit Nvidias Pufferworkaround (Lags - Auswirkungen aufs Timing der Engine?) angschnitten. So bleibt nach wie vor Raffs Fazit gültig, AFR kackt schon prinzipbedingt einfach ab. (Treiberprobleme & co. spreche ich explizit nicht an, was interessiert ist die Unmöglichkeit, die Power mehrerer GPUS mit AFR sinnvoll zu nutzen).

Dass der Techreport seit (?) der genannten Untersuchung die Frametime- und die xxth-Percentile-Diagramme bei Reviews verwendet, finde ich vorbildlich und nachahmenswert. Hier stimme ich Raff nämlich nicht zu: Der Bedarf an Analyse ist nicht gedeckt (bis alle Reviews AF und MR, auch bei Single-GPU-Karten, entsprechend beleuchten).

boxleitnerb
2012-01-11, 22:19:12
Das ist meine Meinung, basierend auf zahlreichen Tests nach immer demselben Schema:

1. Single-GPU-Tests: erfolgreich abgeschlossen, alles bestens
2. Einbau einer zweiten Karte, immer optimistisch, dass es diesmal schon gehen wird
3. Erstes Fuckup bei der Treiberinstallation, zweites beim Starten irgendeines Benchmarks (Skalierung bleibt aus, Bildfehler, whatever)
4. Kotzkrampf & Durchbiss, Hälfte der Werte sieht kurios aus
5. Vernichtendes Fazit, auch wenn man es selbst gerne hätte, dass MGPU eine Alternative ist

MfG,
Raff

Ja, das ist ja auch in jedem Spiel so...lass es gut sein und dem Rest seinen Spass.

@samm:
Ja, AFR hat prinzipbedingt Probleme. Es ist aber nicht so, dass diese nicht umschifft werden können. AFR ist halt nicht immer Plug&Play, dessen sollte man sich vor dem Kauf bewusst sein.

Mal ein Beispiel:
20fps mit einer Karte, rucklig. 35fps mit zwei Karten. Limitiert auf 35 und butterweich in hoher Qualität.
Den Sinn von SLI/CF sehe ich nicht primär darin, von flüssig auf noch flüssiger zu kommen von den fps her. Sondern von unspielbar auf flüssig bei maximaler Qualität. Wer diesen Anspruch hat, der wird mit SLI/CF auch glücklich. Und bei höheren fps...60 fühlen sich vielleicht nicht ganz wie 60 an je nachdem, wie "tief" das GPU-Limit gerade ist, aber es ist immer noch besser als 30. Und das ist beliebig übertragbar.

Blöd ist es nur, wenn die fps sehr stark schwanken. Dann hat man die Qual der Wahl: Stellenweise fps-Vernichtung durch Limiter oder stellenweise MR. Das ist in der Tat blöd.

Raff
2012-01-11, 22:22:11
Ja, das ist ja auch in jedem Spiel so...lass es gut sein und dem Rest seinen Spass.

Ich sag dir, warum ich so gerne auf den AFR-Schlonz eindresche: damit es geändert wird. Ich hätte schon längst zwei GPUs im Rechner, wenn das ohne die ganze Probleme funktionierte. Mich regt das tierisch auf. GPU-Power kann man nie genug haben – Fuck-ups aber schon. Also: weniger "Ist zwar sauteuer, aber basst scho" und mehr "Ich zahle euch einen Haufen Asche, also macht, dass das läuft!" Okay? =)

MfG,
Raff

HarryHirsch
2012-01-11, 22:23:16
Das ist meine Meinung, basierend auf zahlreichen Tests nach immer demselben Schema:

1. Single-GPU-Tests: erfolgreich abgeschlossen, alles bestens
2. Einbau einer zweiten Karte, immer optimistisch, dass es diesmal schon gehen wird
3. Erstes Fuckup bei der Treiberinstallation, zweites beim Starten irgendeines Benchmarks (Skalierung bleibt aus, Bildfehler, whatever)
4. Kotzkrampf & Durchbiss, Hälfte der Werte sieht kurios aus
5. Vernichtendes Fazit, auch wenn man es selbst gerne hätte, dass MGPU eine Alternative ist

MfG,
Raff

kann ich nicht ganz nachvollziehen und das ist auch gut so.

Raff
2012-01-11, 22:24:54
Natürlich ist das eine leicht überzeichnete Darstellung. ;) Dennoch, und das ist Fakt, dauern Multi-GPU-Tests aufgrund der ständigen Inkonsistenzen und Hürden x-mal so lange wie Single-GPU-Benchmarks.

MfG,
Raff

boxleitnerb
2012-01-11, 22:36:11
Ich sag dir, warum ich so gerne auf den AFR-Schlonz eindresche: damit es geändert wird. Ich hätte schon längst zwei GPUs im Rechner, wenn das ohne die ganze Probleme funktionierte. Mich regt das tierisch auf. GPU-Power kann man nie genug haben – Fuck-ups aber schon. Also: weniger "Ist zwar sauteuer, aber basst scho" und mehr "Ich zahle euch einen Haufen Asche, also macht, dass das läuft!" Okay? =)

MfG,
Raff

Ich verstehe deinen Frust schon. Machbar ist das momentan aber nicht. Da kann man nicht einfach mal den Treiber anpassen oder wie beim AF die TMUs ändern. Ich finde eben, man kann auch sachlicher an das Thema rangehen und auch mal die Vorteile sehen. Die Nachteile kann man ja trotzdem erwähnen.

Eine ganz neue Technik muss her. Interposer für Inter-Chip Verbindungen sind auch nur bedingt sinnvoll, weil ich will das nicht alles auf einem PCB haben, sondern verteilt. Und da sind die Wege wieder viel viel länger und die Bandbreite und Latenz im Eimer. Für 2 GPUs auf einer Karte noch ok, aber die sind idR mit wenig VRAM bestückt und abgespeckt, vielleicht gar schlechte Chips, weil sie eh nicht so hoch takten müssen/können wegen der Kühlung. Und schon sind die 100% nur noch 60% wie bei der 590. Darauf kann ich dann auch verzichten.

Gipsel
2012-01-11, 22:51:22
Eine ganz neue Technik muss her. Interposer für Inter-Chip Verbindungen sind auch nur bedingt sinnvoll, weil ich will das nicht alles auf einem PCB haben, sondern verteilt. Und da sind die Wege wieder viel viel länger und die Bandbreite und Latenz im Eimer. Für 2 GPUs auf einer Karte noch ok, aber die sind idR mit wenig VRAM bestückt und abgespeckt, vielleicht gar schlechte Chips, weil sie eh nicht so hoch takten müssen/können wegen der Kühlung. Und schon sind die 100% nur noch 60% wie bei der 590. Darauf kann ich dann auch verzichten.Wenn Du dadurch die ganzen AFR-Probleme los wirst, würden wohl sehr viele die +60% als sehr gut bezeichnen und es wäre im Schnitt wohl sogar mehr wert als die theoretisch +100% mit zwei Karten.

boxleitnerb
2012-01-11, 22:56:15
Wenn Du dadurch die ganzen AFR-Probleme los wirst, würden wohl sehr viele die +60% als sehr gut bezeichnen und es wäre im Schnitt wohl sogar mehr wert als die theoretisch +100% mit zwei Karten.

Ja 60% sind ja auch sehr gut. Es gibt aber immer Unersättliche, die wollen 3-4 Karten drinhaben (die auch fast perfekt skalieren können). Da kommt man halt nicht wirklich mit ran. Kann man SFR nicht weiterentwickeln, dass das auch prima skaliert und dann in der nächsten DX-Spec verankern?

Langenscheiss
2012-01-11, 23:09:14
Ich sag dir, warum ich so gerne auf den AFR-Schlonz eindresche: damit es geändert wird. Ich hätte schon längst zwei GPUs im Rechner, wenn das ohne die ganze Probleme funktionierte. Mich regt das tierisch auf. GPU-Power kann man nie genug haben – Fuck-ups aber schon. Also: weniger "Ist zwar sauteuer, aber basst scho" und mehr "Ich zahle euch einen Haufen Asche, also macht, dass das läuft!" Okay? =)

MfG,
Raff

Einer der Gründe für mein Interesse, denn ich schrecke eigentlich auch davor zurück, mir ein Multi-GPU System zu bauen. Mittlerweile ist doch Multi-GPU zumindest bei einem kleinen aber beständigen Teil der Zockergemeinde angekommen, aber die vielen Probleme gehen die Hersteller kaum an, weil sie davon ausgehen, dass die Enthusiast-Zocken nur mit dem Balken prahlen wollen anstatt ein flüssigeres und vor allem problemloseres Zocken zu haben, was vielleicht gar nicht immer stimmt. Und dabei ist vorrangig Mikroruckeln zu sehen, denn es gibt doch nur einen Grund für eine zweite Grafikkarte: Eine !flüssigere! Grafik bei höherer BQ. Was der FPS counter sagt, ist doch egal, wenns flüssig bzw. nicht flüssig ist.

EDIT: Offtopic: Warum gibt es im 3DCenter keinen Sonderstatus für 1337 postings??

y33H@
2012-01-11, 23:12:41
[...] und auch mal die Vorteile sehen. Die Nachteile kann man ja trotzdem erwähnen.Ich sehe zwei Vorteile:

• Nominell mehr (bis zu doppelt so viele) Fps
• Gleiche nominelle Fps bei höherer BQ (allerdings sind MGPU-exklusive AA-/AF-Modi leider äußerst selten)

Dem gegenüber stehen viele Nachteile, u.a.:

• µRuckler
• Input-Lag
• Keine Skalierung im CPU-Limit
• Oft Treiber-Fuckups
• Fehlende oder mangelhafte Profile (ergo für early adopter sinnlos)
• Videospeicher verdoppelt sich NICHT, nur die Rechenleistung
• Doppelter Stromverbrauch
• Doppelte Anschaffungskosten
• Lauter und heißer (silent-LuKü mit MGPU ist fast unmöglich)
• MGPU für Aufrüster ist witzlos (da idR eine Karte bereits schneller ist und mehr Features hat)

Welche Vorteile siehst du denn noch? Ich muss nach Jahren täglicher mit (mehreren) Grafikkarten immer noch feststellen, dass ein Highend-Modell die definitiv bessere Wahl ist - in nahezu jeder Hinsicht. Wäre dem nicht so, hätten Raff und ich schon längst zwei Karten drin, denn Fps kann man nie genug haben um sie in BQ zu stecken.

Blaire
2012-01-11, 23:13:39
Ich sag dir, warum ich so gerne auf den AFR-Schlonz eindresche: damit es geändert wird. Ich hätte schon längst zwei GPUs im Rechner, wenn das ohne die ganze Probleme funktionierte.

Teste es doch erstmal über einen längeren Zeitraum, das ist wie mit den AA-Bits , man kann auch für SLI einiges tun um die Spielbarkeit zu verbessern. Wenn man jedoch kein Interesse daran hat oder Selbstverständlichkeit und meint das alles automatisch funktioniert, der sollte besser gleich die Finger davon lassen. So schlimm wie oft getan wird, ist es nicht, aber natürlich gibt es diese MR-Nachteile weiterhin und dennoch überwiegen die Vorteile. :wink:

y33H@
2012-01-11, 23:21:48
Nun ja - im Falle der AA-Bits verbessere ich meine Optik. Im Falle von MGPU brauche ich Tools um das Ganze überhaupt gescheit zum Laufen zu bekommen :ugly:

boxleitnerb
2012-01-11, 23:23:53
Ich sehe zwei Vorteile:

• Nominell mehr (bis zu doppelt so viele) Fps
• Gleiche nominelle Fps bei höherer BQ (allerdings sind MGPU-exklusive AA-/AF-Modi leider äußerst selten)

Dem gegenüber stehen viele Nachteile, u.a.:

• µRuckler
• Input-Lag
• Keine Skalierung im CPU-Limit
• Oft Treiber-Fuckups
• Fehlende oder mangelhafte Profile (ergo für early adopter sinnlos)
• Videospeicher verdoppelt sich NICHT, nur die Rechenleistung
• Doppelter Stromverbrauch
• Doppelte Anschaffungskosten
• Lauter und heißer (silent-LuKü mit MGPU ist fast unmöglich)
• MGPU für Aufrüster ist witzlos (da idR eine Karte bereits schneller ist und mehr Features hat)

Welche Vorteile siehst du denn noch? Ich muss nach Jahren täglicher mit (mehreren) Grafikkarten immer noch feststellen, dass ein Highend-Modell die definitiv bessere Wahl ist - in nahezu jeder Hinsicht. Wäre dem nicht so, hätten Raff und ich schon längst zwei Karten drin, denn Fps kann man nie genug haben um sie in BQ zu stecken.

Die Vorteile reichen mir schon. Die Nachteile klingen in der Summe schlimm, müssen sie aber nicht sein:


Mit uRuckler hab ich aus genannten Gründen kaum Probleme
Inputlag ist durch das fps-Limit eh fast weg (wenn ich mich nicht irre, ist der Inputlag durch VSync, mit dem ich immer spiele, eh deutlich höher).
Das war jetzt hoffentlich ein Witz...
Was ist oft? Was sind "Treiber-Fuckups"? Bitte konkreter. Grafikfehler (Crysis 2 Nanovision) können vorkommen, das ist aber auch eher selten. Skalierung ist fast immer sehr gut, jedenfalls mit zwei Karten.
Bei Nvidia seltenst. Oft sind die Profile schon deutlich vor Release im Treiber. Oder es gibt pünktlich zu Release einen Treiber, siehe Skyrim. AMD...da sag ich nix zu :freak:
2-3GB sollten erstmal reichen.
Generell ja, mit Limiter nicht unbedingt.
Ja
Wakü
Ja


Aber ich kann sehr gut damit leben, weil ich die Nachteile zum einen nicht überbewerte und zum anderen weiß, wie ich die einzelnen Punkte bei Bedarf angehen muss. Es geht nicht um die bessere Wahl, es geht um die einzige Wahl. Willst du mehr Leistung als die schnellste Karte bietet, gibts keine Alternative (außer 2 Jahre warten...äh ja).

Für die AA-Bits brauchste auch Tools :tongue:

Langenscheiss
2012-01-11, 23:25:59
Die Frage ist dann wohl eher, ob wir Multi-GPU überhaupt haben wollen!
Wenn wir auf diesen Problemen sitzen bleiben, ohne zu meckern, also ohne Artikel, Tests und Analysen, dann denken die Hersteller, dass Multi-GPU nicht wirklich ernst genommen wird und schlampen weiter damit rum, anstatt es wirklich ernst zu nehmen, denn erweiterter Support und mehr Entwicklung kosten natürlich Geld.

boxleitnerb
2012-01-11, 23:33:33
Was für eine Alternative gibt es denn? Und glaubst du, die SLI-Kompatibilitätsbits fallen vom Himmel? Zumindest SLI wird schon ziemlich gut unterstützt. Rumschlampen würde ich teilweise das nennen, was AMD mit CF macht, da muss man schon etwas differenzieren.

Solange es keine Hardwarelösung gibt, mehrere Chips exakt wie einen anzusprechen, müssen wir damit leben. Oder die Ansprüche runterschrauben und 2 (2 GPUs) bzw. 4-5 (4 GPUs) Jahre warten, bis wir die Leistung haben. Da hab ich lieber ein Problemchen hier und da, statt ein halbes Jahrzehnt Däumchenzudrehen. Das ist aber auch so ein bisschen die Enthusiastenpsyche. Der will jetzt gleich alles was geht. Gleich bei Release eines Toptitels alles aufdrehen. Wer spielt noch in 2 Jahren BF3 oder in 5 Skyrim?

y33H@
2012-01-11, 23:39:38
Willst du mehr Leistung als die schnellste Karte bietet, gibts keine Alternative.Wenn ich wählen muss zwischen MGPU mit vielen Nachteilen und ein Jahr warten, dann wähle ich das kleinere Übel und warte. Skyrim ruft :biggrin:

Zu deiner Konterliste:

Das mit den µRucklern bzw. deren Eindämmung lasse ich noch im Ansatz gelten, der Input-Lag mit Vsync müsste höher sein, ja (daher zocke ich alles, was schnelle Reaktionen erfordert, ohne). Im CPU-Limit spielt die Graka keine Rolle, warum also Geld für eine 2te ausgeben, die noch weniger eine Rolle spielt? ;-)

Fuckups sind das von Raff genannte, wir erleben sehr oft, dass die Treiber nicht in der Lage sind, MGPU zu initialisieren ... beim AMD ist CF zu Beginn zB gerne mal aus *seufz* und ja, NV ist bei SLI deutlich mehr hinterher - da wird nicht einfach SLi für den RPG-Blockbuster des Jahres abgeschaltet, sondern ab Release ein Profil geliefert - traurig, aber wahr.

Den 2G bis 3G stimme ich zu, allerdings erachte ich es als BS, mir zwei Karten zu kaufen und diese dann zu drosseln, damit ich damit halbwegs gescheit spielen kann - ziemlich masochistisch iwie :ulol: Wenn ich btw für jede neue Karte eine WaKü kaufen würde oder gleich für zwei, wäre das mit meinen weiteren finanziell aufwendigen Hobbys sowie Lebensstil schwierig zu vereinbaren, ist aber freilich mein persönliches "Problem". Davon ab wäre mit das alle halbe Jahr oder Jahr viel zu stressig, zumal zum Release meist keine WaKüs vorhanden sind [ok, das gilt auch für Silent-LuKü muss ich zugeben].

boxleitnerb
2012-01-11, 23:45:33
Ich spiele fast nie im CPU-Limit, SGSSAA und Downsampling sei Dank. Das wird sich auch nicht ändern ;)
Die Drosselung geht mir auch etwas gegen den Strich, das stimmt schon. Hat allerdings auch den Vorteil, dass die fps einerseits wirklich stabil sind und nicht springen und die Karten noch kühler und sparsamer bleiben. Ich drossele auch nicht in allen Spielen, nur dort wo die fps eben so niedrig sind, dass ich MR habe. Optimal ist die Lösung nicht, das ist schon richtig.

Alle halbe Jahr kauft man sich auch kein Highend, so oft kommt das ja auch nicht raus. Alle 2 Jahre zweimal nen Kühler wechseln ist doch voll iO. Musst du bei Lukü doch auch. Von EVGA gibts zu Release werkseitig wassergekühlte Karten. Bei der 480 war so, ein Tag nach den Reviews. Die einzelnen Wasserkühler kamen dann 4 Wochen später auf den Markt.

Blaire
2012-01-11, 23:47:06
Nun ja - im Falle der AA-Bits verbessere ich meine Optik. Im Falle von MGPU brauche ich Tools um das Ganze überhaupt gescheit zum Laufen zu bekommen :ugly:

So wie AA Kompatibilität oft AA-Bits erfordert, genauso ist es mit Multi-GPU auch. :wink: Ich kann nur für SLI schreiben, der Profil-Support ist weitgehend exzellent, es sei denn ein Game lässt kein SLI zu, da kann dann NVIDIA auch nicht zaubern (z.b. RAGE (AFR inkompatibel) oder NFS:TheRun (wo der FPS-CAP nicht mehr als 30fps zulässt und man SLI gleich deaktiviert hat).
Dann gibt es Fälle wo die SLI Profile aufgrund von leichten Kompatibilitätsproblemen keine optimale SLI Skalierung zulassen, da geht man auf Nummer sicher und wählt den Mittelweg = weniger FPS = höhere Kompatibilität, was dann leider auch mal zu Mikrorucklern führen kann. Aber hier kann man ansetzen und das Profil optimieren.
Oder ein Profil ist komplett im Arsch, was aber sehr selten vorkommt.
Wie dem auch sei, man muss schon ein gewisses Interesse mitbringen, sonst hat man daran nicht viel Freude.

Langenscheiss
2012-01-11, 23:52:28
@boxleitnerb
D.h. vielfach sind Probleme abseits vom muRuckeln häufig auf AMD Treiberfails zurückzuführen? Man fragt sich manchmal schon, was für ein Stück Software die da zusammengeschustert haben.

boxleitnerb
2012-01-11, 23:55:43
Sagen wir mal so:
Die CFler jammern häufiger als die SLIler. Gerade der Herbst/Winter hat mich bzgl. CF wirklich entsetzt. BF3, Batman AC, Skyrim...zu Release alles Fails. Grafikfehler gibts aber auf beiden Seiten. Ich muss zugeben, bei mir flackern in Skyrim im Hintergrund manchmal stellenweise die Berge. Manchmal auch nicht...erklären kann ich es nicht.

MadManniMan
2012-01-12, 00:38:05
Kann man MGPU eigentlich gescheit für Stereo-3D einsetzen? DAS wäre für MICH (der noch nie auch nur noch einen Gedanken an SLI oder CF verschwendet hat) tatsächlich ein Kaufgrund.

Blaire
2012-01-12, 01:11:35
Kann man MGPU eigentlich gescheit für Stereo-3D einsetzen? DAS wäre für MICH (der noch nie auch nur noch einen Gedanken an SLI oder CF verschwendet hat) tatsächlich ein Kaufgrund.

Das klappt bis 4-Way SLI mit 3D-Vision , man ist aber auch auf funktionierende SLI Profile angewiesen und dies klappt in den meisten Fällen sehr gut. SLI ist auf jeden Fall hilfreich, wenn man 3D-Vision einsetzen möchte.

MadManniMan
2012-01-12, 01:39:24
Ich hätte das "gescheit" fett schreiben sollen :D

Was mich an dieser Stelle nämlich konkret interessiert: kann SLI bei 3D Vision die Einzelbilder auf mehrere Chips verteilen?

Commander Keen
2012-01-12, 01:43:21
SLI/CF Stand 2012: Der gleiche wie 2005.

Mal im Ernst Leute, es hat sich an der Thematik rein gar nichts geändert. Wer heute zu Multi-GPU greift hat immer noch mit den selben Problemen zu kämpfen wie damals. OK, die Treiberunterstützung ist besser geworden und Tools wie der Inspector machen einem das Leben leichter, aber insgesamt ist es immer noch eine unausgegorene Frickellösung.

Fazit: Ausser einer handvoll Enthusiasten will sich das niemand antun, weil für die Mehrheit der User die Nachteile deutlich überwiegen. Und solange an der grundlegenden Technik (AFR usw.) nicht geschraubt wird, wird sich daran auch nichts ändern.

Blaire
2012-01-12, 02:36:11
Ich hätte das "gescheit" fett schreiben sollen :D

Was mich an dieser Stelle nämlich konkret interessiert: kann SLI bei 3D Vision die Einzelbilder auf mehrere Chips verteilen?

Nein, das Mikrorucklerproblem umschifft man damit nicht, da AFR weiterhin zum Einsatz kommt.

boxleitnerb
2012-01-12, 07:29:07
Nein, das Mikrorucklerproblem umschifft man damit nicht, da AFR weiterhin zum Einsatz kommt.

Das ist eigentlich belämmert - es wäre DIE Möglichkeit, der Sache Herr zu werden. Vielleicht würde es dann schlecht skalieren?

MadManniMan
2012-01-12, 08:12:12
Also rendern die Chips nacheinander *nacheinembeispielsucht* immer wieder unabhängig voneinander 3840*1080 px große Bilder, statt sich die verschiedenen Blickwinkel auf die Szene vom gleichen Zeitpunkt aus zu teilen?

TobiWahnKenobi
2012-01-12, 08:14:59
warum 3840x1080?? bei mir läuft der 3DV-kram seit äonen mit 720p/120Hz.


(..)

mfg
tobi

Blaire
2012-01-12, 08:19:08
Also rendern die Chips nacheinander *nacheinembeispielsucht* immer wieder unabhängig voneinander 3840*1080 px große Bilder, statt sich die verschiedenen Blickwinkel auf die Szene vom gleichen Zeitpunkt aus zu teilen?

So genau weiß ich es nicht wie das mit SLI funktioniert, aber bei nur einer Grafikkarte werden 2 Bilder leicht versetzt berechnet.

boxleitnerb
2012-01-12, 08:21:18
Ist es eigentlich generell möglich, dass SLI-AA oder CF-AA perfekt skalieren ohne AFR? Oder ist die Last da unsymmetrisch, weil eine Karte sowieso das Bild berechnen muss und erst wenn AA drankommt, sind beide zugange?

So genau weiß ich es nicht wie das mit SLI funktioniert, aber bei nur einer Grafikkarte werden 2 Bilder leicht versetzt berechnet.

Werden die gleichzeitig ausgegeben? Es sollte doch prinzipiell möglich sein, dass beide Karten exakt gleichzeitig an den Bildern zu rechnen anfangen, sie gleichzeitig ausgeben und dann hätte man perfekt homogene Frametimes.

y33H@
2012-01-12, 08:36:31
Ich muss zugeben, bei mir flackern in Skyrim im Hintergrund manchmal stellenweise die Berge. Manchmal auch nicht...erklären kann ich es nicht.Ist ein Geforce-Problem.

TobiWahnKenobi
2012-01-12, 08:38:42
das ist mir noch gar nicht aufgefallen.. *kopfkratz* aber ich habe auch irgeneine mod für "verbesserte weitsicht/berge ganz weit hinten) drauf...



(..)

mfg
tobi

Blaire
2012-01-12, 08:38:43
Werden die gleichzeitig ausgegeben? Es sollte doch prinzipiell möglich sein, dass beide Karten exakt gleichzeitig an den Bildern zu rechnen anfangen, sie gleichzeitig ausgeben und dann hätte man perfekt homogene Frametimes.

Ja werden gleichzeitig ausgegeben. Vieleicht gibt es technische Hindernisse keine Ahnung.

Mr. Lolman
2012-01-12, 08:41:43
Kann man bei AMD nicht mittlerweile im Treiber selbst irgendwelche MultiGPU Profile auswählen? Damit sollte das Problem der zT miesen Skalierung aufgrund von noch nicht angepassten Treibern behoben sein, oder?

Blaire
2012-01-12, 08:41:45
Ist ein Geforce-Problem.

Skyrim hat extrem viele Bugs u.a. funktioniert das HDR nicht , sobald SLI aktiv ist oder im Wasser gibt es unschöne Ränder. Das ist alles Bethesdas Werk...:freak:

Bl@de
2012-01-12, 08:54:18
Ist ein Geforce-Problem.

Nicht wirklich. Habs auch mit ner Radeon ;)

MadManniMan
2012-01-12, 09:03:57
warum 3840x1080?? bei mir läuft der 3DV-kram seit äonen mit 720p/120Hz.

Und mein 3D-Vision-Kram läuft seit zweieinhalb Jahren mit zwei Bildern a 1680 x 1050 px, so what? :freak:

Aber: Warum also 3840 x 1080? Es könnte sein, dass alle Stereo-3D-Signale einfach als doppelt so breite Bilder übertragen werden, bei denen die beiden horizontalen Framhälften jeweils die unterschiedlichen Blickwinkel beinhalten.

So ist es jedenfalls bei den stereoskopischen Rohvideos, die hier auf meiner Platte herumgeistern: der Videoplayer macht dann je nach Einstellung aus dem doppelt breiten Bild Informationen, die eben nach gewünschter Variante an die unterschiedlichen Augen ausgeben.


So genau weiß ich es nicht wie das mit SLI funktioniert, aber bei nur einer Grafikkarte werden 2 Bilder leicht versetzt berechnet.

No shit Sherlock :tongue:

Ich frage mich eher: werden bei herkömmlichem Stereo-3D (also nicht das Errechnen der Szene aus dem Z-Buffer, wie z.B. bei Crysis 2) für die Einzelbilder unterschiedliche Engine-Zeiten genommen, oder werden nacheinander zwei Frames ohne zeitlogischen Versatz gerendert?

Denn dann müsste man als Engine der Grafikkarte doch sagen können: "Ach, hey! Hier soll ja 3D gerendert werden, also geb ich Dir mal die Szene und Dein erster Chip macht das linke Auge und Dein zweiter Chip macht das rechte!"


Werden die gleichzeitig ausgegeben? Es sollte doch prinzipiell möglich sein, dass beide Karten exakt gleichzeitig an den Bildern zu rechnen anfangen, sie gleichzeitig ausgeben und dann hätte man perfekt homogene Frametimes.

... zumindest schreit MGPU doch danach, zumindest bei 2 Chips genau so zu arbeiten, oder?


Ja werden gleichzeitig ausgegeben. Vieleicht gibt es technische Hindernisse keine Ahnung.

Hier wird doch schonmal jemand der Gurus den Mechanismus der 3D-Erzeugung hinterfragt haben, oder?

TobiWahnKenobi
2012-01-12, 09:06:56
Und mein 3D-Vision-Kram läuft seit zweieinhalb Jahren mit zwei Bildern a 1680 x 1050 px, so what? :freak:

Aber: Warum also 3840 x 1080? Es könnte sein, dass alle Stereo-3D-Signale einfach als doppelt so breite Bilder übertragen werden, bei denen die beiden horizontalen Framhälften jeweils die unterschiedlichen Blickwinkel beinhalten.



shutter-3D =| side-by-side in videos.

im videobetrieb mit nativem stereoskopischen content sind 2 unterschiedliche bilder vorhanden, bei shutterausgabe von videospielen wird der stereoskopische eindruck durch einen algorithmus erzeugt.
das ist eher vergleichbar mit 3Disierten videos.

edit: schlimmstenfalls hast du 2x das gleiche bild, nur ist eines leicht versetzt und in der konvergenz "verschoben".


(..)

mfg
tobi

MadManniMan
2012-01-12, 09:26:00
Tobi,
entschuldige, aber Du vermengst da so einiges.

Da wir aber beide mit unsäglichem Halbwissen um uns werfen, sollten wir erst ein paar Fragen klären:
1) Wie liegen die Einzelframes auf 3D-BluRays vor?
2) Wie um alles in der Welt kommst Du darauf, dass der stereoskopische Eindruck bei Spielen durch einen Algorithmus erzeug wird, der der unsäglichen 3D-isierung von 2D-Bilder ähnelt? Bei Stereoskopie in 3D-Engines hast Du unterschiedliche Viewports in vorliegenden Szenen und aus denen werden die Blickwinkel berechnet, bei den von Dir benannten Videos müssen überhaupt erstmal die Szenen generiert werden.
3) Zu Deinem Edit: was auch sonst, außer leichter Versetzung? Warum aber sollte die Konvergenz verschoben werden? Liegen Deine Augen unterschiedlich tief im Raum?

Sry für den minder freundlichen Ton, mir ist gerade danach :D

Blaire
2012-01-12, 09:34:53
Hier wird doch schonmal jemand der Gurus den Mechanismus der 3D-Erzeugung hinterfragt haben, oder?

Ich frage heute abend mal nach.

y33H@
2012-01-12, 09:43:21
Nicht wirklich. Habs auch mit ner Radeon.Oha, ich hab's bisher nur auf Geforces gesehen :biggrin:

TobiWahnKenobi
2012-01-12, 09:44:05
Tobi,
entschuldige, aber Du vermengst da so einiges.

will ich auch gar nicht verneinen - hab ja nach 13 jahren 3D@PC (shutter, anaglyphen, polfilter, 3DV, tridef, iz3D) so einiges durch. und das was ich da^^ oben geschrieben ist der eindruck, der sich hier über die jahre eingestellt hat.


(..)

mfg
tobi

MadManniMan
2012-01-12, 09:45:39
Dankeschön! Wenn Du die Gelegenheit hast: wo werden die getrennten Bilder abgelegt? WANN werden die getrennten Bilder abgelegt? Kann man die Last auf verschiedene Chips verteilen? Wenn nein, warum nicht?

Fällt euch noch etwas ein? Prinzipiell übersehe ich wahrscheinlich etwas ganz Entscheidendes ... andererseits: es gibt MGPU-exklusive AA-Modi, die zwei beinahe identische Bilder übereinanderlegen und welche Mikroruckeln damit natürlich verhindern ...

MadManniMan
2012-01-12, 09:50:35
will ich auch gar nicht verneinen - hab ja nach 13 jahren 3D@PC (shutter, anaglyphen, polfilter, 3DV, tridef, iz3D) so einiges durch. und das was ich da^^ oben geschrieben ist der eindruck, der sich hier über die jahre eingestellt hat.

Jo, wir wissen dabei ja, dass subjektiver Eindruck nichts zwangsläufig etwas mit der Realität zu tun haben muss :D Ist halt leider ein Thema, bei denen die sonstige objektiv-nerdige Technikvernarrtheit zu einem gewissen Grade eher zur Geschmacksfrage wird und allein deswegen extrem schwer an sachdienliche Hinweise zu kommen ist.

Allein die Anzahl unbeantworteter E-Mails an Hersteller von irgendwie mit 3D-Stereoskopie zu tun habenden Geräten in meinem E-Mail-Programm spricht da Bände ... Oder auch schön: zuletzt gab es in der PCGH einen Artikel über aktuelle 3D-Monitore mit dem Hinweis auf einen Acer-Monitor, der irgendwie intern (DER MONITOR!!!) auf 3D-Spielen Stereo-3D-Spiele macht. UND DANN KEIN HINWEIS AUF DAS PRINZIP DER TECHNIK, KEIN HINTERFRAGEN!! ARGH!

Stereo-3D bleibt leider Voodoo ;(

M4xw0lf
2012-01-12, 09:52:53
Nicht wirklich. Habs auch mit ner Radeon ;)
Oha, ich hab's bisher nur auf Geforces gesehen :biggrin:

In der Tat, ich habs auch mit meiner 6970. Ist ein Engine-Problem, in Fallout 3 und NV (vermutlich auch in Oblivion, erinnere mich nicht genau) tritt es genauso auf. =)

Mr.Fency Pants
2012-01-12, 10:06:59
Ich bin Laie, was SLI angeht, nur um das mal vorher zu sagen.

Was mich nur immer wundert: 3dfx hat das mit SLI doch damals auch super hinbekommen. Keine Treiberprobleem, super Performance, keine Microruckler. Weshalb nutzt man nicht die damalige Technik heute für SLI, wenn die heutige SLI Technik doch so viele Probleme macht? Aus welchen Gründen geht das nicht? Vielleicht kann das mal jemand für einen SLI Laien wie mich verständlich erläutern.

boxleitnerb
2012-01-12, 10:11:48
3dfx nutzte SFR, also zwei Grafikkarten rechnen am selben Bild. Damit sind alle anderen Probleme hinfällig. SFR skaliert aber nicht gut mit Geometrie, d.h. heute kriegst du vielleicht +30% oder so raus. Völlig ineffizient also.

Aquaschaf
2012-01-12, 10:21:53
Ich bin Laie, was SLI angeht, nur um das mal vorher zu sagen.

Was mich nur immer wundert: 3dfx hat das mit SLI doch damals auch super hinbekommen. Keine Treiberprobleem, super Performance, keine Microruckler. Weshalb nutzt man nicht die damalige Technik heute für SLI, wenn die heutige SLI Technik doch so viele Probleme macht? Aus welchen Gründen geht das nicht? Vielleicht kann das mal jemand für einen SLI Laien wie mich verständlich erläutern.

Die Technik funktioniert leider nicht mehr, dafür ist der Vorgang einen Frame zu erzeugen mittlerweile zu kompliziert. Bzw. wäre es sehr schwierig die Last zwischen mehreren Grafikkarten zu verteilen.

Der_Korken
2012-01-12, 12:48:08
Vor allem dürfte man bei SFR Probleme mit dem Datenaustausch bekommen: Über PCIe+SLI+Bridge bekommt man für sowas nicht genug Daten bzw. die Latenz ist einfach viel zu schlecht. Vielleicht ginge es, wenn man zwei Chips so koppelt, wie Intel das mit dem C2Q gemacht hat, aber da ist es vermutlich lohnenswerter dafür gleich einen eigenen, doppelt so "breiten" Chip zu entwickeln.

aufkrawall
2012-01-12, 13:44:42
Ich muss zugeben, bei mir flackern in Skyrim im Hintergrund manchmal stellenweise die Berge. Manchmal auch nicht...erklären kann ich es nicht.
Die Erklärung ist, dass die Spielentwickler Mist gebaut haben. ;)
Bei mir hats ohne MGPU auch geflackert, auch mit in-game MSAA statt SSAA.
Das passiert halt, wenn man eine alte Schrott-Engine überfordert.

Edit: Du meinst doch die Schneehänge?

boxleitnerb
2012-01-12, 13:50:47
Die Erklärung ist, dass die Spielentwickler Mist gebaut haben. ;)
Bei mir hats ohne MGPU auch geflackert, auch mit in-game MSAA statt SSAA.
Das passiert halt, wenn man eine alte Schrott-Engine überfordert.

Edit: Du meinst doch die Schneehänge?

Genau. Sieht man schön vor Whiterun im Hintergrund.

HarryHirsch
2012-01-12, 21:20:58
Kann man bei AMD nicht mittlerweile im Treiber selbst irgendwelche MultiGPU Profile auswählen? Damit sollte das Problem der zT miesen Skalierung aufgrund von noch nicht angepassten Treibern behoben sein, oder?

seit einer weile gibt es das im ccc:

http://www.abload.de/img/2012-01-12_21141905o94.png (http://www.abload.de/image.php?img=2012-01-12_21141905o94.png)

Blaire
2012-01-13, 00:15:53
Dankeschön! Wenn Du die Gelegenheit hast: wo werden die getrennten Bilder abgelegt? WANN werden die getrennten Bilder abgelegt? Kann man die Last auf verschiedene Chips verteilen? Wenn nein, warum nicht?

Über die Funktionsweise gibt es kein offizielles Statement sorry. ;(

MadManniMan
2012-01-13, 00:26:57
Danke für den Versuch :up:

boxleitnerb
2012-01-13, 14:29:34
Was ich noch fragen wollte:
Angenommen, man bekommt eine extrem schnelle Anbindung zwischen den Chips hin, so dass man AFR wegfallen lassen kann:

1. Würde durch 2 kleinere Chips im Verbund im Vergleich zu einem größeren die Energieeffizienz deutlich steigen? Die Anbindung braucht ja auch noch mal ordentlich Energie bei mehreren Hundert GB/s, vielleicht gar TB/s.
2. Wie skaliert die Anforderung an Bandbreite und Latenz mit der Grafikleistung? Angenommen, man hätte eine Verbindung zwischen zwei heutigen Chips vom Schlag GF114 von 1000GB/s. Bekommt man Probleme, wenn man die Leistung pro Chip um den Faktor 10-100 vervielfacht, die Verbindung aber nicht verändert?

Zergra
2012-01-13, 16:07:33
Mhh mal eine Frage: bei 4 Karten wären doch auch die Mikroruckler im Bereich von 30FPS weg ider gibt es da noch nichts?

RavenTS
2012-01-13, 20:59:05
Mhh mal eine Frage: bei 4 Karten wären doch auch die Mikroruckler im Bereich von 30FPS weg ider gibt es da noch nichts?


Nein, da müssten auch die Karten aufeinander abgestimmt werden wie schon bei zwei Karten.
Im worstcase bekommste auch einfach vier frames direkt hintereinander und dann den mikroruckler in Form der Wartezeit zu den nächstes frames...

foenfrisur
2012-01-13, 21:51:03
der nv framelimiter in verbindung mit sli dürfte auch interessant sein, um mikroruckler zu reduzieren.
zwar auch die max-fps, aber die min-fps bleiben oben.

http://extreme.pcgameshardware.de/kommentare-zu-grafikkarten/195625-nvidia-implementiert-fps-limiter-beta-treiber-forceware-290-53-a-12.html#post3844005

sicher auch nicht verkehrt für ein etwas geschmeidigeres spielgeschehen.

mfg

boxleitnerb
2012-01-13, 22:01:58
Jup:

Skyrim, BF3, Crysis 2
http://www.abload.de/thumb/skyrimcupfl.png (http://www.abload.de/image.php?img=skyrimcupfl.png) http://www.abload.de/thumb/bf38i4ue.png (http://www.abload.de/image.php?img=bf38i4ue.png) http://www.abload.de/thumb/crysis2_horizontal7dkfu.png (http://www.abload.de/image.php?img=crysis2_horizontal7dkfu.png)

Langenscheiss
2012-01-13, 22:13:33
Hey, das sieht doch gut aus. Die rote Kurve sieht deutlich geschmeidiger aus. Schön wäre ein direkter Vergleich mit einer Single-GPU Lösung.
Wenn es denn wirklich was bringen sollte, dann dürfen sich alle AMD User schon jetzt freuen, dass es das Treiberteam irgendwann in den nächsten 10 Jahren hinbekommt, sowas auch mal zu implementieren ;)
Da fällt mir grad ein: Warum gibt es eigentlich keine Frametimehistogramme mit Mittelwert und Verteilungsbreite (oder doch?)? Man bräuchte doch nur eine Szene mit möglichst konstantem Inhalt.

boxleitnerb
2012-01-13, 22:18:35
Urgs, Arbeit :D
Selbe fps? Das ist schwierig, da auf Anhieb die richtigen Settings zu finden.

Langenscheiss
2012-01-13, 22:27:41
Naja, optimal wäre das schon, aber es kommt ja im Wesentlichen auf die Breite an.

boxleitnerb
2012-01-13, 22:29:03
Breite?

Langenscheiss
2012-01-13, 22:40:01
Die Mikroruckler ergeben sich doch dadurch, dass die Frametime bei konstanter mittlerer FPS nicht konstant ist. Wenn ich die Werte jetzt aus einer Szene mit annähernd konstanten mittleren FPS histogrammiere (was so ein Programm zum messen der Frametime normal können sollte bzw. solche Daten könnte man leicht mit Algebraprogrammen oder anderen Geschichten einlesen), dann ergibt sich idealer Weise eine Säule mit 1/FPS in Sekunden.
Als Breite kann man zum Beispiel die mittelere Abweichung um diesen Wert nehmen. Bei den oberen Diagrammen sollten sich zum Beispiel mit Limiter eine Verteilung nahe dem Mittel ergeben, ohne Limiter sollte man zwei Peaks weiter weg vom Mittel sehen. Dann kann man das, was an den Verläufen offensichtlich wird, quantifizieren, was prinzipiell immer gut ist (siehe FPS Balken).

boxleitnerb
2012-01-13, 22:43:35
Achso, statt dem Liniendiagramm Balken? Das ist doch bloß eine andere Darstellungsform.

Langenscheiss
2012-01-13, 22:45:16
Nein. Histogramme. In den oberen Diagrammen ist die x-Achse doch die Szenenzeit bzw. die Frame Nummer aus der Szene. Man nehme nun alternative jede Framezeit und trage diese in ein Histogramm ein mit der Zeit pro Frame als x-Achse und der Häufigkeit als y-Achse. Damit kann man dann die Frametimeabweichungen sinnvoll quantifizieren. Ich hab mal n bissl Zeit grad. Werd die Zeiten mal ablesen und in Maple histogrammieren.

boxleitnerb
2012-01-13, 22:51:12
Single-GPU:
War grad zu faul zum Beschriften. Selbe Reihenfolge wie oben (Skyrim,BF3,Crysis 2), selbe Stellen, in etwa selbe fps:

http://www.abload.de/thumb/sgpu_skyrimxn31t.png (http://www.abload.de/image.php?img=sgpu_skyrimxn31t.png) http://www.abload.de/thumb/sgpu_bf3c1vm5.png (http://www.abload.de/image.php?img=sgpu_bf3c1vm5.png) http://www.abload.de/thumb/sgpu_crysis2bu698.png (http://www.abload.de/image.php?img=sgpu_crysis2bu698.png)
Skyrim zuckelt auch auf einer GPU in dieser Szene rum. Fühlt sich aber flüssig an.

Ich kann dir die csv Dateien hochladen, wenn du magst.
Ach jetzt versteh ich, was du meinst. Ja das könnte man machen.
Im Endeffekt müsste man die Tests dann nochmal machen ohne Bewegung. Weil die kann ich nicht reproduzierbar gleich machen. Dann wären die fps auch konstant.

foenfrisur
2012-01-13, 22:51:37
schau mal in meinem link oben, da ist ein bild, wo auch eine single-gpu bei ist...

mfg

Langenscheiss
2012-01-13, 23:01:22
@boxleiternb
Wäre schön, wenn du die CSVs hochladen könntest.

boxleitnerb
2012-01-13, 23:03:16
Soll ich nochmal benchen mit Stillstehen?

Langenscheiss
2012-01-13, 23:06:00
Kannst machen.

boxleitnerb
2012-01-14, 00:14:36
Skyrim und Crysis 2. BF3 geht wegen Origin grad nicht, grrr. Hab exakt dieselben Stellen gebencht, immer 3 Sekunden und die Einstellungen so angepasst, dass fast dieselben fps rauskamen +/-1. 100% GPU-Limit.

http://www.file-upload.net/download-4028071/microstutter.zip.html

Langenscheiss
2012-01-14, 00:29:56
Danke, hab das Script grad fertig. Lese die Daten mal ein.
EDIT:
Das Script ist mir abgeschossen. Musste nochmal schreiben. Habs aber jetzt. Mache mal n paar Shots.

Langenscheiss
2012-01-14, 02:51:50
So hatte ich mir das vorgestellt:
EDIT: Reihenfolge MGPU - SGPU - MGPU + FPS Limiter - Frameverlauf
Crysis 2
http://www.abload.de/thumb/c2mgpun3w4r.png (http://www.abload.de/image.php?img=c2mgpun3w4r.png)http://www.abload.de/thumb/c2sgpu1w624.png (http://www.abload.de/image.php?img=c2sgpu1w624.png)http://www.abload.de/thumb/c2capj91lm.png (http://www.abload.de/image.php?img=c2capj91lm.png)http://www.abload.de/thumb/c2curveot6ts.png (http://www.abload.de/image.php?img=c2curveot6ts.png)
TES5 - Skyrim
http://www.abload.de/thumb/tes5mgpu866bv.png (http://www.abload.de/image.php?img=tes5mgpu866bv.png)http://www.abload.de/thumb/tes5sgpu7i4g4.png (http://www.abload.de/image.php?img=tes5sgpu7i4g4.png)http://www.abload.de/thumb/tes5capx424b.png (http://www.abload.de/image.php?img=tes5capx424b.png)http://www.abload.de/thumb/tes5curvevk5dx.png (http://www.abload.de/image.php?img=tes5curvevk5dx.png)

Mit den Histogrammen kann man das quantifizieren, was man sowieso beobachtet. Der Limiter müsste demnach gut funktionieren, um Mikroruckler loszuwerden. Crysis 2 scheint auch stärker von Schwankungen betroffen zu sein.

boxleitnerb
2012-01-14, 07:26:41
Super! :up:
Da juckts einen glatt in den Fingern, einen Artikel dazu zu schreiben :)

Reaping_Ant
2012-01-14, 08:15:59
Wow, da bringt der Limiter ja doch einiges. Zwar steigen die durchschnittlichen Frametimes, allerdings sind auch die Ausschläge Richtung 50 ms weg, die dazu führen, dass sich 30 fps schlimmstenfalls wie 20 anfühlen.

Super! :up:
Da juckts einen glatt in den Fingern, einen Artikel dazu zu schreiben :)
Dito. Auf diese Weise lässt sich der Sinn/Unsinn von MGPU auch einmal jenseits von "fühlt sich (nicht) flüssig an" quantifizieren.

Aus Erfahrung bin ich eigentlich ein ziemlich starker MGPU Kritiker; ich hatte schon 7800 GT SLI, 8800 GT SLI, HD4870 CF und GTX 460 SLI und bin immer wieder enttäuscht zu einer nominell schwächeren SGPU zurückgekehrt. Mit dem Limiter würde es mich fast reizen es noch einmal zu probieren, leider passt keine zweite GTX 480 mit potentem Luftkühler aufs Mainboard und auch das Netzteil würde langsam knapp werden. Vielleicht ja mit Kepler.

Generell würde ich allerdings verbesserte AA-Modi für SLI/Crossfire bevorzugen. SGSSAA auf mehrere Karten aufgeteilt wäre einfach traumhaft und wohl um einiges effizienter als AFR. Leider sind zumindest bei SLI-AA die Samplepositionen so bescheuert gewählt, dass selbst von dem effektiven zweifachen Supersampling in der Praxis nichts ankommt.

boxleitnerb
2012-01-14, 08:36:47
Jemand hier im Forum meinte mal, dass die Sampleverteilung (zumindest auf zwei Karten) bei weniger als 8 Samples nicht effizient ist. AFR ist mitunter fast perfekt, was die Skalierung angeht, nur was hinten bei rauskommt, sieht man ja hier.

SLI-AA ist soweit ich weiß nur auf MSAA/CSAA-Basis. In neueren Spielen (DX10+) kann man die Modi eh knicken.

y33H@
2012-01-14, 14:56:20
Sau gut, die Diagramme =)

Reaping_Ant
2012-01-14, 15:01:57
SLI-AA ist soweit ich weiß nur auf MSAA/CSAA-Basis.

SLI-AA kommt, soweit ich mich erinnere, zustande, indem beide Karten ein leicht versetztes Bild mit MSAA berechnen. Dadurch hat man zwangsweise auch zweifaches Supersampling, das sieht man schön mit dem FSAA Viewer. Leider liegen die Samples direkt nebeneinander in der Mitte des Pixels, so dass die dadurch erzielte Glättung minimal ist. Aus dem selben Grund ist der Unterschied zwischen z.B. 4x MSAA und 8x SLI-MSAA eher marginal.

foenfrisur
2012-01-14, 15:29:52
ich lese grad schon den neuen artikel in der pcgh zu SLi und dem framelimiter.
ihr auch?

mfg

Hübie
2012-01-14, 15:51:55
Mal ein Gedankengang: Bitte nicht lachen/bashen wenn ich Mist denke ;D

Was wäre wenn man an jeder Grafikkarte ein Monitorkabel hängt und beide abwechselnd ein frame an den Bildschirm senden? Natürlich muss der Monitor die Bilder intern ordnen können - daher ist das hier reine Theorie.

Hab ich da n Fehler? Wäre natürlich aufwändig wenn man es so macht, aber performant.

M4xw0lf
2012-01-14, 16:02:35
Mal ein Gedankengang: Bitte nicht lachen/bashen wenn ich Mist denke ;D

Was wäre wenn man an jeder Grafikkarte ein Monitorkabel hängt und beide abwechselnd ein frame an den Bildschirm senden? Natürlich muss der Monitor die Bilder intern ordnen können - daher ist das hier reine Theorie.

Hab ich da n Fehler? Wäre natürlich aufwändig wenn man es so macht, aber performant.

Ja - aber AFR funktioniert doch genau so? Wenn sich die Grafikkarten dann dummerweie synchronisieren (also gleichzeitig senden), hast du wieder genau die gleichen Frametime-Probleme wie mit herkömmlichem SLI/CF.

seaFs
2012-01-14, 16:05:56
Bei SLI/CF ergibt sich doch aber noch eine Latenz daraus, dass die Slave-Karte(n) den Framebufferinhalt and die Masterkarte schicken müssen. Allerdings vermute ich, dass diese Verzögerung im Vergleich zum Hauptproblem von AFR verschwindend gering ist.

Langenscheiss
2012-01-14, 16:17:25
Sau gut, die Diagramme =)

Danke, hab das Script noch überarbeitet. Wenn ihr gerne solche Diagramme haben wollt, benched einfach über n paar Sekunden und schickt mir die Dateien mit folgendem Namensschema:

Spielname+"MGPU.txt" für Multi-GPU
Spielname+"SGPU.txt" für Single-GPU
Spielname+"MGPULim.txt" für Multi-GPU mit Limiter

Spielnamen könnt ihr euch aussuchen. Die CSVs lassen sich einfach in .txt-s umbenennen. Das "+" und die Anführungsstriche bitte weglassen. Wichtig: In den .txt-Dateien die Kommata durch Leerzeichen ersetzen.

Lade gleich mal die etwas "hübschere" Variante hoch.
Hier für Crysis 2:

y33H@
2012-01-14, 16:19:16
Die Verläufe nutzen wir (PCGH) ja selbst in dieser Art, ich fand nur die Auswirkungen des Limiters beeindruckend, da ich das in dieser (Diagramm-)Form noch nicht mit aufgeführt gesehen habe [sonst immer nur SGPU und MGPU].

Hübie
2012-01-14, 16:38:28
Ja - aber AFR funktioniert doch genau so? Wenn sich die Grafikkarten dann dummerweie synchronisieren (also gleichzeitig senden), hast du wieder genau die gleichen Frametime-Probleme wie mit herkömmlichem SLI/CF.

Das soll ja der Bildschirm verwalten. Die Grakas senden "wild" drauf los. Was meinst du mit Hauptproblem seaFs? Das Hauptproblem ist ja, das die Mastercard immer auf den slave warten muss...

boxleitnerb
2012-01-14, 16:41:42
Auf welcher Basis soll der Bildschirm das verwalten? Das Problem ist eher, dass die Renderaufträge ungleichmäßig kommen. Welche Karte auf welche warten muss, kann man deshalb nicht wirklich sagen. Das wechselt sich permanent ab, wenn du so willst.

Langenscheiss
2012-01-14, 16:59:26
So falls jemand Interesse an dem Script (und Maple) hat:
http://www.multiupload.com/XEPZ8VKIPO
Ist etwas umständlich geschrieben, aber ich habs ja auch nur kurz zusammengeschustert.
Hier noch die überarbeiteten TESV Bilder:
http://www.abload.de/thumb/beva3.png (http://www.abload.de/image.php?img=beva3.png)http://www.abload.de/thumb/4049b.png (http://www.abload.de/image.php?img=4049b.png)http://www.abload.de/thumb/ar2g3.png (http://www.abload.de/image.php?img=ar2g3.png)http://www.abload.de/thumb/4p26d.png (http://www.abload.de/image.php?img=4p26d.png)

OC_Burner
2012-01-14, 17:11:19
Blöde Frage,

Single-GPU schafft in Spiel XY 15FPS. Multi-GPU im Zweifachverbund erreicht nun annähernd 30FPS in Spiel XY. Beide Konstellationen befinden sich im absoluten GPU-Limit und die CPU dreht Däumchen. Auf welchen Wert muss der FPS-Limiter eingestellt werden um Microruckler spürbar zu senken? 29FPS, 28FPS, 25FPS oder gar 20FPS?

boxleitnerb
2012-01-14, 17:13:42
Auf das Minimum. Mit kleinem Puffer von 1-2fps vielleicht, um sicherzugehen, dass man es nicht doch mal unterschreitet. Im Beispiel würde ich 28 oder 29 nehmen.

Langenscheiss
2012-01-14, 18:05:05
Ich finds aber auch interessant, dass auch eine SGPU-Lösung bei einem Spiel mehr, bei dem anderen weniger zappelt. Ich frage mich auch, wie groß die FPS-Abweichung (also das Sigma_FPS) sein darf, sodass man es nicht merkt.

Iruwen
2012-01-14, 23:34:33
Das dürfte recht subjektiv sein da es Leute gibt die Mikroruckler extrem stören und andere die es gar nicht merken.

seaFs
2012-01-15, 00:23:54
Das soll ja der Bildschirm verwalten. Die Grakas senden "wild" drauf los. Was meinst du mit Hauptproblem seaFs? Das Hauptproblem ist ja, das die Mastercard immer auf den slave warten muss...
Mit Hauptproblem meine ich die zeitliche Jobverteilung, also das, was mit einem Framelimiter behoben werden kann. Hier reden wir also von Intervallen von wenigen Millisekunden. Ich vermute, dass das Kopieren des Framebufferinhalts von Slave zu Master wesentlich schneller geht.
Das wurde etwas weiter oben schon gesagt, dass die Masterkarte deshalb jedes n-te Bild auf den Slave warten muss, bevor eine Ausgabe erfolgt.

Die kombinierte Ausgabe wie von dir vorgeschlagen (Monitor "entscheidet") gab es zulezt in der Art bei 3dfx (Voodoo 2 SLI). Soweit ich weiß wurden hier die Teilbilder direkt im DAC zusammengebracht, allerdings ist das eine Form von SFR gewesen, nicht AFR. Selbst die Voodoo5 machte nichts anderes.

Wie es mit Crossfire damals war, als es auch ein Loopkabel und dedizierte Master/Slavekarten gab, weiß ich nicht.

ChaosTM
2012-01-15, 00:30:32
Mit Hauptproblem meine ich die zeitliche Jobverteilung, also das, was mit einem Framelimiter behoben werden kann. Hier reden wir also von Intervallen von wenigen Millisekunden. Ich vermute, dass das Kopieren des Framebufferinhalts von Slave zu Master wesentlich schneller geht.
Das wurde etwas weiter oben schon gesagt, dass die Masterkarte deshalb jedes n-te Bild auf den Slave warten muss, bevor eine Ausgabe erfolgt.

Die kombinierte Ausgabe wie von dir vorgeschlagen (Monitor "entscheidet") gab es zulezt in der Art bei 3dfx (Voodoo 2 SLI). Soweit ich weiß wurden hier die Teilbilder direkt im DAC zusammengebracht, allerdings ist das eine Form von SFR gewesen, nicht AFR. Selbst die Voodoo5 machte nichts anderes.

Wie es mit Crossfire damals war, als es auch ein Loopkabel und dedizierte Master/Slavekarten gab, weiß ich nicht.

Voodoo 2 SLI war perfekt flüssig. :D
Das am längsten dienende Gafiksystem, dass ich je hatte.
Erst die GF2 löste es, knapp 3 Jahre später, ab.

und total off topic

foenfrisur
2012-01-15, 16:16:43
und wie sah nun eigentlich das mikroruckeln aus, wenn das bild steht??
es ist doch sicher auch im stehen vorhanden oder?

mfg

boxleitnerb
2012-01-15, 16:18:47
und wie sah nun eigentlich das mikroruckeln aus, wenn das bild steht??
es ist doch sicher auch im stehen vorhanden oder?

mfg

Die Graphen, die Langenscheiss von meinen Daten erstellt hat, waren alle von Stellen wo ich nur gestanden bin. Die Excel-Graphen von meiner Wenigkeit davor waren alle an fast denselben Stellen aber in Bewegung. Beim Stehen merkt man Mikroruckeln natürlich auch - wenn z.B. ein Fluss vorbeifließt oder sich NPCs um einen herum bewegen.

y33H@
2012-01-16, 15:40:29
So hatte ich mir das vorgestellt: EDIT: Reihenfolge MGPU - SGPU - MGPU + FPS Limiter - FrameverlaufWie waren denn die Settings bzw. die Frameraten mit MGPU / SGPU / MGPU + FPS Limiter? Letzteres laut überarbeitetem Diagramm ja 30 - SGPU dann unter 20?

boxleitnerb
2012-01-16, 15:46:00
SGPU:
Skyrim 31fps, Crysis 2 33fps
MGPU dasselbe.

Ich hab die Settings so angepasst, dass man für beste Vergleichbarkeit die gleichen fps hat. In Crysis 2 war das ne krumme DS-Auflösung knapp über 2560x2048, Ultra, 4xMSAA, in Skyrim weiß ich es nicht mehr genau, weil da so viele Parameter reinspielen (AO, Auflösung, SGSSAA).

Wären die Settings gleich gewesen, wäre SGPU nicht spielbar gewesen.

y33H@
2012-01-16, 16:06:14
Das wäre ja spannend - also etwa BF3 in 25x16 mit SPGU nur 25 Fps, mit GPU dann 50 Fps und mit MGPU-Limiter 40 Fps (bei fast keinen Mikrorucklern).

boxleitnerb
2012-01-22, 21:55:48
Hier hat ein netter Russe ein nettes Tool zur Analyse der csv-Dateien geschrieben:

http://www.abload.de/img/frapscalco1ocy.png (http://www.abload.de/image.php?img=frapscalco1ocy.png)

http://www.file-upload.net/download-4050921/Fraps-Calc-v1_1b.rar.html

Langenscheiss
2012-01-23, 15:25:12
Nicht schlecht, allerdings scheint der Autor doch sehr überzeugt von der Aussagekraft der Daten zu sein. Ich bezweifle, dass man aus diesem Wust an Informationen soviel mehr rausziehen kann, als durch die Diagramme. Aber generell ist son Tool natürlich nicht schlecht für die Auswertung. Ich bleib dann aber bei meinem Script. Ich muss dem praktisch nur noch die Dateinamen geben, und der produziert mir perfekte .eps-Plots in 1680x1050 Pixel mit Anti-Aliasing. Auf Wunsch kann ich dem auch n Mittelungsinterval in Millisekunden geben (was das Tool wohl mit "Filter" bezeichnet), wenn ich z.B. über längere Zeit nur die FPS ermitteln will und nicht jeden noch so kleinen Peak haben will. Und da man mehrere Dateien gleichzeitig bearbeiten kann, kann man sich auch direkt den Framezeiten-Vergleich oder alternativ den FPS-Vergleich von allen eingebundenen Dateien mit plotten lassen. Zum Schluss die Dateien noch eben mit Irfan-View in pngs umgewandelt und hochladen. Ist ne Sache von 5 Minuten.

boxleitnerb
2012-02-03, 21:48:59
Sagt mal, gibt es eigentlich eine plausible Erklärung dafür, warum VSync manchmal erst Mikroruckler entstehen lässt?
Ich hab das schon früher hier und da festgestellt und jetzt wieder in Skyrim:

http://www.abload.de/thumb/vsyncmrlbulf.png (http://www.abload.de/image.php?img=vsyncmrlbulf.png)

foenfrisur
2012-02-03, 21:54:28
vermutlich, weil man auf teufel-komm-raus alles dafür gibt, konstante 30 oder 60fps zu halten.
auch wenn die graka mal nur 59 schafft.

es wäre also ein frame "fällig" zur ausgabe, aber der frame wird noch berechnet und MUSS nun warten, um synchron mit der bildwiederholfrequenz ausgegeben zu werden.

kannst du BESTÄTIGEN, das bei deinem bsp. IMMER über 60fps erreicht werden würden, also min-fps?

ich denke es ist davon abhängig.

mfg

boxleitnerb
2012-02-03, 21:59:41
In dem Beispiel waren es knapp über 32fps. Die Sequenz ist nur 2 Sekunden lang, die x-Achse sind Bilder nicht Sekunden, die y-Achse die Frametimes, nicht fps. Hätte ich vielleicht dazuschreiben sollen.

foenfrisur
2012-02-03, 22:21:26
32fps = min-fps?

also lief vsync @ 30fps?

mfg

boxleitnerb
2012-02-03, 22:26:21
Die fps in den 2 Sekunden haben nicht geschwankt. Ich hab einfach eine fordernde Stelle gesucht und mich zur Seite gedreht, dabei die Frametimes gemessen. Die fps waren konstant bei 32, sieht man ja auch an der grünen und lilanen Kurve.
Vsync@30fps? Vsync ändert an den fps nichts, da ist triple buffering aktiv (oder sowas in der Art). Ich kann mich gar nicht mehr dran erinnern, wann VSync meine fps auf 30 halbiert hat, wenn ich unterhalb von 60 falle. Das kommt heute doch gar nicht mehr vor.

foenfrisur
2012-02-03, 22:29:15
ich spiele halt nicht mit vsync.
ich dachte der geht immer auf 30fps, wenn 60fps nicht erreicht werden können.

mfg

uweskw
2012-02-04, 00:38:42
Dachte ich bisher auch. Anscheinend hat sich die Welt weiter gedreht.

mapel110
2012-02-04, 01:04:44
http://alt.3dcenter.org/artikel/2004/03-12_a.php
Willkommen im Jahr 2004. ^^

uweskw
2012-02-04, 02:38:38
http://alt.3dcenter.org/artikel/2004/03-12_a.php
Willkommen im Jahr 2004. ^^

Entschuldige dass ich gefragt habe!!!
Es ist wohl besser zu tun als wüsste man bescheid.:freak:

U.S.