PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mikroruckler bei MGPU - aktueller Stand (Split aus GTX 285 2 GiB)


Matrix316
2009-03-11, 13:39:36
Die GTX 285 ist die schnellste Grafikkarte am Markt.

Du willst doch nicht ernsthaft MGPU mit so einem edlen Gefährt vergleichen.
Doch. Genauso wie ein Core i7 920 auch schneller ist wie ein Pentium 4 mit 3,8 GHz...warum net?

dr_mordio
2009-03-11, 14:05:30
Doch. Genauso wie ein Core i7 920 auch schneller ist wie ein Pentium 4 mit 3,8 GHz...warum net?

das sind aber äpfel und birnen die du miteinander vergleichst.

ein Core i7 hat keine mikroruckler und braucht auch keine profile.

genau aus diesem grunde habe ich mir auch eine GTX285 anstatt einer 295 geholt.

MfG
Alex

Matrix316
2009-03-11, 15:38:02
Naja, aber die Software muss auch optimiert sein.

tombman
2009-03-11, 17:32:29
Die GTX 285 ist die schnellste Grafikkarte am Markt.

Du willst doch nicht ernsthaft MGPU mit so einem edlen Gefährt vergleichen.
:rolleyes:

Du hast mit einer 295 sowohl mehr objektive, als auch mehr subjektive fps als mit einer 285....

Wenn du mit ner 285 20fps hast und mit ner 295 35fps, dann ist ersteres nicht spielbar, zweiteres sehr wohl...

y33H@
2009-03-11, 17:44:10
Igitt, MGPU-Fanboy ;D

cYa

Raff
2009-03-11, 17:58:46
:rolleyes:

Du hast mit einer 295 sowohl mehr objektive, als auch mehr subjektive fps als mit einer 285....

Wenn du mit ner 285 20fps hast und mit ner 295 35fps, dann ist ersteres nicht spielbar, zweiteres sehr wohl...

Nicht immer (=> VRAM). Und auch nicht immer, wenn die angezeigten Fps es suggerieren (Mikroruckeln). Preislich ist das aber ok (ausgehend von 320 €uro für eine GTX 285 und 470€ für eine GTX 295). Aber wem erzähl ich das. ;)

MfG,
Raff

Gast
2009-03-12, 16:10:19
:rolleyes:

Du hast mit einer 295 sowohl mehr objektive, als auch mehr subjektive fps als mit einer 285....

Wenn du mit ner 285 20fps hast und mit ner 295 35fps, dann ist ersteres nicht spielbar, zweiteres sehr wohl...
Wenn man gleich beide Augen zudrücken kann... kann man mit jeder der beiden Karten bei 20 FPS spielen. Nur bei 295 fühlst du immer, das dich irgendjemand verarscht hat.

Wuge
2009-03-12, 16:38:30
Vsync rein, dann schafft die GTX295 30 FPS ohne Mikroruckler und die GTX285 wird endgültig unspielbar.

Ich war lange skeptisch ggü. SLI aber nun wo ichs (mit zwei alten Eisen) ausprobiert hab bin ich mehr als zufrieden. Spiele eh bloß mit VSync, da kommen die Frames schön gleichmäßig.

Matrix316
2009-03-12, 16:38:52
Wenn man gleich beide Augen zudrücken kann... kann man mit jeder der beiden Karten bei 20 FPS spielen. Nur bei 295 fühlst du immer, das dich irgendjemand verarscht hat.
Wenn du mit der 285er 20 FPS hast, haste mit der 295er 35 FPS - und mit einer 4870X2 so 30. Dat is ja der Punkt.

Bei der ATI sollen die Mikroruckler auch weniger sein, hab ich gelesen. :)

Raff
2009-03-12, 16:44:41
Bei der ATI sollen die Mikroruckler auch weniger sein, hab ich gelesen. :)

Nein, das Gegenteil ist der Fall. Aktuelle Nvidia-Treiber dämmen den Pfusch oberhalb von 30 Fps meist gut ein. Bei einer HD4870 X2 ist es tendenziell deutlich schlimmer.

MfG,
Raff

Gast
2009-03-12, 16:45:16
Wenn du mit der 285er 20 FPS hast, haste mit der 295er 35 FPS - und mit einer 4870X2 so 30. Dat is ja der Punkt.

Bei der ATI sollen die Mikroruckler auch weniger sein, hab ich gelesen. :)
Nö.

1. Spiele ich nicht mit 20 FPS, ergo stimmt der Ansatz nicht.
2. Spiele ich mit ähnlich viel FPS. Ergo ruckelt das MGPU Ding während das SGPU Gefährt flüssige FPS zaubert.
3. Ich limitiere die FPS durch zugeschaltete BQ. Ergo muss ich auf BQ verzichten/bzw der BQ Gewinn den 295 oder 4870 X2 am Ende bringen, kann ich aus keinem Diagramm der Welt ablesen. Für SGPU ist es kein Thema.

Matrix316
2009-03-12, 16:58:09
Nein, das Gegenteil ist der Fall. Aktuelle Nvidia-Treiber dämmen den Pfusch oberhalb von 30 Fps meist gut ein. Bei einer HD4870 X2 ist es tendenziell deutlich schlimmer.

MfG,
Raff
Ich dachte z.B. an das Bild: http://plaza.fi/s/f/editor/images/grid_graph2.png
http://www.xtremesystems.org/FORUMS/showthread.php?t=194808&page=6

reunion
2009-03-12, 17:04:01
Darüber sollte man sowieso keine generelle Aussagen treffen, es ist sowohl bei nV als auch bei ATi schlicht vom Spieleprofil abhängig wie es mit den Microrucklern aussieht.

Gast
2009-03-12, 17:07:43
Darüber sollte man sowieso keine generelle Aussagen treffen, es ist sowohl bei nV als auch bei ATi schlicht vom Spieleprofil abhängig wie es mit den Microrucklern aussieht.

Nein ist es nicht. Da wurde schon etwas mehr verändert.

Gast
2009-03-12, 17:11:06
Darüber sollte man sowieso keine generelle Aussagen treffen, es ist sowohl bei nV als auch bei ATi schlicht vom Spieleprofil abhängig wie es mit den Microrucklern aussieht.

Ja und zudem die MR sehr subjektiv sind

reunion
2009-03-12, 17:14:32
Nein ist es nicht. Da wurde schon etwas mehr verändert.

Oh doch. Sonst wäre es nicht vom Spiel abhängig ob bzw. wie stark Microruckler auftreten.

Gast
2009-03-12, 17:21:14
Oh doch. Sonst wäre es nicht vom Spiel abhängig ob bzw. wie stark Microruckler auftreten.

Da verwechselst du aber was, jedes Game ist anders logisch das es da Unterschiede gibt.

reunion
2009-03-12, 17:22:34
Da verwechselst du aber was, jedes Game ist anders logisch das es da Unterschiede gibt.

Ja, und bei jedem Spiel sind die Microruckler bei jedem Hersteller neu zu bewerten. Ein Pauschalurteil ist hier fehl am Platz.

Gast
2009-03-12, 17:30:00
Ja, und bei jedem Spiel sind die Microruckler bei jedem Hersteller neu zu bewerten. Ein Pauschalurteil ist hier fehl am Platz.

Nein du kapierst es nicht. Nvidias Lösung hilft in den meisten Fällen. Die Konkurrenz hat garnichts dergleichen, also fährt man mit Nvidia deutlich besser.

reunion
2009-03-12, 17:35:13
Na du musst es ja "kapieren". Auch bei ATi gibt es Spiele die keine/kaum Microruckler zeigen.

Gast
2009-03-12, 17:35:32
Ja, und bei jedem Spiel sind die Microruckler bei jedem Hersteller neu zu bewerten. Ein Pauschalurteil ist hier fehl am Platz.
Und Nvidia rückt schneller gescheite Profile raus.
AMD hingegen rührt fleißig die Werbetrommel für CF, der Markt über der 4850 hats ziemlich schwer. Da stimmt was nicht.

Gast
2009-03-12, 17:36:50
Na du musst es ja wissen.

Nvidia hat nen Scheduler eingebaut , die Profile können garkeine MR beheben. Das jedes Game anders drauf reagiert ist doch nur logisch.

tombman
2009-03-12, 19:46:32
Wenn man gleich beide Augen zudrücken kann... kann man mit jeder der beiden Karten bei 20 FPS spielen. Nur bei 295 fühlst du immer, das dich irgendjemand verarscht hat.
Bei 35fps und einer 295er muß man aber eben NIX zudrücken.

Meine Aussage war absolut gemeint. 20fps bei GTX285 ist NICHT spielbar, 35fps bei GTX295 SIND SPIELBAR.

Punkt, Ende, Aus.

Spasstiger
2009-03-12, 19:48:32
@tombman: Bei mir könntest du Einiges an Glaubwürdigkeit gewinnen, wenn du endlich mal in diesem Thread ein paar Frametime-Messungen posten würdest:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

Einfach die Original-Dateien von Fraps posten. Und möglichst in verschiedenen fps-Bereichen. Man will ja auch sehe, ob z.B. 30 fps mit Quad-SLI tatsächlich spielbar sind.

Schlammsau
2009-03-12, 20:08:54
@tombman: Bei mir könntest du Einiges an Glaubwürdigkeit gewinnen, wenn du endlich mal in diesem Thread ein paar Frametime-Messungen posten würdest:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

Einfach die Original-Dateien von Fraps posten. Und möglichst in verschiedenen fps-Bereichen. Man will ja auch sehe, ob z.B. 30 fps mit Quad-SLI tatsächlich spielbar sind.

Wie oft willst du ihn eigentlich noch fragen?
Er scheint leider kein grosses Interesse daran zu haben.

Gast
2009-03-12, 20:17:32
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940
Sehr schade, das es keiner der MGPU Fans schafft Zahlen zu liefern.

Für mich ist das kein gutes Zeichen für MGPU.
Doch mehr schein als sein?


Acuh mal in anderen Foren nachgefragt?
Oder was ist mit den PCGH Leuten hier im Forum, müsste doch ein leichtes sein kurz zu helfen.

Spasstiger
2009-03-12, 20:31:08
Acuh mal in anderen Foren nachgefragt?
Oder was ist mit den PCGH Leuten hier im Forum, müsste doch ein leichtes sein kurz zu helfen.
Woanders habe ich noch nicht gefragt. Vielleicht sollte ich es mal in als PHP-Skript neu programmieren und hochladen. Dann kann jeder selbst testen. Und ich könnte auf Wunsch der User die Ergebnisse speichern lassen und daraus Statistiken erstellen. Allerdings bin ich im Bereich PHP + MySQL ein totaler Noob und außer im Rahmen einer Vorlesung hatte ich damit noch nix zu tun.
Deshalb schrecke ich noch davor zurück.

LovesuckZ
2009-03-12, 20:33:03
Schreibe doch kurz, welche Bedinungen existieren müssen. Dann ich mit meinen 9800gx2 Quad-SLI System ein paar Werte posten.

Spasstiger
2009-03-12, 20:38:45
Schreibe doch kurz, welche Bedinungen existieren müssen. Dann ich mit meinen 9800gx2 Quad-SLI System ein paar Werte posten.
Bedingungen sind egal. Was du für interessant hältst. Wichtig ist nur, dass du die Rahmenbedingungen dazuschreibst, d.h. Testsystem (inkl. Grafiktreiber), Spiel und Settings.

Frank1974
2009-03-12, 21:16:01
Das mit den Mikrorucklern wird vollkommen übertrieben, jeder plappert es nach, aber es habe nur sehr wenige SLI.

Ich habe mit meiner GTX295 zum ersten mal SLI, wenn es so schlimm wäre, hätte ich sie schon längst verkauft, ich habe sie nämlich für 415€ bekommen, würde also kaum Verlust machen, aber ich bin begeistert, Gothic3 da laufe ich bei avg. 25fps durch die Gegend mit 1680x1050, 4x4SSAA, 16xAF und bis auf die Ruckler die man von Gothic3 kennt, ist da nichts anderes.

Mir kann man vertrauen, ich poste alles was ich negativ finde, in ein paar alten Games geht SLI nicht, oder es Skaliert schlecht, da war meine GTX280 schneller, also wenn es so schlimm wäre wie alle hier sagen, würde ich am lautesten schreinen, ich werde mir in den nächsten Tagen mal diese Frametimes anschauen, im Moment habe ich nur eine Ersatz CPU, ich warte auf meinen Quad.

Aber selbst wenn bei Gothic3 die Frametimes auffällig sein sollten, es fühlt sich trotz 20-25fps nicht schlechter an, als bei meiner GTX280 zuvor und auch andere Games fühlen sich ganz normal an, nicht das man denkt ich spiele nur Gothic3:smile:

Ich benche ja immer sehr viel, aber Frametimes habe ich noch nie richtig getestet, wieviel sek. soll ich den immer aufnehmen?

mfg
Frank

Spasstiger
2009-03-12, 21:41:35
Ich benche ja immer sehr viel, aber Frametimes habe ich noch nie richtig getestet, wieviel sek. soll ich den immer aufnehmen?
Ist prinzipiell egal solange während der Aufnahmedauer die Szene ähnlich bleibt, so dass die (gefühlte) Durchschnittsframerate auch tatsächlich Aussagekraft hat. Ladebildschirme sollten natürlich auch nicht mitgemessen werden. Kurze Nachladeruckler sind dagegen weniger kritisch, da sie in einem Vorverarbeitungsschritt rausgefiltert werden.

ZÜNDELholz
2009-03-12, 22:33:30
Frametimes mit Triplecrossfire:
Crysis Warhead DX10 Enthusiast : 1280x960 8xAA+AAAq+16AF

http://speedshare.org/download.php?id=F5B7A4F013

FPS:

Frames, Time (ms), Min, Max, Avg
1312, 30000, 29, 55, 43.733

Das Ganze in DX9, selbe Einstellungen:
Frametimes:
http://speedshare.org/download.php?id=003E08C63

FPS:
Frames, Time (ms), Min, Max, Avg
806, 30000, 13, 43, 26.867

In DX9 absolute Ruckelorgie.

Spasstiger
2009-03-12, 23:47:42
Frametimes mit Triplecrossfire:
Crysis Warhead DX10 Enthusiast : 1280x960 8xAA+AAAq+16AF

http://speedshare.org/download.php?id=F5B7A4F013

FPS:

Frames, Time (ms), Min, Max, Avg
1312, 30000, 29, 55, 43.733
avg_fps =
43.711653526830226
avg_fps_gewichtet =
43.097141354544902
avg_fps_std_methode =
34.927536864071833
mikroruckel_faktor =
0.208074555415547

Das Ganze in DX9, selbe Einstellungen:
Frametimes:
http://speedshare.org/download.php?id=003E08C63

FPS:
Frames, Time (ms), Min, Max, Avg
806, 30000, 13, 43, 26.867

In DX9 absolute Ruckelorgie.
avg_fps =
26.887691282542868
avg_fps_gewichtet =
18.311735440394600
avg_fps_std_methode =
15.970008094633258
mikroruckel_faktor =
0.849914033665499

Wenn du jetzt noch Details zur Hardware postest, kann ich die Ergebnisse in den anderen Thread übernehmen. ;)

Frank1974
2009-03-13, 06:11:10
Ok ich hab zwar nur eine Ersatz Cpu, aber das reicht bei den hohen Settings.

Ich habe mal Witcher getestet, 30sek, beides mal das selbe Savegame

Mit und ohne SLI

Ohne SLI:
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
826, 30000, 21, 35, 27.533

Hier die Frametimes, sind aber ohne SLI unwichtig, habe ich aber trotzdem gemacht
http://speedshare.org/download.php?id=A5CF67293

Mit SLI:
1680x1050, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
849, 30000, 19, 35, 28.300

Hier die Frametimes mit SLI
http://speedshare.org/download.php?id=E016CB6F3

Witcher stockt bei unter 30fps im Sumpf auch ohne SLI ein wenig, das habe ich schon mit meiner GTX280 gehabt, zu den Ergebnissen, mit SLI musste ich 32xS einstellen, damit ich die fps so weit drücken konnte, es ist aber nicht spielbar, bei Witcher habe ich gerne 30fps+, mit 16xS wäre es spielbar, aber das Game blurrt leider, also ist 8xQAA das höchste was man nehmen kann, und damit ist es extrem CPU limitiert, aber hier geht es ja nur um die Frametimes

System:
Core 2 Duo E6600@3000MHz[8x375], 2x2048MB@DDR2-750, 5-5-5-12-2T,
NVIDIA GTX295@default, WinXp32 Sp3, FW182.08@HQ

mfg
Frank

Schlammsau
2009-03-13, 06:59:50
Bei dem ganzen Gebenche müsst ihr aufpassen das kein CPU Limit vorliegt!
Weil wie ihr vielleicht wisst, verbessert eine bremsende CPU, die Frametimes.

@Frank
Teste mal Crysis mit um 25 - 30fps.

Spasstiger
2009-03-13, 08:23:01
Ohne SLI:
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
826, 30000, 21, 35, 27.533

Hier die Frametimes, sind aber ohne SLI unwichtig, habe ich aber trotzdem gemacht
http://speedshare.org/download.php?id=A5CF67293
avg_fps =
27.519464517253066
avg_fps_gewichtet =
25.533770591321854
avg_fps_std_methode =
21.492318138357891
mikroruckel_faktor =
0.312238528631032

Mit SLI:
1680x1050, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
849, 30000, 19, 35, 28.300

Hier die Frametimes mit SLI
http://speedshare.org/download.php?id=E016CB6F3
avg_fps =
28.289615202518956
avg_fps_gewichtet =
24.503774658358285
avg_fps_std_methode =
20.640118361722553
mikroruckel_faktor =
0.476783599427893

System:
Core 2 Duo E6600@3000MHz[8x375], 2x2048MB@DDR2-750, 5-5-5-12-2T,
NVIDIA GTX295@default, WinXp32 Sp3, FW182.08@HQ


Übrigens gibt Fraps die Anzahl der Frames in der Auswertung falsch an. Es wird auch der Zeitpunkt 0 ms als Frame gewertet (sprich ein Frame müsste 0 ms lang sein). Deshalb ist auch der "avg. fps."-Wert von Fraps nicht ganz korrekt. Darauf müsste man mal den Programmierer aufmerksam machen.
Ne, halt, Fraps zählt doch korrekt. Aber die Datenbasis, die ich aus der frametimes.csv gewinnen kann, hat einen Frame weniger. Die Gesamtdauer des Benchmarks fehlt in der frametimes.csv, weshalb ich den letzten Frame nicht auswerten kann. Meine avg.-fps.-Werte sind durchaus korrekt, Unterschiede zu den Fraps-Angaben resultieren lediglich aus der abweichenden Datenbasis.

/EDIT: Hab die Ergebnisse in den anderen Thread übernommen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7164745#post7164745

Gast
2009-03-13, 11:57:41
mikroruckel_faktor
Damit ich dich richtig verstehe

MGPU_FPS - mikroruckel_faktor x MGPU_FPS = gefühlte_FPS

?

Dann sind die bisherigen 4 Werte extrem ernüchternd für mich.
Rechnet man noch die Skalierung dazu wirds noch trauriger, schnell sogar schlechter als Single.

Spasstiger
2009-03-13, 12:00:28
MGPU_FPS - mikroruckel_faktor x MGPU_FPS = gefühlte_FPS
Nein, schau mal in den anderen Thread, da ist alles erklärt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7164833

Matrix316
2009-03-13, 13:20:10
Also ich würde ja gerne mitmacht aber, ich weiß netmal genau WAS man machen muss, damit die Werte korrekt sind. Wie mache ich was genau mit Fraps? :rolleyes:

Exxtreme
2009-03-13, 13:25:43
Darüber sollte man sowieso keine generelle Aussagen treffen, es ist sowohl bei nV als auch bei ATi schlicht vom Spieleprofil abhängig wie es mit den Microrucklern aussieht.
Mit Profilen kann man dem Problem zu keinem Zeitpunkt beikommen.

ZÜNDELholz
2009-03-13, 15:18:16
Wenn du jetzt noch Details zur Hardware postest, kann ich die Ergebnisse in den anderen Thread übernehmen. ;)

Quad auf 4Ghz, 4gb Ram ,4870X2+4870 (1024mb)

Frank1974
2009-03-13, 20:19:16
System:
Core 2 Duo E6600@3000MHz[8x375], 2x2048MB@DDR2-750, 5-5-5-12-2T,
NVIDIA GTX295@default, WinXp32 Sp3, FW182.08@HQ

Race Driver Grid

Da mit 1680x1050 bei 32xS der Vram ausgeht habe ich mit 1280x960 getestet, ohne SLI kaum spielbar, wegen der niedriegen fps lenkt man immer zu früh ein.
Mit SLI läuft es sehr schön flüssig.

SLI aus
1280x960, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
1120, 30000, 33, 43, 37.333


Frametimes -> http://speedshare.org/download.php?id=989D32073


SLI an
1280x960, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
1994, 30000, 58, 80, 66.467

Frametimes -> http://speedshare.org/download.php?id=D7CB30BC13


edit

Crysis DX9 unter WinXP32, System wie bei Grid

SLI aus
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
582, 30000, 18, 21, 19.400

http://speedshare.org/download.php?id=385418FE11

SLI an
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
1076, 30000, 33, 39, 35.867

http://speedshare.org/download.php?id=946F59E612

Immer der selbe Mist mit dem VRam, bei SLI an wollte ich 16xS nehmen, nach dem laden hat er dann alles falsche Texturen angezeigt, und ist dann abgestürzt.

mfg
Frank

LovesuckZ
2009-03-13, 21:00:39
Deneb X3@3400Mhz, 8Gb DDR2-800, Vista 64bit SP1, Quad-SLI System mit 9800GX2@default mit FW182.08@HQ

Erste Frametimesmessungen mit dem Performancetest von HAWX auf 1680*1050, max Details und 4xMSAA/16HQAF
1. Abschnitt

Frames, Time (ms), Min, Max, Avg
3106, 48351, 43, 78, 64.239

http://speedshare.org/download.php?id=D772B1D912

2. Abschnitt (Fast durchgängig CPU-limitiert)

Frames, Time (ms), Min, Max, Avg
2367, 76611, 16, 59, 30.896

http://speedshare.org/download.php?id=42AB19C53

The Call of Juarez Benchmark D3D10 - Alles auf Max mit 4xMSAA und 16xHQAF

Frames, Time (ms), Min, Max, Avg
9888, 178156, 30, 136, 55.502

http://speedshare.org/download.php?id=CF1BD15D3

Spasstiger
2009-03-13, 22:53:29
System:
Core 2 Duo E6600@3000MHz[8x375], 2x2048MB@DDR2-750, 5-5-5-12-2T,
NVIDIA GTX295@default, WinXp32 Sp3, FW182.08@HQ

Race Driver Grid

Da mit 1680x1050 bei 32xS der Vram ausgeht habe ich mit 1280x960 getestet, ohne SLI kaum spielbar, wegen der niedriegen fps lenkt man immer zu früh ein.
Mit SLI läuft es sehr schön flüssig.

SLI aus
1280x960, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
1120, 30000, 33, 43, 37.333


Frametimes -> http://speedshare.org/download.php?id=989D32073
avg_fps =
37.313057082441773
avg_fps_gewichtet =
37.063546765499304
avg_fps_std_methode =
35.744571745766272
mikroruckel_faktor =
0.090461323740494

SLI an
1280x960, 32xS, 16xAF

Frames, Time (ms), Min, Max, Avg
1994, 30000, 58, 80, 66.467

Frametimes -> http://speedshare.org/download.php?id=D7CB30BC13
avg_fps =
66.442165711895370
avg_fps_gewichtet =
65.656317137166184
avg_fps_std_methode =
59.213919951088542
mikroruckel_faktor =
0.255295693224236

Crysis DX9 unter WinXP32, System wie bei Grid

SLI aus
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
582, 30000, 18, 21, 19.400

http://speedshare.org/download.php?id=385418FE11
avg_fps =
19.376873757866530
avg_fps_gewichtet =
19.322754917446641
avg_fps_std_methode =
19.098754155604095
mikroruckel_faktor =
0.042056821869849

SLI an
1680x1050, 8xSQ, 16xAF

Frames, Time (ms), Min, Max, Avg
1076, 30000, 33, 39, 35.867

http://speedshare.org/download.php?id=946F59E612
avg_fps =
35.846095738286017
avg_fps_gewichtet =
29.384858142430065
avg_fps_std_methode =
26.501207118149530
mikroruckel_faktor =
0.934464588586086

---

Deneb X3@3400Mhz, 8Gb DDR2-800, Vista 64bit SP1, Quad-SLI System mit 9800GX2@default mit FW182.08@HQ

Erste Frametimesmessungen mit dem Performancetest von HAWX auf 1680*1050, max Details und 4xMSAA/16HQAF
1. Abschnitt

Frames, Time (ms), Min, Max, Avg
3106, 48351, 43, 78, 64.239

http://speedshare.org/download.php?id=D772B1D912
avg_fps =
64.238112913058615
avg_fps_gewichtet =
63.292831971078506
avg_fps_std_methode =
47.772685389310169
mikroruckel_faktor =
0.401489539772817

2. Abschnitt (Fast durchgängig CPU-limitiert)

Frames, Time (ms), Min, Max, Avg
2367, 76611, 16, 59, 30.896

http://speedshare.org/download.php?id=42AB19C53
avg_fps =
30.892010995623572
avg_fps_gewichtet =
26.105641514846692
avg_fps_std_methode =
20.754725215244200
mikroruckel_faktor =
0.399897469915088

The Call of Juarez Benchmark D3D10 - Alles auf Max mit 4xMSAA und 16xHQAF

Frames, Time (ms), Min, Max, Avg
9888, 178156, 30, 136, 55.502

http://speedshare.org/download.php?id=CF1BD15D3
avg_fps =
55.502076261548154
avg_fps_gewichtet =
44.093368134244280
avg_fps_std_methode =
32.803986450447120
mikroruckel_faktor =
0.905701823529547

Der letzte von den geposteten Benchmarks ist ein schöner Worstcase-Fall.

/EDIT: Quad-SLI scheint, verhältnismäßig deutlich niedrigere gefühlte Frameraten zu produzieren. Deutlich schlimmer als Dual-SLI. Der Mikroruckel-Faktor gibt das nicht ganz wieder, da er nur direkt aufeinanderfolgende Frames berücksichtigt.

/EDIT: Die Ergebnisse sind jetzt auch unter http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7164833#post7164833 zu finden.

☯Stephan☯
2009-03-13, 22:56:40
Und was soll einem das ganze jetzt sagen? Bitte um Aufklärung.

Spasstiger
2009-03-13, 23:12:32
Und was soll einem das ganze jetzt sagen? Bitte um Aufklärung.
Vergleich avg_fps mit avg_fps_std_methode.
Ersteres ist die normale Durchschnittsframerate wie sie sich eben im arithmetischen Mittel ergibt. Der Wert, der in jedem Review für Ruhm und Ehren sorgt.
Zweiteres ist die "gefühlte" Framerate. Diese Framerate entspricht dem durchschnittlichen Eindruck, den man beim Spielen aufgrund von Mikrorucklern und Frameratenschwankungen bekommt. Dieser Wert sollte eigentlich eher als Basis für Reviews dienen. Wenn du wissen willst, wie diese "gefühlte" Framerate ermittelt wird: Sie ist eine Funktion der Standardabweichung (http://www.abload.de/img/std_bewertung_frameratlmju.png).

Weitere Infos: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

AnarchX
2011-04-04, 12:05:37
Carsten hat das Problem in einem Video gut veranschaulicht: http://www.youtube.com/v/zOtre2f4qZs

mapel110
2011-09-10, 01:53:11
http://techreport.com/articles.x/21516/1
Inside the second: A new look at game benchmarking
New methods uncover problems with some GPU configs

Ein ausführlicher Artikel zum Thema. Topic klingt allerdings so, als hätten sie es zuerst entdeckt. :ugly:

Mr. Lolman
2011-09-10, 06:15:07
Ja. Ein bissi Angeberei klingt da schon teilweise durch. Trotzdem ein schön ausführlicher Artikel. Anscheinend hat NV das Mikroruckeln besser im Griff. Zumindest bei dem einen Spiel. Schade das es solang gedauert hat, bis die das Thema überhaupt aufgegriffen haben. Außerdem sieht man bei dieser Messmethode nicht, wie hoch der grundsätzliche Lag ist. Denn Mikroruckeln kann man nur erfolgreich glätten wenn man entweder die Framerate limitiert, oder die Ausgabe verzögert. Ersteres kann man mit Fraps feststellen. Zweiteres nicht...

boxleitnerb
2011-09-10, 07:55:44
Ich hab auch ein paar Messungen gemacht und festgestellt, dass die CPU-Geschwindigkeit oft reinspielt. Langsamere CPU -> weniger bzw. schwächere Mikroruckler.
Das ist eigentlich nur logisch, denn je weiter man sich vom GPU-Limit weg zu einer ausbalancierteren Arbeitsverteilung zwischen CPU und GPU beim Vorbereiten und Rendern eines Bildes bewegt, desto weniger muss die CPU auf die GPUs warten und die Aufträge zum Rendern eines Bildes gehen zeitlich gleichmäßiger raus.

Raff
2011-09-10, 10:29:42
Eventuell steckt Kalkül hinter dem Artikel. "Oh, NV bringt einen Fps-Limiter in kommenden Treibern, dann wird wohl etwas am Mikrosucken dran sein. Machen wir mal 'nen Artikel, der das Thema aufwärmt" – und in ein paar Wochen stellen sie dann "als Erste" fest, dass es hilft. :ulol:

Die PCGH kam übrigens im April/Mai (PCGH 05/2011) zu dem Schluss, dass Nvidia mitnichten besser wegkommt als AMD. Es hält sich grob die Waage.

MfG,
Raff

Spasstiger
2011-09-10, 10:53:56
Die PCGH kam übrigens im April/Mai (PCGH 05/2011) zu dem Schluss, dass Nvidia mitnichten besser wegkommt als AMD. Es hält sich grob die Waage.
Rein in Bezug auf die Frametimeverteilung ist das auch meine Erkenntnis aus den vielen mir zugespielten und ausgewerteten Frametimemessungen. Ob was am größeren Input-Lag von Crossfire gegenüber SLI dran ist, konnte ich aber noch nicht nachprüfen.
Ich habe auch Zweifel, dass man das Mikroruckeln bei AFR wirklich effizient bekämpfen kann. Für jeden Versuch, Mikroruckeln zu unterdrücken, muss man fps opfern. Und am Ende steht man gefühlt nicht besser da als mit dem Mikroruckeln. Man sollte die Ursache (AFR) bekämpfen, nicht die Wirkung (Mikroruckeln).

seaFs
2011-09-10, 11:44:40
Ist zwar etwas OT...
Gibt es Vergleiche zwischen SFR und AFR, sprich ausführliche Diagnose der Probleme und Ergebnisse?

Coda
2011-09-12, 12:33:31
Es gibt kein SFR mehr, deshalb erübrigt sich das.

PCGH_Carsten
2011-09-13, 10:05:47
Wenn es wiederkommt - besser noch Supertiling! - würde ich das begrüßen. Am besten „user selectable” - dann kann jeder selbst entscheiden, ob er hohe Zahlen im Fps-Counter möchte, eine Frame Input-Lag in Kauf nimmt oder eine etwas höhere CPU-Last. Oder es in Problemfällen eben ganz abschaltet (ok, das geht jetzt auch).

Coda
2011-09-13, 11:19:41
Das kommt erst, wenn man einen gemeinsamen Speicherraum für beide GPUs und einen dicken Interconnect hat. NVIDIA hat ja ein Patent darauf, einen Teil des SI dafür zu verwenden.

Wer weiß, vielleicht hat es AMD ja in GCN implementiert. Würde zu ihrer Strategie passen.

PCGH_Carsten
2011-09-13, 12:29:25
Das schlimme ist, dass es das im Prinzip schon alles gab, aber zugunsten der Fps-Balken wieder geopfert wurde.

Coda
2011-09-13, 13:49:47
Was gab es wann? Der Sideport von RV770 hatte def. zu wenig Bandbreite.

boxleitnerb
2011-09-13, 14:20:38
Wie gut ist die Skalierung bei Supertiling? Ich hab was von logarithmisch gelesen.

mapel110
2011-09-13, 14:21:19
http://techreport.com/discussions.x/21625
Multi-GPU micro-stuttering captured on video

PCGH_Carsten
2011-09-13, 14:26:04
Was gab es wann? Der Sideport von RV770 hatte def. zu wenig Bandbreite.
Als Ati Crossfire eingeführt hat. Wenn ich mich recht entsinne, müsste das circa Mitte 2005 gewesen sein.

Damals wurde mit vier Betriebsarten geworben: Supertiling, Scissor (SFR), AFR und Super-AA.

Coda
2011-09-13, 14:31:09
Na und? Es hat damals schon nicht skaliert. Was nützt es keine Mikroruckler zu haben, aber dafür überhaupt keinen Speedup oder nur 10%? Wer soll das denn kaufen?

Wie gesagt, wird das erst wirklich nutzbar, wenn man die Bandbreite zwischen den Chips enorm erhöht.

boxleitnerb
2011-09-13, 14:41:36
Diese benötigte Bandbreite, von der du sprichst, wird die mit forschrittlicher Grafik immer weiter ansteigen? Dann würde man ja im schlimmsten Fall nie an den Punkt kommen, an dem man das nutzen könnte.

Coda
2011-09-13, 15:17:13
Wieso sollte die Bandbreite eines Interconnect nicht genauso schnell steigen wie die Anbindung zu den RAM-Chips?

Wie gesagt, das NVIDIA-Patent beschreibt dafür einfach die GDDR-PHYs zu verwenden.

PCGH_Carsten
2011-09-13, 16:35:03
Na und? Es hat damals schon nicht skaliert. Was nützt es keine Mikroruckler zu haben, aber dafür überhaupt keinen Speedup oder nur 10%? Wer soll das denn kaufen?

Wie gesagt, wird das erst wirklich nutzbar, wenn man die Bandbreite zwischen den Chips enorm erhöht.
Was soll der unfreundliche Ton:confused: Du hast nachgefragt, ich habe lediglich deine Frage beantwortet, nicht deine Mutter beleidigt oder sowas.

MadManniMan
2011-10-19, 19:37:19
Wieso sollte die Bandbreite eines Interconnect nicht genauso schnell steigen wie die Anbindung zu den RAM-Chips?

Befänden wir uns damit nicht auf dem Weg dahin, einzelne Cores immer mehr den Cores untergeordneten Einheiten anzugleichen? Wenn die Interconnection schnell genug ist, sind die Kerne dann überhaupt noch zu unterscheiden?

AnarchX
2011-10-19, 19:58:35
Wenn man wirklich dazu übergeht einen Chip in mehrere Einzelchips zu zerlegen, um ihn günstiger zu fertigen, kann man wohl durchaus davon ausgehen.

Bei der GDDR-PHY-Variante (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474623&highlight=Patent) geht es wohl erst mal darum vollwertig GPUs miteinander zu verbinden. Wobei AFR, wenn auch optimiert, weiterhin zu einer Strategie für möglichst hohe FPS-Werte gehören wird. Durch den schnellen Interconnect kann man dann aber auch Fälle lösen, wo beide GPUs auf den gleichen Daten arbeiten müssen.