PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CB: 3x GTX 680 vs. 3x HD 7970 mit i7-3970X


fondness
2012-12-23, 14:53:35
Mal ein sehr seltener Test von Triple-SLI/Crossfire Systemen:
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/

dargo
2012-12-23, 15:02:37
Ich hab den Test mal schnell überflogen und amüsiere mich hier wieder köstlich. 8xMSAA ist schneller als 4xMSAA bei 5760x1600. ;D
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/5/

Und 4xSSAA kostet bei AMD nur 6% gegenüber 8xMSAA. :ulol: Dass man bei Triple-SLI/CF da im CPU-Limit liegt merkt wieder keiner. :freak:

M4xw0lf
2012-12-23, 15:08:36
Die Skalierung sieht nicht übermäßig nach CPU-Limit aus.

dargo
2012-12-23, 15:10:59
Seit wann verliert man nur 6% von 8xMSAA auf 4xSSAA? :|

btw.
Die Microruckler bei AMD sind selbst mit nur zwei Karten eine Katastrophe. Bei Nvidia gehts eingermaßen noch. Kommt ne dritte Karte dazu siehts auch bei NV böse aus. :freak:

M4xw0lf
2012-12-23, 15:17:58
Was vergleichst du denn da für Werte? Wie man zb hier sieht: http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/ ist der Einbruch von 8xMSAA auf 4xSSAA eher 30%.

dargo
2012-12-23, 15:23:33
Habs doch oben verlinkt. Also nochmal...
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/5/

5760x1600 8xMSAA vs. 4xSSAA mit 3x AMD.

Edit:
Wobei warte mal... irgendwas stimmt hier nicht. Selbst bei einer GPU fällt die Framerate kaum zwischen 8xMSAA und 4xSSAA in 5760x1600. Und der größte Witz ist, dass zwischen 2560x1600 4xSSAA und 5760x1600 4xSSAA wieder kaum ein Unterschied vorhanden ist obwohl die Pixel um den Faktor 2,25 gestiegen sind. Was haben die denn da gemessen? :|

HarryHirsch
2012-12-23, 15:27:44
wieso testen die mit powertune auf 0?

M4xw0lf
2012-12-23, 15:32:03
Habs doch oben verlinkt. Also nochmal...
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/5/

5760x1600 8xMSAA vs. 4xSSAA mit 3x AMD.

Edit:
Wobei warte mal... irgendwas stimmt hier nicht. Selbst bei einer GPU fällt die Framerate kaum zwischen 8xMSAA und 4xSSAA in 5760x1600. Und der größte Witz ist, dass zwischen 2560x1600 4xSSAA und 5760x1600 4xSSAA wieder kaum ein Unterschied vorhanden ist obwohl die Pixel um den Faktor 2,25 gestiegen sind. Was haben die denn da gemessen? :|

Du schaust auf die Ratings... das sind keine Framerates oder so - du kannst die verschiedenen Settings also nicht untereinander vergleichen.

derguru
2012-12-23, 15:32:32
die hätten mal zu jedem spiel die mikroruckler checken sollen und nicht nur bei bf3.

für mich ist nv´s " hardwarewarebasierende mikrorucklerminimierung" genau das selbe wie schon bei dx11.1,ne luftnummer. paar spiele auf sli getrimmt und nicht mehr.:wink:
schade das die kein laustärketest gemacht haben.;D

das positivste(fortschritt) ist imo der idle wert eines sli/cf systems insbesondere von amd, rest suckt immer noch.

dargo
2012-12-23, 15:34:17
Du schaust auf die Ratings... das sind keine Framerates oder so - du kannst die verschiedenen Settings also nicht untereinander vergleichen.
Klar sind das Frameraten, nur halt der Durchschnitt aller Spiele im Testfeld.

Gouvernator
2012-12-23, 15:34:26
Seit wann verliert man nur 6% von 8xMSAA auf 4xSSAA? :|

btw.
Die Microruckler bei AMD sind selbst mit nur zwei Karten eine Katastrophe. Bei Nvidia gehts eingermaßen noch. Kommt ne dritte Karte dazu siehts auch bei NV böse aus. :freak:
Ich hab noch nicht selbst gemessen aber irgendwo gelesen das bei 4 Karten es wieder problemloser aussieht. Bei diesen Einstellungen zählen im Grunde nur min. FPS das ist der Wert wo ein FPS-Limiter hin soll. Alles andere ist uninteressant. Rockstable 30 FPS müssen immer bleiben. Man kann dann nur noch in 5er oder 10er Schritten erhöhen. Durchschnitts FPS interessieren überhaupt nicht. Man muss also gucken/vergleichen ob man mit 30 FPS Limit zocken kann oder mit 40 FPS oder mit 50... Nur so ist es sinnvoll AMD/NV unter Multi GPU zu vergleichen.

M4xw0lf
2012-12-23, 15:36:02
Klar sind das Frameraten, nur halt der Durchschnitt aller Spiele im Testfeld.

Nein sinds eben nicht. Da drunter steht ja auch: Angaben in Prozent.
Man weiß zwar nicht, warum der längste Balken nicht auf 100% gesetzt wird, aber Durchschnittswerte sind es nicht - bei 5760*1600 sind die FPS meistens im 30er-Bereich.

dargo
2012-12-23, 15:40:03
Nein sinds eben nicht. Da drunter steht ja auch: Angaben in Prozent.
Ob das jetzt fps oder Prozent sind dürfte keine Rolle spielen. Hier passt es schon eher:
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/16/

In der höchsten Auflösung ist 3x AMD mit 4xMSAA 42% schneller als 4xSSAA. Es gibt einfach viel zu viele Spiele die deutlich im CPU-Limit liegen was sich natürlich auch im Rating wiederspiegelt. Ein Beispiel wäre Anno...
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/15/

Völlig sinnlos der Test imo.

Edit:
Eine wichtige Sache habe ich vergessen. Es liegt nicht nur an CPU-Limits sondern auch an miserablen SLI/CF Profilen. Hier liegt bsw. 3x AMD mit 75% im Vorteil mit 4xMSAA in der höchsten Auflösung gegenüber 4xSSAA.
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/18/

Gouvernator
2012-12-23, 15:43:00
die hätten mal zu jedem spiel die mikroruckler checken sollen und nicht nur bei bf3.


Nein die brauchen nur min. FPS zu checken weil das ist ein Wert was eigentlich zählt. Mikroruckler sind immer und überall vorhanden deswegen ist FPS-Limiter Pflicht. Und so bencht man nur nach min. FPS für Multi GPU. Was interessieren mich 70 avg. FPS wenn ich ständig unter 30 FPS falle? Da kann ein FPS Limiter gar nicht funktionieren - Spiel bleibt unspielbar. Wenn ich woanders dann aber nur rockstable 45fps habe und dafür immer über 30 min.FPS damit kann man was anfangen.


schade das die kein laustärketest gemacht haben.;D


Allein schon 1600 Watt Netzteil ist immer laut. Gute geschlossene Kopfhörer sind Pflicht, 200€-300€ extra dafür... einplanen. :biggrin:

M4xw0lf
2012-12-23, 15:45:41
Ob das jetzt fps oder Prozent sind dürfte keine Rolle spielen.

Natürlich spielt das eine Rolle, ob du 100% von 90 Durchschnitts-FPS mit 94% von 40 Durchschnitts-FPS vergleichst und dich dann aufregst, dass SSAA nur 6% Leistung kostet :freak:

dargo
2012-12-23, 15:49:36
Nein die brauchen nur min. FPS zu checken weil das ist ein Wert was eigentlich zählt. Mikroruckler sind immer und überall vorhanden deswegen ist FPS-Limiter Pflicht. Und so bencht man nur nach min. FPS für Multi GPU. Was interessieren mich 70 avg. FPS wenn ich ständig unter 30 FPS falle? Da kann ein FPS Limiter gar nicht funktionieren - Spiel bleibt unspielbar. Wenn ich woanders dann aber nur rockstable 45fps habe und dafür immer über 30 min.FPS damit kann man was anfangen.

Bei den min.fps stimme ich dir zu. Das gilt übrigens nicht nur für Multi-GPU. Auch bei Single-GPU fühlt sich für mich ein Spiel besser an wenn ich bsw. einen Framelimiter auf 80fps setze und die min.fps bei bsw. 70fps liegen als wenn ich ohne FPS-Limiter spiele und die Frameraten zwischen 70 und 150fps springen.

dargo
2012-12-23, 15:52:39
Natürlich spielt das eine Rolle, ob du 100% von 90 Durchschnitts-FPS mit 94% von 40 Durchschnitts-FPS vergleichst und dich dann aufregst, dass SSAA nur 6% Leistung kostet :freak:
Dann ist dieses Ranking aber sowas von für den Anus. Übrigens... hier mal Faktor ~2 zwischen 4xSSAA und 4xAA:
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/21/

derguru
2012-12-23, 15:54:16
Nein die brauchen nur min. FPS zu checken weil das ist ein Wert was eigentlich zählt. Mikroruckler sind immer und überall vorhanden deswegen ist FPS-Limiter Pflicht. Und so bencht man nur nach min. FPS für Multi GPU. Was interessieren mich 70 avg. FPS wenn ich ständig unter 30 FPS falle? Da kann ein FPS Limiter gar nicht funktionieren - Spiel bleibt unspielbar. Wenn ich woanders dann aber nur rockstable 45fps habe und dafür immer über 30 min.FPS damit kann man was anfangen.

das macht durchaus sinn aber dann gleich mit frameverlauf um sicher zugehen das der min fps kein einmaliger ausrutscher war.

im gesamtrating hat das triple sli glück gehabt denn der abstand wäre noch größer ausgefallen wenn mp3 und skyrim bei amd auch gefunzt hätten.;)

M4xw0lf
2012-12-23, 15:56:32
Dann ist dieses Ranking aber sowas von für den Anus.

Davon red ich doch die ganze Zeit, die Rankings zu einer Auflösung und einer AA-Stufe sind nicht untereinander vergleichbar, sondern nur die Testkandidaten innerhalb dieses Settings.

aufkrawall
2012-12-23, 16:06:33
Wieso läuft BF3 im Video laut Fraps-Counter mit mGPU eigentlich genaus so schnell wie Single-GPU?

Edit: Hm, den Artikel könnte man so interpretieren, dass sie irgendwie die Leistungsanforderung erhöht haben.

Botcruscher
2012-12-23, 16:06:34
Allein schon 1600 Watt Netzteil ist immer laut. Gute geschlossene Kopfhörer sind Pflicht, 200€-300€ extra dafür... einplanen. :biggrin:

965W Leistungsaufnahme. Da kannst du im Winter das Fenster offen lassen und im Sommer ne 3KW Klima einplanen.

Blaire
2012-12-23, 16:08:07
für mich ist nv´s " hardwarewarebasierende mikrorucklerminimierung" genau das selbe wie schon bei dx11.1,ne luftnummer. paar spiele auf sli getrimmt und nicht mehr.:wink:

Da irrst du. Würde AMD das gleiche tun, wären die Balken ungleich kürzer.

M4xw0lf
2012-12-23, 16:10:51
Da irrst du. Würde AMD das gleiche tun, wären die Balken ungleich kürzer.

Aha, weil Nvidia zaubern kann, oder was soll das heißen?

derguru
2012-12-23, 16:14:37
Da irrst du. Würde AMD das gleiche tun, wären die Balken ungleich kürzer.
sicherlich nicht,hardwarebasierend zu folge müsste sli immer besser als cf funzen was nicht der fall ist siehe z.b. far cry 3.
deshalb beibe ich dabei das man von spiel zu spiel hand anlegt.

dargo
2012-12-23, 16:18:37
Wieso läuft BF3 im Video laut Fraps-Counter mit mGPU eigentlich genaus so schnell wie Single-GPU?

Weil du so am besten das Microruckler-Problem darstellen kannst. Wenn ich mehrere GPUs habe setze ich die Details/Auflösung auch höher, sodass ich eine ähnliche Framerate wie mit einer GPU erreiche.

965W Leistungsaufnahme. Da kannst du im Winter das Fenster offen lassen und im Sommer ne 3KW Klima einplanen.
Mein Föhn hat 2000W, wird mir trotzdem kalt im Winter beim offenen Fenster. ;D

Blaire
2012-12-23, 16:23:08
sicherlich nicht,hardwarebasierend zu folge müsste sli immer besser als cf funzen was nicht der fall ist siehe z.b. far cry 3.
deshalb beibe ich dabei das man von spiel zu spiel hand anlegt.

Wenn ein Game schlecht auf Multi-GPU vorbereitet ist, wie es bei Farcry3 der Fall ist, hilft auch eine Hardware-Lösung nur bedingt.

http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/6
"We are directly comparing GTX 680 SLI to HD 7970 GHz Edition CrossFire above at 1080p with 4X MSAA and the highest in-game settings. As we learned previously, CrossFire is technically faster in framerates. However, in terms of actual gameplay SLI is smoother, SLI doesn't have stutter or choppiness that CrossFire exhibits in this game."

aufkrawall
2012-12-23, 16:24:39
Weil du so am besten das Microruckler-Problem darstellen kannst. Wenn ich mehrere GPUs habe setze ich die Details/Auflösung auch höher, sodass ich eine ähnliche Framerate wie mit einer GPU erreiche.

Dann bist du aber dusselig. :tongue:
Wie Gouvernator schon sagte, muss man eine konstante Marke anpeilen und dann Limiter/Vsync ins Spiel bringen. Anders macht AFR wenig Sinn.

dargo
2012-12-23, 16:28:47
Dann bist du aber dusselig. :tongue:
Wie Gouvernator schon sagte, muss man eine konstante Marke anpeilen und dann Limiter/Vsync ins Spiel bringen. Anders macht AFR wenig Sinn.
Habe ich mich so schlecht ausgedrückt, dass du es nicht verstanden hast?

Wenn ich eine Single-GPU Graka habe und im Spiel XY mit Settings XY die min.fps 60 betragen stelle ich die Settings im Spiel XY mit 2, 3 oder gar 4 GPUs so ein, dass ich wieder 60 min.fps habe. Dann noch passend einen Framelimiter auf 60-70fps setzen und fertig.

HarryHirsch
2012-12-23, 16:31:45
Ich hab noch nicht selbst gemessen aber irgendwo gelesen das bei 4 Karten es wieder problemloser aussieht. Bei diesen Einstellungen zählen im Grunde nur min. FPS das ist der Wert wo ein FPS-Limiter hin soll. Alles andere ist uninteressant. Rockstable 30 FPS müssen immer bleiben. Man kann dann nur noch in 5er oder 10er Schritten erhöhen. Durchschnitts FPS interessieren überhaupt nicht. Man muss also gucken/vergleichen ob man mit 30 FPS Limit zocken kann oder mit 40 FPS oder mit 50... Nur so ist es sinnvoll AMD/NV unter Multi GPU zu vergleichen.

das hab ich auch schon öfter gelesen. wurde das schon irgendwo getestet?
afr bleibt ja afr, es sollte doch also immer gleich sein. ob nun 2, 3 oder 4 gpus.

derguru
2012-12-23, 16:34:09
Wenn ein Game schlecht auf Multi-GPU vorbereitet ist, wie es bei Farcry3 der Fall ist, hilft auch eine Hardware-Lösung nur bedingt.

http://www.hardocp.com/article/2012/12/17/far_cry_3_video_card_performance_iq_review/6
"We are directly comparing GTX 680 SLI to HD 7970 GHz Edition CrossFire above at 1080p with 4X MSAA and the highest in-game settings. As we learned previously, CrossFire is technically faster in framerates. However, in terms of actual gameplay SLI is smoother, SLI doesn't have stutter or choppiness that CrossFire exhibits in this game."

hier sieht es ein wenig anders aus.;)
http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/

aufkrawall
2012-12-23, 16:40:05
Wenn ich eine Single-GPU Graka habe und im Spiel XY mit Settings XY die min.fps 60 betragen stelle ich die Settings im Spiel XY mit 2, 3 oder gar 4 GPUs so ein, dass ich wieder 60 min.fps habe. Dann noch passend einen Framelimiter auf 60-70fps setzen und fertig.
Erzähl das CB. Die fps sind ja etwa bei BF3 im MP ja relativ konstant oder berechenbar, da hat man mit Limiter 0 Probs.

Blaire
2012-12-23, 16:50:32
hier sieht es ein wenig anders aus.;)
http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/

Achte mal auf die FPS... garnicht vergleichbar. :smile: Man sollte die Settings so wählen , was ist maximal spielbar und entsprechend die Settings anpassen, ähnlich wie Hardocp es auch macht und nicht nur 30sec messen und daraus irgendwelche Schlüsse ziehn. Auch lässt sich das Smoothness-Gefühl nicht mit Frametimes messen, aber gerade hier hat SLI- Kepler ggü. -Fermi (und älter) teils deutliche Vorteile, im Idealfall selbst bei < 40fps keine Probleme, noch spielbare Ergebnisse auf den Bildschirm zu zaubern.

raumfahrer
2012-12-23, 16:51:46
Wieso läuft BF3 im Video laut Fraps-Counter mit mGPU eigentlich genaus so schnell wie Single-GPU?

Edit: Hm, den Artikel könnte man so interpretieren, dass sie irgendwie die Leistungsanforderung erhöht haben.

Im Video wird bei der 7970GE Single gesagt, dass sie die Taktraten angepasst haben um 50fps zu erreichen. Wie das bei den Multi GPU Sachen ist kann ich auch nicht sagen.

PS: Ich fand BF3 die ganze Zeit irgendwie ruckelig. Unabhängig von Single oder Multi. NVIDIA war aber etwas besser. Kann man IMO aber auch fast gar nicht mit dem Video zeigen, so wie der Typ da am rumzappeln ist mit der Maus.

Gouvernator
2012-12-23, 16:52:18
Habe ich mich so schlecht ausgedrückt, dass du es nicht verstanden hast?

Wenn ich eine Single-GPU Graka habe und im Spiel XY mit Settings XY die min.fps 60 betragen stelle ich die Settings im Spiel XY mit 2, 3 oder gar 4 GPUs so ein, dass ich wieder 60 min.fps habe. Dann noch passend einen Framelimiter auf 60-70fps setzen und fertig.
Je nach Einstellung lohnt sich bei Multi GPU eher 30-40FPS Limiter um bessere BQ fahren zu können. Meist reicht MGPU für eine Downsampling oder AA Stufe mehr, nicht aus für 60FPS. Beispiel in Project Cars habe ich mit 4xSGSAA genau so Drops unter 50 FPS wie mit 8xSGSAA, dann nehme ich lieber 8xSGSAA und 30 FPS Limit statt ~45FPS mit 4xSGSAA. Für 60 FPS dürfte ich gar kein SGSAA nehmen.
Die Stärke von SLI sind höhere min. FPS bei höherer Bild Qualität. Deswegen sind eher niedrigere min.FPS im Bereich von 30-40 so wichtig (mit Framelimiter).

dargo
2012-12-23, 16:56:04
Erzähl das CB. Die fps sind ja etwa bei BF3 im MP ja relativ konstant oder berechenbar...
Dann spielst du wohl ein anderes BF3 als ich.

Beispiel in Project Cars habe ich mit 4xSGSAA genau so Drops unter 50 FPS wie mit 8xSGSAA, dann nehme ich lieber 8xSGSAA und 30 FPS Limit statt ~45FPS mit 4xSGSAA. Für 60 FPS dürfte ich gar kein SGSAA nehmen.

Dann sind die Profile für pCars entweder Mist. Oder was auch der Fall ist... pCars ist stark cpu-limitiert. Je nach Anzahl der KI halt.

aufkrawall
2012-12-23, 17:28:17
Dann spielst du wohl ein anderes BF3 als ich.

Dann erzähl mal, wo die GPU-Belastung abseits von Rauchwolken stark ansteigen soll.
Meine 670s OC langweilen sich bei 1080p mit 4xSGSSAA jedenfalls deutlich im CPU-Limit (0 Mikroruckler btw):
http://www.abload.de/thumb/bf3_2012_12_23_17_26_h7dvn.png (http://www.abload.de/image.php?img=bf3_2012_12_23_17_26_h7dvn.png)

dargo
2012-12-23, 17:55:54
Was möchtest du mir jetzt mit dem Screen ausdrücken? Dass du konstante fps hast? :|

Schaffe89
2012-12-23, 17:56:26
ähnlich wie Hardocp es auch macht und nicht nur 30sec messen und daraus irgendwelche Schlüsse ziehn.

Jedes mal wenn ich deine Beiträge lese, dann ekelt es mich vor so viel Herstellerliebe.

Nvidia nutzt doch auch nichts anderes als einen Framelimiter, ob das in Hardware gegossen ist oder nicht, dass muss man erstmal beweisen.

AMD hat ja auch ähnliches vor, mit der 4 HSA Generation will man µruckler "angeblich" ganz verschwinden lassen, wers glaubt.

aufkrawall
2012-12-23, 17:58:31
Was möchtest du mir jetzt mit dem Screen ausdrücken? Dass du konstante fps hast? :|
:rolleyes:
Was denkst du, ist los, wenn beide GPUs bei ~70% Auslastung sind?
Und eigentlich wollte ich ja auch wissen, wo die GPU-Auslastung stark ansteigen soll. Vielleicht hast du ja wirklich ein anderes BF3 als ich.

Blaire
2012-12-23, 18:38:58
Nvidia nutzt doch auch nichts anderes als einen Framelimiter, ob das in Hardware gegossen ist oder nicht, dass muss man erstmal beweisen.

Weisst du, das CF-Problem ist schon seit vielen Jahren bekannt und bis heute habt ihr AMD-Boys nichts weiter zu tun, als es zu verharmlosen. Da kann man euch wirklich nur beglückwünschen...:rolleyes:

HarryHirsch
2012-12-23, 18:48:15
:rolleyes:
Was denkst du, ist los, wenn beide GPUs bei ~70% Auslastung sind?
Und eigentlich wollte ich ja auch wissen, wo die GPU-Auslastung stark ansteigen soll. Vielleicht hast du ja wirklich ein anderes BF3 als ich.

das bedeutet das du deinen framelimiter auf 74fps gesetzt hast, deine cpu zu lahm ist oder das sli an der stelle nicht richtig skaliert.

M4xw0lf
2012-12-23, 18:50:33
Noch interessanter bei dem Test finde ich, dass der Systemverbrauch trotz Gigawatt Edition nicht überproportional höher ist als bei den Geforces - zumindest bei Alan Wake ist das triple CF sogar effizienter.

aufkrawall
2012-12-23, 18:51:09
das bedeutet das du deinen framelimiter auf 74fps gesetzt hast, deine cpu zu lahm ist oder das sli an der stelle nicht richtig skaliert.
Genau, Punkt 2 trifft zu.
Außerdem ist zu interpretieren, dass bei 70fps die GPUs noch Luft haben (da es richtig skaliert).
Und ich wollte dann wissen, wo im Spiel die fps so abkacken, dass die GPU-Leistung vielleicht doch nicht mehr reicht.

HarryHirsch
2012-12-23, 19:03:01
Weisst du, das CF-Problem ist schon seit vielen Jahren bekannt und bis heute habt ihr AMD-Boys nichts weiter zu tun, als es zu verharmlosen. Da kann man euch wirklich nur beglückwünschen...:rolleyes:

von welchem problem genau sprichst du? es gibt ja nicht nur eins.
btw. hat schaffe nirgends behauptet das es bei ati besser läuft, er wollte beweise. ;)

Schaffe89
2012-12-23, 19:28:35
Weisst du, das CF-Problem ist schon seit vielen Jahren bekannt und bis heute habt ihr AMD-Boys nichts weiter zu tun, als es zu verharmlosen.

Und du kannst einfach nicht lesen ;) Von Verharmlosung ist nicht die Spur der Rede.

Nvidia nutzt nach meiner Schätzung einen adaptiven Framelimiter der je nach FPS Rate ein bisschen was von der Skalierung abzwackt, mehr nicht.

Aber man hatts in Hardware gegossen, genau.

aufkrawall
2012-12-23, 19:34:46
Nvidia nutzt nach meiner Schätzung einen adaptiven Framelimiter der je nach FPS Rate ein bisschen was von der Skalierung abzwackt, mehr nicht.
Glaub ich nicht. Zumindest mit 2-Way nicht, denn bei niedrigen fps sind beide GPUs voll ausgelastet und es gibt nach wie vor teils derbe Mikroruckler.
Einige Anwendungen ruckeln auch mit hohen fps.

CE3 scheint übrigens auch bis zu einem gewissen Grad bei unter 60fps relativ smooth zu laufen. Die Engine wid mir immer sympathischer.
Wobei ich das mit neuem Maldo mir nochmal etwas genauer anschauen werde.

dargo
2012-12-23, 20:04:30
CE3 scheint übrigens auch bis zu einem gewissen Grad bei unter 60fps relativ smooth zu laufen. Die Engine wid mir immer sympathischer.
Wobei ich das mit neuem Maldo mir nochmal etwas genauer anschauen werde.
Was ist für dich "zum gewissen Grad unter 60fps"? Ich finde die CE3 in Form von Crysis 2 schon bei 50fps eher miserabel, bei 40fps schon beinah unspielbar. Erst 60+fps empfinde ich richtig flüssig. Im Vergleich zu CE2 @Crysis 1 eine deutliche Verschlechterung.

Ps: ich spreche in diesem Fall übrigens von Single-GPU, nicht Multi-GPU.

Blaire
2012-12-23, 21:03:34
Und du kannst einfach nicht lesen ;) Von Verharmlosung ist nicht die Spur der Rede.

Spiel mit wem anders...

Aber man hatts in Hardware gegossen, genau.

http://www.geforce.com/whats-new/articles/article-keynote
Improved Frame rate Metering
Kepler introduces hardware based frame rate metering, a technology that helps to minimize stuttering. In SLI mode, two GPUs share the workload by operating on successive frames; one GPU works on the current frame while the other GPU works on the next frame. But because the workload of each frame is different, the two GPUs will complete their frames at different times. Sending the frames to the monitor at varying intervals can result in perceived stuttering.

HarryHirsch
2012-12-23, 21:12:02
pr... die pr sagt auch das kepler dx11.1 unterstützt und das kepler die schnellste gpu ist.
beides ist aber bullshit.
edit: pcie 3 x16 unterstützt sie laut pr auch! die sever version nur nicht, könnte glatt daran liegen das es nicht zu 100% stabil ist.

gibt es denn einen extra chip auf den karten oder wurde das direkt in die gpu gepflanzt?

=Floi=
2012-12-23, 21:24:10
Dann erzähl mal, wo die GPU-Belastung abseits von Rauchwolken stark ansteigen soll.
Meine 670s OC langweilen sich bei 1080p mit 4xSGSSAA jedenfalls deutlich im CPU-Limit (0 Mikroruckler btw):
http://www.abload.de/thumb/bf3_2012_12_23_17_26_h7dvn.png (http://www.abload.de/image.php?img=bf3_2012_12_23_17_26_h7dvn.png)

auf dem bild ist genug, was nicht geglättet wird!

aufkrawall
2012-12-23, 21:29:55
auf dem bild ist genug, was nicht geglättet wird!
Und du willst sonst noch mitteilen was?

dargo
2012-12-23, 21:36:26
Und du willst sonst noch mitteilen was?
Hat zwar nichts mit dem Thema zu tun, aber nach SGSSAA sieht das wirklich nicht aus. Die Waffe bekommt ja gar kein AA ab.

LSSJBroly
2012-12-23, 21:50:53
Hat zwar nichts mit dem Thema zu tun, aber nach SGSSAA sieht das wirklich nicht aus. Die Waffe bekommt ja gar kein AA ab.


Das dürfte dennoch SGSSAA sein. Sieht bei mir ähnlich aus - das MSAA greift da einfach nur mies, bzw. Flimmern da Kanten immer noch wie die Hölle.

HarryHirsch
2012-12-23, 21:52:25
jup, ist halt erweitert nicht überschrieben.
oder so.

LSSJBroly
2012-12-23, 21:54:18
jup, ist halt erweitert nicht überschrieben.
oder so.

Erzwigen funktioniert nur unter DX9. Unter DX11 kann man nur erweitern.

dargo
2012-12-23, 21:56:05
Das dürfte dennoch SGSSAA sein. Sieht bei mir ähnlich aus - das MSAA greift da einfach nur mies, bzw. Flimmern da Kanten immer noch wie die Hölle.
Ok... also wieder das typische Problem von SGSSAA. Wo kein MSAA greift kann SGSSAA auch nichts machen. ;(

HarryHirsch
2012-12-23, 21:56:43
ahso, das fanboy marketing und so...
im grunde kann nv auch nix mehr, außer marketing... :freak:

LSSJBroly
2012-12-23, 22:00:20
Ok... also wieder das typische Problem von SGSSAA. Wo kein MSAA greift kann SGSSAA auch nichts machen. ;(


Leider ja. Allerdings sieht's optisch mit 2x SGSSAA und DS auch noch ganz gut aus xD

Blaire
2012-12-23, 22:05:48
pr... die pr sagt auch das kepler dx11.1 unterstützt und das kepler die schnellste gpu ist.
beides ist aber bullshit.

1.) Unterstützen selbst Fermi einzelne DX11.1 Features , selbst AMD schreibt das. :eek:
http://blogs.amd.com/play/2012/12/14/gcn-architecture-full-dx111/
2.) Haben sie nicht Unrecht, wenn sie behaupten die schnellsten GPUs zu haben, es kommt immer auf die Auswahl an Games an, die zum Test herangezogen wurden.

edit: pcie 3 x16 unterstützt sie laut pr auch! die sever version nur nicht, könnte glatt daran liegen das es nicht zu 100% stabil ist.


Vieleicht wäre Intel hier der richtige Ansprechpartner? ;)

aufkrawall
2012-12-23, 22:11:35
Leider ja. Allerdings sieht's optisch mit 2x SGSSAA und DS auch noch ganz gut aus xD
Mit DS seh ich aber nichts mehr bei dem Spiel. :(
Hab irgendwie den Eindruck, dass auch abseits vom HUD irgendwie die Proportionen nicht mehr stimmen.

Godmode
2012-12-23, 22:14:37
Es bringt nichts wenn ihr euch schon wieder Sachen an den Kopf werft. Es ist auch egal was jetzt besser oder schlechter ist. Einzig wichtig ist dass die Technologie verbessert wird, im Sinne aller.

HarryHirsch
2012-12-23, 22:19:09
1.) Unterstützen selbst Fermi einzelne DX11.1 Features , selbst AMD schreibt das. :eek:
http://blogs.amd.com/play/2012/12/14/gcn-architecture-full-dx111/
2.) Haben sie nicht Unrecht, wenn sie behaupten die schnellsten GPUs zu haben, es kommt immer auf die Auswahl an Games an, die zum Test herangezogen wurden.


weil man einzelne features unterstützt ist man also dx11.1 ready?
ich glaub du siehst die ironie nicht...

Vieleicht wäre Intel hier der richtige Ansprechpartner? ;)

die specs stehen, warum soll ich mich an intel wenden?
weil nv ihr eigenes süppchen kocht?

Schaffe89
2012-12-24, 00:06:57
Unterstützen selbst Fermi einzelne DX11.1 Features , selbst AMD schreibt das.

Sie unterstützen nur die Featuers die bereits bei Directx11 optional waren.
Unterstützung heißt entweder alles oder nichts, das wusste Nvidia genau und deswegen haben sie schlicht betrogen.

Haben sie nicht Unrecht, wenn sie behaupten die schnellsten GPUs zu haben, es kommt immer auf die Auswahl an Games an, die zum Test herangezogen wurden.

Sogut wie jeder Test sieht die HD 7970 gigahertz vorne, ich kann auch je nach Parcour eine GTX670 vor de HD 7970 GHz sehen und dann behaupten meine Karte ist schneller.

Skysnake
2012-12-24, 01:11:03
die specs stehen, warum soll ich mich an intel wenden?
weil nv ihr eigenes süppchen kocht?

Wo haste denn das her mit PCI-E 2.0 und den Tesla Karten???

HarryHirsch
2012-12-24, 01:26:23
von hier: http://www.pny.eu/product/p-8-70-596/NVIDIA-Tesla/NVIDIA-Tesla-K20-Workstation-Card/

das pdf oben.

Skysnake
2012-12-24, 01:51:16
LOL? :ugly:

Was geht denn da bitte schön ab???

WTF

Das interessiert bei uns sicherlich einige. Muss mal fragen, ob ich nen PCI-E Bandwidthtest auf unserem K20 Knoten laufen lassen darf. Kann ich irgendwie kaum glauben.

HarryHirsch
2012-12-24, 01:55:19
wozu? gpgpu steht auf pcie 3.0 ;)
unterstützen muss man es trotzdem nicht.
verschwendete ressourcen oder so...

Skysnake
2012-12-24, 10:49:30
Macht aber irgendwie absolut keinen Sinn. Bei GK104 haben Sie PCI-E 3.0 ja auch zum laufen bekommen. Wobei...

Intel hat mit SB-E ja auch arge Probleme gehabt...

Wäre aber natürlich schon nen ziemlicher Rückschlag, wenn K20 oder gar KG110 nur PCI-E 2.0 kann. Da wird dann nämlich ne S10000 doch wieder deutlich attraktiver.

Wie gesagt, ich schau mal, ob ich nen Bandbreitentest machen kann. Wird aber dieses Jahr 100% sicher nichts mehr werden.

HarryHirsch
2012-12-24, 11:07:20
für sb-e gibt es ja einen extra patch. auf ivy läuft es wohl ohne.

Skysnake
2012-12-24, 11:46:08
Du meinst wohl eher einen "Hack"...

Du schaltest damit eben was frei, was nicht zertifiziert ist. Du betreibst es also auf gut Glück mit PCI-E 3.0

Dir kann aber keiner vorher sagen, ob du wirklich die volle PCI-E 3.0 Leistung bekommst oder nicht. Das hat auch meines Wissens nach niemand mal getestet, wobei man das auch für jede Kombination wieder einzeln testen muss.

Kann nämlich gut sein, dass die Signalqualität etwas zu schlecht ist, und daher hin und wieder/öfters Pakete Mehrfach gesendet werden müssen.

Die Einführung von PCI-E 3.0 ist auf jeden Fall VIEL ärgerlicher und schwieriger als die von 2.0.

Da will man gar nicht an 4.0 denken -_- Das wird wohl das reinste Fiasko am Anfang, oder ziemlich teuer, weil Sie es eben gleich richtig machen, und nicht wie es bei 3.0 scheint alles auf Naht nähen...

Blaire
2012-12-24, 22:14:17
weil man einzelne features unterstützt ist man also dx11.1 ready?


Zusammenhänge zu erkennen, ist nicht unbedingt deine Stärke... wenn du schon etwas als "Bullshit" betitelst, solltest du dich auch genauer ausdrücken und nicht irgendwelchen Blödsinn verbreiten. Natürlich unterstützt Kepler, als auch Fermi die DX11.1-API, nur halt auf Basis von Feature-Level 11_0

Black-Scorpion
2012-12-24, 22:41:47
Du hast doch mit dem Blödsinn angefangen. Selbst Fermi unterstützt einige DX11.1 Features Bla Bla Bla.
Ändert nichts daran sie zwar die DX11.1 API unterstützen aber kein DX11.1.
Deinen BS merkt man schon daran das auch Karten vor Fermi die DX11.1 API unterstützen.

Exxtreme
2012-12-24, 22:48:19
Fazit: CF/SLI ist für den Popo. Bringt zwar dreifache Bildwiederholrate. Nur braucht man diese auch damit man es als flüssig empfindet. :D

aufkrawall
2012-12-24, 22:52:13
Fazit: CF/SLI ist für den Popo. Bringt zwar dreifache Bildwiederholrate. Nur braucht man diese auch damit man es als flüssig empfindet. :D
Das könnte man zumindest denken, wenn man selber noch kein SLI hatte.
Wie so oft sind "Tests" mit Vorsicht zu genießen und man sollte seine eigenen Erfahrungen machen.

dargo
2012-12-24, 22:52:39
Fazit: CF/SLI @AFR ist für den Popo.
Habs angepasst. ;)

Exxtreme
2012-12-24, 23:07:36
Das könnte man zumindest denken, wenn man selber noch kein SLI hatte.
Wie so oft sind "Tests" mit Vorsicht zu genießen und man sollte seine eigenen Erfahrungen machen.
Für mich ist das Ganze "Alpha-Hardware". Zu problematisch, zu hohe Abhängigkeit von Treiberprofilen, Stromverbrauch und allgemeine Effizienz schlecht etc. Da kaufe ich lieber eine fette Grafikkarte als 2 kleine.

aufkrawall
2012-12-24, 23:36:22
Für mich ist das Ganze "Alpha-Hardware". Zu problematisch, zu hohe Abhängigkeit von Treiberprofilen,

Es geht, man sich mit den Profilen bei Nvidia häufig selber helfen.
Man muss manchmal allerdings schon mal länger warten, bis die Entwickler einen Patch rausbringen, wenn sich sonst nichts machen lässt. Dass es gar nicht geht, ist bei neuen Titeln eigentlich selten.
Ich konnte Borderlands 2, Far Cry 3, Dishonored, Painkiller H&D, Orcs must die! 2, Metro 2033, Hitman usw. in letzter Zeit allesamt ziemlich gut bis perfekt mit SLI zocken. Die Investition hat sich definitiv gelohnt. Ich brauch ja nur auf Single-GPU umschalten um zu sehen, wie es sonst laufen würde.


Stromverbrauch und allgemeine Effizienz schlecht etc.

Du kannst SLI auch nutzen, um die Last aufzuteilen. Mit fps-Limiter/Vsync (was man imho auch mit Single-GPU immer nutzen sollte, Schwankungen empfinde ich als Ruckeln), sind bei Kepler 2 GPUs gerne mal deutlich leiser als eine. Stromverbrauch wird sich dabei nicht viel nehmen, wobei die allgemein nicht so viel heizen.


Da kaufe ich lieber eine fette Grafikkarte als 2 kleine.
Darum gehts ja nicht, denn was nicht existiert, kann man auch nicht kaufen. ;)

Blaire
2012-12-24, 23:40:15
Du hast doch mit dem Blödsinn angefangen. Selbst Fermi unterstützt einige DX11.1 Features Bla Bla Bla.

Lies dir mal den verlinkten Marketing-Text durch, vieleicht leuchtet es dann...
Wenn nicht, auch nicht so schlimm...
Es ist eigentlich bezeichnend das die AMD-Bots (damit mein ich nicht unbedingt dich...) lieber nach Fehlern bei SLI suchen...obwohl seit Jahren die Probleme mit CF um ein Vielfaches fataler sind, da brauchen wir auch garnicht ernsthaft weiterdiskutieren, die Zeit dafür mir einfach zu schade ist.

Cubitus
2012-12-24, 23:46:29
Für mich ist das Ganze "Alpha-Hardware". Zu problematisch, zu hohe Abhängigkeit von Treiberprofilen, Stromverbrauch und allgemeine Effizienz schlecht etc. Da kaufe ich lieber eine fette Grafikkarte als 2 kleine.

;D

Alpha ist hier gar nix! Zumindest bei Nvidia
Quad-SLi gibt es schon seit 2005 und 3Way AFR seit Ende 2006.

Technik und Treiber sind ausgereift und für 95% der Spiele existieren SLI Profile.
Gut, einige kann man noch einen Ticker verbessern, aber zwingend ist das nicht. Häufiger müssen Devs ihre Spiele nach-patchen, also diese für SLI trimmen.

Und die MR: Kann man alles in den Griff bekommen wenn man sich vor Beginn eines neuen Games eine halbe Stunde Zeit nimmt und den Lock nahe an die Leistungsgrenze setzt!
Meistens lassen sich so ohne Probleme fordernde Ultra-Settings einstellen. Bei FC3 konnte ich mit 38 FPS lock@3840*2160 +2xMSAA und Ultra Preset problemlos zoggen. Bei 3Way AFR wäre sicherlich noch mehr drin gewesen... Fahr solche Settings einmal mit der dicksten Singel-GPU Karte!

Nvidia beherrscht nicht das volle DX11.1 ok, aber das was für die Spiele-Entwicklung wichtig ist, lässt sich auch mit einem erweiterten Feature-Set des DX11 erreichen.
D.h es wird bei Nvidia Gpus keine Abstriche geben!!

dargo
2012-12-25, 00:31:13
Bei FC3 konnte ich mit 38 FPS lock@3840*2160 +2xMSAA und Ultra Preset problemlos zoggen.
Interessant, ich kann nicht mal mit Single-GPU FC3 @38fps problemlos zocken weil das Spiel mit so einer tiefen Framerate sich super zäh anfühlt. Aber Nvidia kann wohl sogar bei SLI zaubern.

aufkrawall
2012-12-25, 00:37:38
Interessant, ich kann nicht mal mit Single-GPU FC3 @38fps problemlos zocken weil das Spiel mit so einer tiefen Framerate sich super zäh anfühlt. Aber Nvidia kann wohl sogar bei SLI zaubern.
Stell dir vor, ich hab es mit konstant 60fps durchgezockt bei einer Bildqualität, die mit sGPU nicht wirklich spielbar gewesen wäre.

dargo
2012-12-25, 00:38:14
Deine 60fps sind aber nicht meine 60fps. ;)

aufkrawall
2012-12-25, 00:39:03
Deine 60fps sind aber nicht meine 60fps. ;)
Stimmt, bei Radeons ruckeln die ja leider.

Cubitus
2012-12-25, 00:40:34
Interessant, ich kann nicht mal mit Single-GPU FC3 @38fps problemlos zocken weil das Spiel mit so einer tiefen Framerate sich super zäh anfühlt. Aber Nvidia kann wohl sogar bei SLI zaubern.

Klar, AMD mikro-ruckelt auch bei Singel-Karten, ist nix Neues :biggrin:

Stimmt, bei Radeons ruckeln die ja leider.

gnahhr, warst schneller ;D

dargo
2012-12-25, 00:42:32
Stimmt, bei Radeons ruckeln die ja leider.
Weniger als dein SLI.

LSSJBroly
2012-12-25, 00:45:39
Ich hab "letztens" auch das erste mal SLI ausprobiert - mit zwei GTX 580 - und die Microruckler-problematik ist wirklich etwas, nun ja, übertrieben. Solche habe ich meistens erst ab 40 Fps gespürt. (und selbst da bin ich nur mit 4xSGSSAA und/oder DS hingekommen) Viel schlimmer ist allerdings der höhere Inputlag- wie @dargo schon sagte, viel zu zäh. Aber: Das selbe Problem bekommen die Single-GPUs ab 35, 30Fps aber auch :/

aufkrawall
2012-12-25, 00:45:49
Weniger als dein SLI.
Mit Vsync gab es während der gesamten Spielzeit genau 0 Mikroruckler.

LSSJBroly
2012-12-25, 00:48:00
Mit Vsync gab es während der gesamten Spielzeit genau 0 Mikroruckler.

Hast du schon das "neue" Vsync ausprobiert (x000000001 im inspector oder so)? Bestes Spielgefühl ever. Da kommt selbst 60Fps auf einer Single-GPU nicht mit, da sogut wie kein Inputlag :)

Cubitus
2012-12-25, 00:48:37
Weniger als dein SLI.

Mit Limitierung!? Wage ich zu bezweifeln...

Aber du kannst ja mal deinen Settings auch ein Framelock verpassen und auf 40 FPS drosseln, eventuell spürst du dann eine Verbesserung!?
Klar läuft es langsamer als wie mit 60 FPS, aber zäher nicht unbedingt.

Edit: Auf den Konsolen ist FC3 gaanz schlimm, gefühlte 20 FPS und die Leute spielen es trotzdem :freak:

aufkrawall
2012-12-25, 00:51:34
Hast du schon das "neue" Vsync ausprobiert (x000000001 im inspector oder so)? Bestes Spielgefühl ever. Da kommt selbst 60Fps auf einer Single-GPU nicht mit, da sogut wie kein Inputlag :)
Ja, allerdings kostest es bei mir stellenweise zu viel Leistung. :(
Ich hoffe, dass Nvidia das noch verbessert, dann wäre es ein Killer-Feature.

Edit: Bei FC3 kann man ja Double Buffered Vsync auswählen (das kann mit AFR alle fps-Raten unterhalb der Refreshrate abbilden). Dazu noch prerendered frames wenn nötig anpassen, dann ist der Input-Lag auch recht klein.
Hoher Input-Lag ist eher ein Problem von schlechten Engines als von AFR, zumindest bei 2-Way.

LSSJBroly
2012-12-25, 00:56:32
Ja, allerdings kostest es bei mir stellenweise zu viel Leistung. :(
Ich hoffe, dass Nvidia das noch verbessert, dann wäre es ein Killer-Feature.

Stimmt allerdings auch wieder :/ wobei ich meine, dass nur Fermi damit probleme habe. Bei @Blaire soll es voll funktioniert haben?

Muss man die prerendered frames verringern oder erhöhen, um den Inputlag zu verringern?

aufkrawall
2012-12-25, 00:59:30
Stimmt allerdings auch wieder :/ wobei ich meine, dass nur Fermi damit probleme habe. Bei @Blaire soll es voll funktioniert haben?

Ja, mit 4-Way. ;)


Muss man die prerendered frames verringern oder erhöhen, um den Inputlag zu verringern?
Verringern, würd es dann im Treiber auf 1 stellen.
Kostet allerdings etwas fps und ruckelt unterhalb vom fps-Limit/Vsync recht unangenehm. Sofern man die fps aber halten kann, sehr sinnvoll.

dargo
2012-12-25, 01:00:32
Mit Vsync gab es während der gesamten Spielzeit genau 0 Mikroruckler.
Vsync = Input-Lag, keine Option zumindest für mich.

LSSJBroly
2012-12-25, 01:03:05
Vsync = Input-Lag, keine Option zumindest für mich.

Mit etwas glück gibt es bald bei nvidia Vsync ohne Inputlag (dann problemlos) ;D

aufkrawall
2012-12-25, 01:03:53
Vsync = Input-Lag, keine Option zumindest für mich.
Kannst auch fps-Limiter nehmen, geht sogar eher noch besser zum MR bekämpfen.
Habe bei BF3 mit 70fps Limit ebenfalls 0 Mikroruckler, läuft mit Single-GPU bei niedrigeren Grafikoptionen keinen Deut besser.

dargo
2012-12-25, 01:03:55
Aber du kannst ja mal deinen Settings auch ein Framelock verpassen und auf 40 FPS drosseln, eventuell spürst du dann eine Verbesserung!?
Klar läuft es langsamer als wie mit 60 FPS, aber zäher nicht unbedingt.

Ich finde FC3 unter 50fps auf jeden Fall zäh. Nicht die Bildwiedergabe sondern die Steuerung. So ab ca. 55+fps ist es für mich in Ordnung. Das gleiche gilt übrigens für die CE3 in Form von Crysis 2.


Edit: Auf den Konsolen ist FC3 gaanz schlimm, gefühlte 20 FPS und die Leute spielen es trotzdem :freak:
Bitte keine Quervergleiche mit den Konsoleros, die sind gegen so einiges resistent. X-D


Habe bei BF3 mit 70fps Limit ebenfalls 0 Mikroruckler, läuft mit Single-GPU bei niedrigeren Grafikoptionen keinen Deut besser.
Nun... das verwundert mich jetzt nicht wirklich. Erstens ist BF3 PR-Spiel von NV Nummer 1, da wird man sicherlich einige Zeit beim Treiber fürs Spiel investieren. Zweitens hast du zwei und keine drei GPUs, worum es hier im Thread eigentlich ursprünglich ging.

aufkrawall
2012-12-25, 02:08:39
Nun... das verwundert mich jetzt nicht wirklich. Erstens ist BF3 PR-Spiel von NV Nummer 1, da wird man sicherlich einige Zeit beim Treiber fürs Spiel investieren.

Dann nehmen wir halt FC3, ein AMD-Spiel. ;)
Da gibts mit Limiter natürlich auch keine Ruckler.


Zweitens hast du zwei und keine drei GPUs, worum es hier im Thread eigentlich ursprünglich ging.
Und welchen Unterschied macht das mit Limiter?

Hübie
2012-12-25, 04:04:13
Ach Leute nun fangt doch nicht wieder an eure Kaufentscheidungen zu rechtfertigen. Der Test auf CB ist doch eh in etwa so wie die Reifentests des ADAC/der Bild. Oberflächlich. Mit den dort beschriebenen Werten kann man nichts anfangen. Das sind bestenfalls Indizien in welche Richtung es geht.
Wann schnallen die Käufer endlich dass fps (und vor allem avg-fps) nichts Sinnvolles aussagen?

Anhand dieses Artikels merkt man dass momentan nix auf dem Markt los ist. Und im Frühjahr werden sämtliche Redakteure wieder geknechtet und geächtet. Prost!



Frohe Weihnacht, ihr Schwachmaaten ;D:D

fondness
2012-12-25, 09:41:41
Nvidia beherrscht nicht das volle DX11.1 ok, aber das was für die Spiele-Entwicklung wichtig ist, lässt sich auch mit einem erweiterten Feature-Set des DX11 erreichen.
D.h es wird bei Nvidia Gpus keine Abstriche geben!!

Das erste ist schlicht falsch. UAVs außerhalb von Pixelshadern ist DAS DX11.1-Feature schlechthin und natürlich auch für Spiele relevant - und das unterstützt Kepler NICHT.

Das zweite wird man sehen. Ich nächster Zukunft wohl kaum, wenn dann allerdings die ersten PS4/Xbox720-Ports erscheinen die beide DX11.1 unterstützen werden, wäre ich mir nicht mehr so sicher ob jeder Entwickler für jedes Spiel einen Fallbackmodus für Kepler implementiert.

Cubitus
2012-12-25, 11:21:27
Das erste ist schlicht falsch. UAVs außerhalb von Pixelshadern ist DAS DX11.1-Feature schlechthin und natürlich auch für Spiele relevant - und das unterstützt Kepler NICHT.

Das zweite wird man sehen. Ich nächster Zukunft wohl kaum, wenn dann allerdings die ersten PS4/Xbox720-Ports erscheinen die beide DX11.1 unterstützen werden, wäre ich mir nicht mehr so sicher ob jeder Entwickler für jedes Spiel einen Fallbackmodus für Kepler implementiert.

Gut ich hätte schreiben sollen, für die derzeitige Spiele-Entwicklung. Und bis erste Konsolenports kommen werden, ist Maxwell schon draußen. Vielleicht ist ja der kommende 3Dmark in der Lage Dx11.1 komplett zu nutzen, mehr können wir in naher Zukunft aber nicht erwarten.

Knuddelbearli
2012-12-25, 11:55:12
man wechselt ja jede generation ...

schmeiss meine 480 auch nur raus da sie ein oc krüppel ist bzw viel zusehr heizt und ich 3 monitore will / brauch

aufkrawall
2012-12-25, 12:54:39
Ach Leute nun fangt doch nicht wieder an eure Kaufentscheidungen zu rechtfertigen.
Es geht darum, mal mit gewissen Vorurteilen aufzuräumen.
Komischerweise tun nämlich nur die Leute SLI als totalen Schrott ab, die es noch nie ausprobiert haben. ;)


Frohe Weihnacht, ihr Schwachmaaten ;D:D
:rolleyes:

HarryHirsch
2012-12-25, 14:03:38
Fazit: CF/SLI @AFR ist für den Popo.

Habs angepasst. ;)

jup, ich spiele gerade mass effect 2 mit 16x sgssaa, ohne afr und μruckler. :D

fondness
2012-12-25, 14:18:26
jup, ich spiele gerade mass effect 2 mit 16x sgssaa, ohne afr und μruckler. :D

Wenn AMD schlau wäre würden sie zumindest optional auch 8x/4x/2xSGSSAA so implementieren. Das würde zwar ein bisschen Leistung kosten aber behebt sämtliche Multi-GPU-Probleme.

Raff
2012-12-25, 14:27:11
Es geht darum, mal mit gewissen Vorurteilen aufzuräumen.
Komischerweise tun nämlich nur die Leute SLI als totalen Schrott ab, die es noch nie ausprobiert haben. ;)

SLI ist kein Schrott, es ist nur arg defizitär. Crossfire ist noch schlimmer. Um mal die PCGH in der 02/2013 (Seite 38 ff.) (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/) zu zitieren: "Trotz aller Widrigkeiten haben Multi-GPU-Lösungen eine Daseinsberechtigung, denn unterm Strich steigern sie die Leistung. Das Kernproblem ist, dass der dafür nötige technische und monetäre Aufwand den 'Spaßgewinn' deutlich übersteigt."

MfG
Raff

aufkrawall
2012-12-25, 14:30:04
Das ist eine subjektive Aussage, die jeder anders treffen kann.
Mir machts ohne jedenfalls keinen Spaß mehr, so wie die fps einkacken und es flimmert. :D

Raff
2012-12-25, 14:31:46
Dass man die doppelte Summe für (teils deutlich) weniger als die doppelte Leistung ausgibt, ist nicht subjektiv.

MfG,
Raff

aufkrawall
2012-12-25, 14:35:32
Dass man die doppelte Summe für (teils deutlich) weniger als die doppelte Leistung ausgibt, ist nicht subjektiv.

Ist das bei HighEnd-GPUs anders?
Mit SSAA skalieren übrigens selbst die Avg-fps ziemlich gut.

HarryHirsch
2012-12-25, 14:39:46
Wenn AMD schlau wäre würden sie zumindest optional auch 8x/4x/2xSGSSAA so implementieren. Das würde zwar ein bisschen Leistung kosten aber behebt sämtliche Multi-GPU-Probleme.

verstehe ich auch nicht warum sie das nicht anbieten.

weiß jemand was bei 4 gpus passiert? kommt dann wieder afr zum einsatz oder berechnet jede karte ein bild mit 4 samples?

Raff
2012-12-25, 14:46:32
Ist das bei HighEnd-GPUs anders?
Mit SSAA skalieren übrigens selbst die Avg-fps ziemlich gut.

Ist eine GTX 670/680 kein High-End? ;) Mittelklasse-Crossfire/-SLI ist Unsinn.

GTX 690 (http://www.pcgameshardware.de/Preisvergleich/?cat=gra16_512&asd=on&asuch=GTX%20690&xf=1439_GTX+690#xf_top): 830 Euro (244 % Preis, weniger als 200 % Leistung)
2x GTX 670 (http://www.pcgameshardware.de/Preisvergleich/?cat=gra16_512&sort=t&filter=+Liste+aktualisieren+&asuch=GTX+670&asd=on&v=e&xf=#xf_top): 680 Euro (200 % Preis, weniger als 200 % Leistung
1x GTX 670 (http://www.pcgameshardware.de/Preisvergleich/?cat=gra16_512&sort=t&filter=+Liste+aktualisieren+&asuch=GTX+670&asd=on&v=e&xf=#xf_top): 340 Euro (100 % Preis, 100 % Leistung)

"Weniger als" ergibt sich daraus, dass man selbst bei +100 Prozent Fps niemals die doppelte gefühlte Leistung erhält (Mikroruckeln, AFR-Lag).

MfG,
Raff

aufkrawall
2012-12-25, 14:50:26
"Weniger als" ergibt sich daraus, dass man selbst bei +100 Prozent Fps niemals die doppelte gefühlte Leistung erhält (Mikrorurckeln, AFR-Lag).

Doch, sofern man die meiste Zeit im fps-Limit bleibt. Ich will eine konstante Framerate, kein Geruckel durch Schwankungen. So gesehen kann man dann auch bei sGPU nicht 100% der Leistung nutzen, sondern nur so viel, wie man stabil hinbekommt. Und da ist eine GPU halt meist zu lahm.
Zu AFR-Lag bei 2-Way hab ich mich ja schon geäußert.

StefanV
2012-12-25, 15:12:20
Wenn AMD schlau wäre würden sie zumindest optional auch 8x/4x/2xSGSSAA so implementieren. Das würde zwar ein bisschen Leistung kosten aber behebt sämtliche Multi-GPU-Probleme.
Machen sie das nicht mehr?!

Früher, als ich mal ein CF System am Laufen hatte (bestehend aus 2 x1800XL), ging das?!

HarryHirsch
2012-12-25, 15:30:47
nee, das läuft jetzt nur noch bei 16x msaa /sgssaa

Schaffe89
2012-12-25, 15:52:47
Doch, sofern man die meiste Zeit im fps-Limit bleibt.

Ein FPS Limit schließt keine SLI oder CF bedingten µruckler oder Input Lag aus.
Ich zocke schon seit geraumer Zeit mit 3 HD 7970 ghz Karten im Tripple CF, oer je nach Game auch mal nur mit 2.

Da erhält man gefühlt nie die dioppelte Leistung-

aufkrawall
2012-12-25, 16:21:24
Ein FPS Limit schließt keine SLI oder CF bedingten µruckler oder Input Lag aus.

Bei mir schon.

Hab gerade auch noch was rausgefunden, das SLI-User sich freuen lassen wird. Erstell da später nen Thread zu.

Blaire
2012-12-25, 17:59:30
Früher, als ich mal ein CF System am Laufen hatte (bestehend aus 2 x1800XL), ging das?!

Das wäre auch unsinnig, da es 1.) zuviel Leistung kostet und 2.) die aktuellen AA-Implementierungen mehr und mehr zu wünschen übrig lassen und damit kaum ein Mehrwert gegeben wäre.

HarryHirsch
2012-12-25, 18:08:41
Das wäre auch unsinnig, da es 1.) zuviel Leistung kostet und 2.) die aktuellen AA-Implementierungen mehr und mehr zu wünschen übrig lassen und damit kaum ein Mehrwert gegeben wäre.

aha :freak:

Blaire
2012-12-25, 18:16:27
aha :freak:

16xSGSSAA in Farcry3... Wieviele Radeons bräuchtest du gleich noch dafür? :freak: Selbst mit 4xSGSSAA kannst du es jetzt schon vergessen. Vom optischen Mehrwert ganz zu schweigen... Da kannst auch gleich beim Downsampling bleiben.

fondness
2012-12-25, 18:22:45
Das wäre auch unsinnig, da es 1.) zuviel Leistung kostet und 2.) die aktuellen AA-Implementierungen mehr und mehr zu wünschen übrig lassen und damit kaum ein Mehrwert gegeben wäre.

Also spielst du mit deinem SLi-System ohne AA? Ansonsten macht deine Aussage keinen Sinn. Man könnte genau so 2xSSAA zum Preis von noAA oder 4xSSAA zum Preis von 2xSSAA oder 8xSSAA zum Preis von 4xSSAA durch die zweite Karte bekommen. Selbstverstädnlich ohne µRucklern oder sonstigen Multi-GPU-Problemen.

aufkrawall
2012-12-25, 18:26:21
Das wäre auch unsinnig, da es 1.) zuviel Leistung kostet und 2.) die aktuellen AA-Implementierungen mehr und mehr zu wünschen übrig lassen und damit kaum ein Mehrwert gegeben wäre.
Mit SLI kann man jedenfalls auch 8xSGSSAA ohne AFR auf mehreren GPUs laufen lassen. :)
Erzielte bei mir bei Crysis ca 15% weniger fps, aber dafür 0 Mikroruckeln.

Felixxz2
2012-12-25, 18:27:12
Vom optischen Mehrwert ganz zu schweigen... Da kannst auch gleich beim Downsampling bleiben.

DS ist teurer und hässlicher als SGSSAA.

HarryHirsch
2012-12-25, 18:29:54
es ging nicht nur um 16x msaa/ sgssaa. früher ging das auch bei 8x und 4x.
es kostet auch leistung, aber auf die 2-3% scheiss ich wenn es ohne mr läuft.
ich weiß nicht mal ob es bei <dx9 überhaupt läuft.

Blaire
2012-12-25, 18:30:20
Also spielst du mit deinem SLi-System ohne AA? Ansonsten macht deine Aussage keinen Sinn. Man könnte genau so 2xSSAA zum Preis von noAA oder 4xSSAA zum Preis von 2xSSAA oder 8xSSAA zum Preis von 4xSSAA durch die zweite Karte bekommen. Selbstverstädnlich ohne µRucklern oder sonstigen Multi-GPU-Problemen.

Ingame-AA liefert aber sehr oft nicht die Qualität, die man sich wünschen würde. ;( Battlefield3, Hitman Absolution, Farcry3 wären drei aktuelle Beispiele.
Und da du dank Restriktionen das Anti-Aliasing nur noch Erweitern kannst, brächte das momentan, außer hohen Leistungskosten, kaum einen Vorteil.

DS ist teurer und hässlicher als SGSSAA.

Wenn SGSSAA gut implementiert ist, dann ja. Ich sehe Downsampling auch eher als letzte Option, wenn nix mehr geht. Assassins Creed III mit TXAA incl. Downsampling hat schon was. Es ist nicht perfekt , aber es ist ok. Gefällt mir besser, als die aufgewungene TX-/FXAA+MSAA Kombination, welche man nur mit 4xSGSSAA aufwerten kann.

HarryHirsch
2012-12-25, 18:31:46
Mit SLI kann man jedenfalls auch 8xSGSSAA ohne AFR auf mehreren GPUs laufen lassen. :)
Erzielte bei mir bei Crysis ca 15% weniger fps, aber dafür 0 Mikroruckeln.

link?

HarryHirsch
2012-12-25, 19:08:53
screenshots vom d3d fsaa viewer (http://www.3dcenter.org/download/d3d-fsaa-viewer) währen nice.

aufkrawall
2012-12-25, 19:17:15
link?
Blaire hat mich gerade per PM drauf gebracht, dass die Samplemasken nicht ideal sind.
Ist also doch keine Option.

HarryHirsch
2012-12-25, 19:21:49
es funktioniert also? kannst du bitte einen screen vom d3d fsaa viewer machen und die settings posten?

Blaire
2012-12-25, 19:27:56
Blaire hat mich gerade per PM drauf gebracht, dass die Samplemasken nicht ideal sind.
Ist also doch keine Option.

Ich hab SLI-AA schon lange nicht mehr angesehn, glaube aber nicht, daß sich da großartig was verändert hat. Offiziell im Treiber wird es ja auch nicht mehr angeboten.

aufkrawall
2012-12-25, 19:36:39
Ich hab SLI-AA schon lange nicht mehr angesehn, glaube aber nicht, daß sich da großartig was verändert hat. Offiziell im Treiber wird es ja auch nicht mehr angeboten.
Im FSAA-Viewer werden nur 4 Samples angezeigt, es sieht aber besser aus.
Jedoch trotzdem noch schlechter als 8xSGSSAA per AFR.

HarryHirsch
2012-12-25, 19:40:18
Im FSAA-Viewer werden nur 4 Samples angezeigt, es sieht aber besser aus.
Jedoch trotzdem noch schlechter als 8xSGSSAA per AFR.

bei eingestellten 8 samples?

aufkrawall
2012-12-25, 19:42:14
Ok, das Feature ist im Arsch oder funzt mit SGSSAA nicht. :freak:
Elender Sekt...

HarryHirsch
2012-12-25, 19:49:52
wenn es funktioniert werden 8 samples angezeigt und 4 sind auf dem screenshot sichtbar...
framebuffer oder so...

aufkrawall
2012-12-25, 20:04:25
Es funktioniert, FSAA Viewer zeigt es nur nicht richtig an und die Sampleverteilung ist schlechter. Doch nicht der Sekt. ;)

8xSGSSAA:
http://www.abload.de/thumb/hl2_2012_12_25_20_00_6yk3m.png (http://www.abload.de/image.php?img=hl2_2012_12_25_20_00_6yk3m.png)

SLI 8xSGSSAA:
http://www.abload.de/thumb/hl2_2012_12_25_19_59_y9jjg.png (http://www.abload.de/image.php?img=hl2_2012_12_25_19_59_y9jjg.png)

4xSGSSAA:
http://www.abload.de/thumb/hl2_2012_12_25_20_03_58ioa.png (http://www.abload.de/image.php?img=hl2_2012_12_25_20_03_58ioa.png)

HarryHirsch
2012-12-25, 20:12:28
hast du trotzdem noch ein paar screens vom fsaa viewer + den entsprechenden settings?

aufkrawall
2012-12-25, 20:17:51
hast du trotzdem noch ein paar screens vom fsaa viewer + den entsprechenden settings?
Settings: 4xSGSSAA im Treiber einstellen & SLI-AA:
http://www.abload.de/thumb/dx9fsaaviewer_2012_12m0e1q.png (http://www.abload.de/image.php?img=dx9fsaaviewer_2012_12m0e1q.png)

dargo
2012-12-25, 20:27:42
DS ist teurer und hässlicher als SGSSAA.
MSAA bekommt bei neueren Games immer mehr Probleme jede Objektkante zu erfassen. Und somit auch SGSSAA. Also stimmt zweitere Aussage schon mal allgemein nicht.

HarryHirsch
2012-12-25, 20:29:24
Settings: 4xSGSSAA im Treiber einstellen & SLI-AA:
http://www.abload.de/thumb/dx9fsaaviewer_2012_12m0e1q.png (http://www.abload.de/image.php?img=dx9fsaaviewer_2012_12m0e1q.png)

das ist stino afr...

aufkrawall
2012-12-25, 20:42:33
das ist stino afr...
Jetzt nochmal so, dass man es auch außerhalb deiner Welt versteht.

HarryHirsch
2012-12-25, 20:47:46
das ist "stinknormales" afr.

aufkrawall
2012-12-25, 20:49:12
Genau, deshalb laufen die Anwendungen ja auch ohne AFR-Profil (gelöscht) mit beiden GPUs bei 99%. :facepalm:

HarryHirsch
2012-12-25, 20:55:26
wat? willst du mich rollen?
das ist stino afr.
siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9594375&postcount=132).

aufkrawall
2012-12-25, 20:59:58
Hast du das SLI-AA geschrieben oder woher willst du das wissen?
Der FSAA-Viewer zeigt nur 4 Samples an, es sieht in Spielen aber klar besser aus. Der kann also nicht die ganze Wahrheit anzeigen.

HarryHirsch
2012-12-25, 21:07:16
Hast du das SLI-AA geschrieben oder woher willst du das wissen?
Der FSAA-Viewer zeigt nur 4 Samples an, es sieht in Spielen aber klar besser aus. Der kann also nicht die ganze Wahrheit anzeigen.

das ist prinzipbedingt so. aber was laber ich, ich bin nur der lümmel vom bau. :freak:

HarryHirsch
2012-12-25, 21:33:46
Hast du das SLI-AA geschrieben oder woher willst du das wissen?
Der FSAA-Viewer zeigt nur 4 Samples an, es sieht in Spielen aber klar besser aus. Der kann also nicht die ganze Wahrheit anzeigen.

kannst du das gleiche nochmal mit 8x wiederholen?
wäre nur zur info, meine meinung steht...

Iruwen
2012-12-26, 19:01:00
Ich habe eine Meinung, verwirrt mich nicht mit Fakten.

HarryHirsch
2012-12-27, 12:21:30
wenn es ohne afr laufen würde würde man die samples trotzdem sehen.
man kann sie nur nicht per screenshot aufnehmen.

http://www.abload.de/thumb/dscf022156pd.jpg (http://www.abload.de/image.php?img=dscf022156pd.jpg)

quelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7573174#post7573174)

Gouvernator
2012-12-27, 13:02:25
wenn es ohne afr laufen würde würde man die samples trotzdem sehen.
man kann sie nur nicht per screenshot aufnehmen.

http://www.abload.de/thumb/dscf022156pd.jpg (http://www.abload.de/image.php?img=dscf022156pd.jpg)

quelle (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7573174#post7573174)
Die Verteilung ist bei SLI dann aber wirklich schlecht. Netto gewinnt man praktisch nix an Bildqualität. Das sieht dann doch aus wie 4 doppelte Samples anstatt wie auf dem Screenshot alles schön verteilt.

aufkrawall
2012-12-27, 13:22:47
Bei 16x scheint es gut zu funktionieren, es ist von der Qualität bei deutlich niedrigerer Leistungsanforderung vergleichbar mit dem 32xOG/SGSSAA-Mischmodus.

Gouvernator
2012-12-27, 14:09:19
Bei 16x scheint es gut zu funktionieren, es ist von der Qualität bei deutlich niedrigerer Leistungsanforderung vergleichbar mit dem 32xOG/SGSSAA-Mischmodus.
Meinst du jetzt 4-Way SLI 64xAA? Naja kann ich mal ausprobieren...

aufkrawall
2012-12-27, 14:17:30
Meinst du jetzt 4-Way SLI 64xAA? Naja kann ich mal ausprobieren...
Keine Ahnung wegen 4-Way. Bei 2-Way werden die Samples offenbar verdoppelt.
64xAA klingt nach viel, ist aber nur 32xCSAA x2 und CSAA bringt so gut wie nichts bzw. dann nimmt man besser 16xQ als Basis, das verringert Texturflimmern mit SGSSAA.

Edit:
16xSGSSAA + 16xCSAA:
http://www.abload.de/thumb/16xsgssaaslj5i.png (http://www.abload.de/image.php?img=16xsgssaaslj5i.png)

32xSG/OGSSAA:
http://www.abload.de/thumb/32xsgogssaarnj2n.png (http://www.abload.de/image.php?img=32xsgogssaarnj2n.png)

Kann sich sehen lassen dafür, dass es weniger als die Hälfte der Leistung zieht. :)

Gouvernator
2012-12-27, 15:23:19
Ich weiß von Sli und Tri-SLI das die Sampleverteilung so schlecht war das der Einsatz das Ergebnis nicht gerechtfertigt hat. Jetzt mit 4-Way ist es nun scheinbar anders. Jetzt auf die schnelle 4fach/8xSGSAA enhanced in JC2 und Tony Hawk HD ausprobiert, weil ich kurz davor auch schon 2160p in 8xSGSAA dort "gespielt" habe wegen nur 20-30 FPS.
Von FPS Werten ist 1080p mit 32x SLI AA vergleichbar mit 2160p mit 8xSGSAA, mit dem Vorteil das die Karten besser ausgelastet werden und dadurch bessere FPS liefern. Man kommt damit over the top also die 30 Pflicht-FPS. Musste jetzt deswegen den Grafikkarten eine Stufe mehr Spannung geben.
Von Bild-Qualität ist es ungefähr gleich. Der Unterschied ist nur minimal mehr Bildruhe mit 2160p aber dafür mehr Glättung in SLI AA in 1080p. Vom Bildeindruck her sind die beiden Modi mit geübtem Auge kaum zu unterscheiden.
Nun spricht einiges für 32xAA... Erstens was gleich auffällt man bekommt keine Vram Probleme. In Tony Hawk ruckelt bereits das Hauptmenu in 2160p mit 8xAA. Dann kann man FPS-Limiter komplett auslassen weil Mikroruckler ade. Und obendrauf sind die GPU immer zu 100% ausgelastet das gibt einen spürbaren Performance Schub.

Das Problem ist wohl das nicht alle Games in 8xSGSAA laufen können. Ob man 4xSGSAA nehmen kann will ich noch austesten...
Auf jeden Fall mit kommenden NextGen hat man die sinnvolle Möglichkeit 2160p in 32xSLI AA zu fahren. Das macht Fun. In JC2 nur 8 FPS mit den GTX480.

Gouvernator
2012-12-27, 22:56:01
SLI AA ist definitiv eine Alternative. Mit Downsampling und 32xAA SLI AA hat man die beste BQ. Ich denke es gibt noch keine Grafikkarte die 32xS bei 3840x2160 in Vram quetschen kann. Somit bleibt nur 4-Way-8x SLI SGSAA als die einzige Möglichkeit. Man kann es zwar nicht zocken HL2 hat nur 25FPS aber kleinere Downsampling Stufe packt es locker. Ich habe Test Drive Ferrari in 2560x1440 bei 32x SLI SGSAA gezockt es ist der Wahnsinn. Das Bild ist so ruhig wie ein Screenshot.
Mit 16xAA also 4x 4xSGSAA hat man auch noch ansprechende BQ. Es ist generell so das man nur wenig Verbesserung sieht, deswegen ist es nur wie ein Zwischenschritt von 8x auf 32x. Man hat dabei kein wow Erlebnis wie bei 32x. Aber schlechter als 8x sieht es niemals aus eher gleichwertig bis etwas besser je nach Game. Das kann man mit bisschen Downsampling fast immer nutzen. Je höher Downsampling desto näher kommt man dann an 32x AA Ergebnis ran.
8x SLI AA kann man gleich vergessen die Qualität entspricht niemals der eingesetzten Leistung. Zumindest wenn man eine Flimmer-Hölle hat. Andere Games die eher steril aussehen können durchaus mit 8x noch gespielt werden ohne sichtbare Nachteile und dabei ohne Mikroruckler.
Ich versuche ab jetzt zuerst 4xAA (16xSLI AA 4-way) zu aktivieren das bringt den größten BQ Boost mit der besten Performance.

HarryHirsch
2012-12-27, 23:12:29
wie sieht denn 32x aa im tester aus? könntest du da mal ein bild hochladen?

Gouvernator
2012-12-27, 23:57:14
Tester funktioniert nicht richtig ich sehe nur weiß.

HarryHirsch
2012-12-28, 00:15:15
drück mal "i" ^^

Gouvernator
2012-12-28, 00:24:27
http://www.abload.de/img/dx9fsaaviewer2012-12-nnkco.png (http://www.abload.de/image.php?img=dx9fsaaviewer2012-12-nnkco.png)

kann man glaube ich gar nicht sehen oder?

HarryHirsch
2012-12-28, 00:27:53
nicht wirklich. mach mal bitte mit vollbild (alt+enter).

Gouvernator
2012-12-28, 00:37:03
http://www.abload.de/thumb/dx9fsaaviewer2012-12-t8efp.png (http://www.abload.de/image.php?img=dx9fsaaviewer2012-12-t8efp.png)

HarryHirsch
2012-12-28, 00:40:57
hast du was verstellt?
das sieht aus wie 8xmsaa. :confused:

Gouvernator
2012-12-28, 00:57:32
hast du was verstellt?
das sieht aus wie 8xmsaa. :confused:
Das ist 4-Way SLI 8x SLI AA = 32XAA

HarryHirsch
2012-12-28, 01:43:15
achso. mehr davon, aber später bitte.

Gouvernator
2012-12-28, 18:46:16
Was Mirkroruckler angeht jetzt habe ich dank SLi AA komplett ohne sie gespielt. Aber es fühlt sich ohne FPS Limiter den ich schon lang nutze, trotzdem wie davon verseucht. Die regulären FPS Sprünge sind ich schätze mindestens 50% für gefühlte Mikroruckler verantwortlich, nur mit AFR fühlen sie sich einfach noch schlimmer an. Was dann Bereich um 30-50 FPS fast komplett unspielbar macht. Ohne AFR sind 30-50 FPS zwar erträglich aber ich fühle keine richtige <Erlösung> dabei. So bleibt auch für Single GPU eigentlich FPS Limiter Pflicht.
Was dann automatisch eine neue Erkenntnis für SLI bringt, speziell was SLI AA angeht.
Es ist nämlich so, wenn man nicht weit über 60 FPS kommt, kommt nur der Limiter mit 30 FPS in Frage bei größtmöglicher Bildqualität. Mit SLI AA hat man nun aber die Möglichkeit 16xAA, dann landet man auch meist im 30 FPS Bereich. Und so hat man eine nette Alternative. Statt AFR versucht 30 FPS zu zocken in 8xSGSAA, kann man 16x SLI SGSAA bei den selben 30 FPS zocken und das ohne Mikroruckler. Zwar auch mit Limiter aber der muss dann nicht mehr so scharf gestellt werden, einfach ungefähr auf 35 FPS und dann kann es bis 25 FPS runter gehen ohne das man viel davon merkt.
Und 16x SLI SGSAA (4-Way) ist vom Bildeindruck veeeeeeeeeeeery nice.

samm
2012-12-28, 23:56:10
Uah, bin ich der Einzige, dem Verringerung der Fps auf 30 via extreme BQ-Massnahmen bei Quad-SLI grauslig vorkommt? Da handelt man sich zu allem hin noch prozentual wie absolut signifikantes Lag ein.

Btw ist in der aktuellen PCGH mal wieder ein SLI/CF-Test. Sieht man auch schön, wie die Feelgood-Lösung mit dem Framemetering kein wirksames Heilmittel ist. Für mich ist erstmal nach wie vor klar, das MGPU mir nicht in die Tüte kommt.

Godmode
2012-12-29, 00:01:55
Uah, bin ich der Einzige, dem Verringerung der Fps auf 30 via extreme BQ-Massnahmen bei Quad-SLI grauslig vorkommt? Da handelt man sich zu allem hin noch prozentual wie absolut signifikantes Lag ein.

Btw ist in der aktuellen PCGH mal wieder ein SLI/CF-Test. Sieht man auch schön, wie die Feelgood-Lösung mit dem Framemetering kein wirksames Heilmittel ist. Für mich ist erstmal nach wie vor klar, das MGPU mir nicht in die Tüte kommt.

Nein du bist nicht der Einzige. Alles unter 60 kotzt mich an. Seit dem 120hz Monitor, spiele ich am liebsten mit 120fps@120hz. Mit 30 fps treffe ich nichts mehr und es fühlt sich einfach nur mehr schwammig an.

Cubitus
2012-12-29, 00:16:06
Ja gut dann passt man eben die BQ-Settings auf die 60 FPS an. Und kann trotzdem noch bessere Settings fahren, als User mit ner Singel-GPU!

Ein FPS Lock kann ja zum Glück sehr variabel sein!
Das man natürlich immer eine starke CPU mit dazu braucht, ist eh klar.

Enthusiasten werden eigl immer doppelt gefickt!

Gouvernator
2012-12-29, 00:27:09
Nein du bist nicht der Einzige. Alles unter 60 kotzt mich an. Seit dem 120hz Monitor, spiele ich am liebsten mit 120fps@120hz. Mit 30 fps treffe ich nichts mehr und es fühlt sich einfach nur mehr schwammig an.
Mit dem Gamepad kannst du noch alles spielen. Was ist denn bei 120Hz so gut das man dafür High Details opfern muss. ? Habt ihr damals 120Hz CRTs irgendwie verpasst? Mit Quad SLI hat man netto auch 400Mhz weniger CPU Takt so das 120 FPS nie erreicht werden können.

Dagegen sieht 16x/32xSGSAA übelst geil aus. Konsolige 30 FPS mit dem Gamepad zu zocken ist nichts neues für mich, da schon lange an Xbox gezockt. Aber dafür 32xSGSAA in HD oder sogar FullHD. Das muss man sich auf der Zunge zergehen lassen. Wie das auf einem 15" Zoll OLED aussieht kann man gar nicht beschreiben. :uup:

Godmode
2012-12-29, 00:43:49
Mit dem Gamepad kannst du noch alles spielen. Was ist denn bei 120Hz so gut das man dafür High Details opfern muss. ? Habt ihr damals 120Hz CRTs irgendwie verpasst? Mit Quad SLI hat man netto auch 400Mhz weniger CPU Takt so das 120 FPS nie erreicht werden können.

Dagegen sieht 16x/32xSGSAA übelst geil aus. Konsolige 30 FPS mit dem Gamepad zu zocken ist nichts neues für mich, da schon lange an Xbox gezockt. Aber dafür 32xSGSAA in HD oder sogar FullHD. Das muss man sich auf der Zunge zergehen lassen. Wie das auf einem 15" Zoll OLED aussieht kann man gar nicht beschreiben. :uup:


Hatte einen 100hz CRT und das war das optimale Spielgefühl für mich. Warum hat man 400 MHz weniger CPU Takt mit Quad SLI, was meinst du damit? :confused:

Gouvernator
2012-12-29, 01:15:13
Hatte einen 100hz CRT und das war das optimale Spielgefühl für mich. Warum hat man 400 MHz weniger CPU Takt mit Quad SLI, was meinst du damit? :confused:
Pro GPU Verwaltungsaufwand die Leistung die man real verliert.

Godmode
2012-12-29, 02:20:33
Pro GPU Verwaltungsaufwand die Leistung die man real verliert.

Ok so hast du das gemeint. Also die letzten Spiele die ich mit 120 hz gespielt hab, waren Dishonored und aktuell D3. Also 120 fps sind bei mir möglich, keine Ahnung was für CPU du hast.

Blaire
2012-12-29, 09:51:11
Btw ist in der aktuellen PCGH mal wieder ein SLI/CF-Test. Sieht man auch schön, wie die Feelgood-Lösung mit dem Framemetering kein wirksames Heilmittel ist. Für mich ist erstmal nach wie vor klar, das MGPU mir nicht in die Tüte kommt.

Was erwartest du bei Witcher2, 30fps + 2560x1600 + Ubersampling, das hät ich dir schon vorher sagen können, das die gefühlten FPS nicht gut kommen. Ebenso beim Russenshooter Metro2033...unter 50fps braucht man da garnicht anfangen Runden zu drehn...
Bei Battlefield3 ist es ähnlich, zumindest im Multiplayer (CloseQuarters etc.). Wer mal mit 120Hz@1080p Monitor gespielt hat, der weiss was ich meine. Auf nur einer GTX680 muss man da schon auf Medium Details zurückschalten, um ein ähnliches Spielgefühl wie mit 2-Way SLI und Ultra Details zu erreichen. Und da sprechen wir von durschnittlich 80fps (S-GPU) vs. 130fps (SLI)...

Angiesan
2012-12-29, 11:40:52
Bei Battlefield3 ist es ähnlich, zumindest im Multiplayer (CloseQuarters etc.). Wer mal mit 120Hz@1080p Monitor gespielt hat, der weiss was ich meine. Auf nur einer GTX680 muss man da schon auf Medium Details zurückschalten, um ein ähnliches Spielgefühl wie mit 2-Way SLI und Ultra Details zu erreichen. Und da sprechen wir von 80fps (S-GPU) vs. 130fps (SLI)...

Wie hoch willst Du die CPU den übertakten damit du auf die von dir beschriebenen FPS kommst? Bei 85-100 FPS dürfte bei gefühlt 95% der Spieler Ende sein da da einfach die CPU limitiert da kannst Du an den Grafikeinstellungen drehen wie du willst, SLi macht es dann nicht besser, alles bezogen auf MP nicht SP.

Gouvernator
2012-12-29, 11:41:29
Ok so hast du das gemeint. Also die letzten Spiele die ich mit 120 hz gespielt hab, waren Dishonored und aktuell D3. Also 120 fps sind bei mir möglich, keine Ahnung was für CPU du hast.
Ich habe i5 3570k drin. Deine genannten Spiele sind eh äußerst anspruchslos. Ich habe mit 4Ghz in Serious Sam 3 meist Drops auf 45 FPS in 1360x768 ohne AA mit Quad SLI. Ich stelle wieder zurück auf 4.8Ghz damit ich überhaupt auf 60 FPS komme. Und du willst durchgehend mit 100-120 zocken? :wink:

Blaire
2012-12-29, 13:48:43
Wie hoch willst Du die CPU den übertakten damit du auf die von dir beschriebenen FPS kommst? Bei 85-100 FPS dürfte bei gefühlt 95% der Spieler Ende sein da da einfach die CPU limitiert da kannst Du an den Grafikeinstellungen drehen wie du willst, SLi macht es dann nicht besser, alles bezogen auf MP nicht SP.

Dir ist klar, das die durchschnittlichen FPS gemeint sind? Lass mal ne komplette Runde mitloggen, dann kommst du auf solche Werte. Das die CPU je nach Anzahl an Spielern und Map-Größe großen Einfluss hat, das weiss ich selbst.
http://www.abload.de/thumb/bf3pmkzl.png (http://www.abload.de/image.php?img=bf3pmkzl.png)

Angiesan
2012-12-29, 15:45:05
Respekt!!!

Habe gerade mal in dein Profil geschaut ist dein Sandy-E auf oc oder standard?Weil ganz abgesehen das die 6 Kerne da wirklich was bringen und ich nicht up to date war mit deinem System ;-) müsste das immer noch im CPU-Limit laufen oder???

Blaire
2012-12-29, 16:19:25
Die CPU läuft die meiste Zeit @Default+aktiven Turbo mit 3,8Ghz je nach Map und Anzahl der Spieler limitiert die CPU schon recht stark, trotzdem ist es gefühlt mit SLI ein ganz anderes Smoothness-Gefühl verglichen mit SingleGPU, du kannst viel schneller agieren, es ist wirklich so. :)
3-Way und erst recht 4-Way SLI ist bei 1080p natürlich sinnlos, da brauchts schon Auflösungen >2560x1600. Aber 120Hz sind 120Hz, so daß ich es meist bei 2-Way@1080p belasse.

boxleitnerb
2012-12-30, 06:47:12
Unverständlich, dass hier jetzt plötzlich Zweifel am HW-Framemetering aufkommen und Nvidias Lösung schlechtgeredet wird, obwohl sowohl in Userberichten als auch in Reviews praktisch einhellig deutlich wird, dass sie vergleichsweise gut funktioniert und ein flüssigeres Spielerlebnis als bei CF ermöglicht.

Wenn ich mir das Video bei CB ansehe, weiß ich, warum ich mir auf absehbare Zeit kein CF zulegen werde.

Gouvernator
2012-12-30, 10:35:41
Unverständlich, dass hier jetzt plötzlich Zweifel am HW-Framemetering aufkommen und Nvidias Lösung schlechtgeredet wird, obwohl sowohl in Userberichten als auch in Reviews praktisch einhellig deutlich wird, dass sie vergleichsweise gut funktioniert und ein flüssigeres Spielerlebnis als bei CF ermöglicht.

Wenn ich mir das Video bei CB ansehe, weiß ich, warum ich mir auf absehbare Zeit kein CF zulegen werde.
Das Problem ist das die Frames obwohl sie in perfekten Abständen angezeigt werden immer noch Mickroruckeln. Einfach weil ihre Geschwindigkeit schwankt mit der sie berechnet werden können. Wenn man sehr drauf achtet dann spürt man "Mickroruckler" auf Single GPU wenn die Frames ständig hin und her schwanken. Ich bin sogar so empfindlich das bereits 5 FPS Unterschied sofort auffällt.
Es ist auch nicht ganz einfach mit Framelimiter ohne AFR auch auf Single GPUs flüssige Frames zu kriegen. Ich hab rausgefunden das Vsync da viel mit rein spielt. Man kann nicht Vsync auf 60Hz belassen und Framelimiter auf 30 stellen. Es zuckt dann immer noch. Man muss Vsync auf 1/2 Hz stellen und Framelimiter auf 29 FPS. Dann ist es wirklich flüssig.

boxleitnerb
2012-12-30, 10:40:59
Dass das Framemetering perfekt ist, hab ich ja nicht behauptet, nur sieht man halt noch einen sehr deutlichen Unterschied zwischen SLI und CF. 29fps sind viel zu wenig für die meisten Spiele mMn, ich spiele nach Möglichkeit immer mit VSync (60Hz) und 59fps Limiter, wenn mich der Inputlag stört, ansonsten auch ohne.

Gouvernator
2012-12-30, 10:56:23
Dass das Framemetering perfekt ist, hab ich ja nicht behauptet, nur sieht man halt noch einen sehr deutlichen Unterschied zwischen SLI und CF. 29fps sind viel zu wenig für die meisten Spiele mMn, ich spiele nach Möglichkeit immer mit VSync (60Hz) und 59fps Limiter, wenn mich der Inputlag stört, ansonsten auch ohne.
29 FPS ist für Gamepad nicht zu wenig. Ist wie auf Xbox auch. Dort ist alles nur 30 FPS und weniger... Glück wenn man sich dran gewöhnt hat. :biggrin:
Ich kann so locker flockig alle Games mit der höchsten Einstellung zocken. Serious Sam 3 16xSGSAA oder Prince Of Persia, Driver... 2560x1440@32x SGSAA.

boxleitnerb
2012-12-30, 11:01:33
Okaaaay, nix gegen dich, aber wir leben in völlig unterschiedlichen Welten. Ich brauche eine sehr genaue Steuerung, mit Gamepads kann ich nichts anfangen, wenn ich Maus+Tastatur habe.

Jedem das Seine :)

fondness
2012-12-30, 11:17:04
Unverständlich, dass hier jetzt plötzlich Zweifel am HW-Framemetering aufkommen und Nvidias Lösung schlechtgeredet wird, obwohl sowohl in Userberichten als auch in Reviews praktisch einhellig deutlich wird, dass sie vergleichsweise gut funktioniert und ein flüssigeres Spielerlebnis als bei CF ermöglicht.

Wenn ich mir das Video bei CB ansehe, weiß ich, warum ich mir auf absehbare Zeit kein CF zulegen werde.

Der PCGH-Test zeigt sehr schön das dieses Framemetering, sofern es überhaupt in HW implementiert ist, nicht wirklich µRuckler verhindert. Wer SLi/CF verwendet sollen einen Framelimiter einschalten, damit hat man perfekte Frametimes und solange man ausreichend fps hat funktioniert das auch zuverlässig. Ansonsten scheint dieses adaptive Vsync auch ganz gut zu funktionieren. Beides ist sowohl bei AMD als auch bei NV möglich und deshalb finde ich diese verteufelung von CF mittlerweile etwas peinlich.

boxleitnerb
2012-12-30, 11:31:39
Der PCGH-Test zeigt sehr schön das dieses Framemetering, sofern es überhaupt in HW implementiert ist, nicht wirklich µRuckler verhindert. Wer SLi/CF verwendet sollen einen Framelimiter einschalten, damit hat man perfekte Frametimes und solange man ausreichend fps hat funktioniert das auch zuverlässig. Ansonsten scheint dieses adaptive Vsync auch ganz gut zu funktionieren.

Der PCGH-Test zeigt sehr schön, dass man den Vergleich nicht machen kann, solange die fps so unterschiedlich sind. Zudem gibt es gerade in Far Cry 3 deutlich bessere SLI-Profile, die für mehr fps sorgen. Es ist zwar verständlich, dass PCGH da nicht basteln wollte, aber es sollte nicht unerwähnt bleiben und dann auf dieser Basis verallgemeinert werden.

Deine Absolutaussage ist eben nicht gerade sinnig. Von Spiel zu Spiel, von fps-Wert zu fps-Wert wird sich die Auswirkung von Framemetering natürlich unterscheiden. Wenn wir ähnliche fps betrachten, hat SLI ggü. CF laut Reviews und Userberichten, die mir bekannt sind, meist einen klaren Vorteil. Andersherum habe ich es noch nie, aber wirklich nie, gelesen.

Es ist auch bezeichnend für die übliche Schlechtrederei, dass du ebenfalls hier die Aussagen Nvidias anzweifelst bzgl. der Implementierung des Framemeterings. Zwar muss man nicht alles glauben, was einem die Firmen im Werbetext vorgeben, aber wenn man schon sowas äußert, sollte man wenigstens irgendwas als Indiz haben. Und nein, Vergleiche bei 42 vs 58fps gehören da sicher nicht mit dazu.

fondness
2012-12-30, 11:39:39
Der PCGH-Test zeigt sehr schön, dass man den Vergleich nicht machen kann, solange die fps so unterschiedlich sind.

Das ist zumindest praxisrelevant. Wenn eine Karte deutlich schneller ist warum sollte man das nicht berücksichtigen? In der Praxis spielen die fps eben eine große Rolle wie viel ich von den µRucklern mit bekomme. Außerdem kann ich bei einer schnelleren Karte den fps-Limiter höher setzen und habe deshalb womöglich gar keine µRuckler.

Da finde ich Vergleiche mit unterschiedlichen Settings, wo die Karten eine unterschiedliche Bildqualität auf den Schirm zaubern schon deutlich bedenklicher.


Zudem gibt es gerade in Far Cry 3 deutlich bessere SLI-Profile, die für mehr fps sorgen. Es ist zwar verständlich, dass PCGH da nicht basteln wollte, aber es sollte nicht unerwähnt bleiben und dann auf dieser Basis verallgemeinert werden.

Okay danke für den Hinweis, war mir nicht bekannt.


Deine Absolutaussage ist eben nicht gerade sinnig. Von Spiel zu Spiel, von fps-Wert zu fps-Wert wird sich die Auswirkung von Framemetering natürlich unterscheiden. Wenn wir ähnliche fps betrachten, hat SLI ggü. CF laut Reviews und Userberichten, die mir bekannt sind, meist einen klaren Vorteil.

Ein Feature das nur manchmal ganz passabel funktioniert ist IMO keine Lösung. Gerade wenn die Lösung mit einem Framelimiter so nache liegt.


Wie kommst du übrigens dazu, ohne jegliche Kenntnis, wie das Framemetering überhaupt funktioniert, zu wissen, wie es implementiert ist? Zwar muss man nicht alles glauben, was einem die Firmen im Werbetext vorgeben, aber wenn man schon sowas äußert, sollte man wenigstens irgendwas als Indiz haben.

Tja NV rückt leider null Infos raus, und nach den letzten Features wie PCIe 3.0 oder DX11.1 darf man wohl durchaus skeptisch sein, gerade da es eben nicht immer funktioniert. Eine Treiberlösung wäre zudem ja nicht schlechter, macht sich aber wohl marketingtechnisch nicht so gut. Man darf sich ja auch durchaus die Frage stellen ob es überhaupt sinnig ist wenn sich die GPUs in Hardware über die Brücke syncen was traffic verursacht und fps kosten kan, wenn man nachher im Treiber womöglich viel einfacher zugriff auf die Bildausgabe hat.

aufkrawall
2012-12-30, 11:54:53
Ansonsten scheint dieses adaptive Vsync auch ganz gut zu funktionieren.
Tut es bei Nvidia nicht, das ruckelt (wobei es die meisten wahrscheinlich nicht merken).
Wie das bei AMD mit RadeonPro funktioniert, weiß ich nicht. Würde auch nur meinem eigenen Eindruck glauben.

boxleitnerb
2012-12-30, 11:59:00
Wie gesagt, FC3 ist hier ein Sonderfall, weil es eben auch besser geht, siehe hier. Da geben sich die Gespanne kaum was:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535950

Also ich habe in den allermeisten Spielen hier keine Mikroruckler, solange ich bei ungefähr 50fps bleibe. Mit Kepler wird das nicht schlechter sein. Klingt für mich nicht nach "nur manchmal ganz passabel". Es ist natürlich nicht DIE Lösung, aber es ist einem Framelimiter klar vorzuziehen, es sei denn, man setzt ihn sowieso ein, z.B. auf 59fps wegen VSync-Lag-Reduzierung.

Schau dir doch mal die meisten Benchmarks an, da liegen lokalen Minima ziemlich deutlich unterhalb der avg fps. Wenn ich dann ungefähr auf erstere begrenze, ist die Skalierung soweit im Eimer, dass fast eine einzelne Karte auch reichen würde. Ich war anfangs auch der Meinung, ein Framelimiter sei die Lösung, bin inzwischen aber davon abgekommen, ihn unterhalb von 59fps zu benutzen. Und in den fps-Regionen habe ich seltenst Mikroruckler mit SLI festgestellt.

Nun, es funktioniert innerhalb gewisser Grenzen, da beisst die Maus kein Faden ab. Siehe alle Tests, die sich nicht nur auf Frametimes verlassen, sondern das Spielgefühl selbst beurteilen. Siehe die Userberichte, speziell von Wechslern. Wer eine Wunderlösung erwartet, nur weil es ja hardwarebasiert ist, und dann enttäuscht ist, weil eben auch nur mit Wasser gekocht wird, der ist doch etwas blauäugig.

Bzgl. PCIe 3.0 - ich würde die Schuld da nicht bei Nvidia suchen. Man erinnere sich an die Verzögerungen und Featurestreichungen beim X79 Chipsatz. Auf Z77 läuft alles wie es soll soweit ich weiß. An X79 würde ich das PCIe 3.0 "Problem" also nicht unbedingt festmachen. Ich finde es eher löblich, dass man hier eher sicher geht statt auf Biegen und Brechen den schnelleren Standard zu aktivieren, was dann zu Problemen führen könnte.

fondness
2012-12-30, 12:20:53
Also ich habe in den allermeisten Spielen hier keine Mikroruckler, solange ich bei ungefähr 50fps bleibe.

Schon alleine das du die µRuckler von den fps abhängig machst zeigt ja das du sehr wohl welche hast, sie nur ab 50fps meist nicht mehr bemerkst.


Schau dir doch mal die meisten Benchmarks an, da liegen lokalen Minima ziemlich deutlich unterhalb der avg fps. Wenn ich dann ungefähr auf erstere begrenze, ist die Skalierung soweit im Eimer, dass fast eine einzelne Karte auch reichen würde.

Wenn ich einmal einen kurzen fps-Einbruch unterhalb des Limits habe ist das auch nicht unbedingt ein Beinbruch. Denn den Einbruch hätte ich ohne fps-Limiter genau so. Wenn ich auf keinen Fall unter 60fps kommen will muss ich eben die Settings entsprechend wählen, egal ob mit oder ohne fps-Limiter.


Bzgl. PCIe 3.0 - ich würde die Schuld da nicht bei Nvidia suchen. Man erinnere sich an die Verzögerungen und Featurestreichungen beim X79 Chipsatz. Auf Z77 läuft alles wie es soll soweit ich weiß. An X79 würde ich das PCIe 3.0 "Problem" also nicht unbedingt festmachen. Ich finde es eher löblich, dass man hier eher sicher geht statt auf Biegen und Brechen den schnelleren Standard zu aktivieren, was dann zu Problemen führen könnte.

Da es bei AMD funktioniert und NV auch die Profi-Karte nur mit PCIe 2.0 bewirbt ist die Sache relativ eindeutig. Außerdem gibt es nahmhafte Quellen welche die Verschiebung der Kepler-Karte mit Problemen bei der PCIe-Bridge begründen. Selbst GF110 in Form der Tesla-Karten wird nur mit PCIe2.0 Kompatibel spezifiziert.

boxleitnerb
2012-12-30, 12:34:30
Nein, ich habe unter der erwähnten Bedingung keine Mikroruckler. Wenn ich welche hätte, würde ich sie spüren, das kannst du mir aber glauben. Ich merke den Übergang sofort ohne fps Anzeige. Anhand der erwähnten Quellen bezweifle ich doch sehr stark, dass ich mit CF bei 50fps das angenehme Spielerlebnis hätte, das ich mit SLI habe. Man sieht es ja z.B. im BF3 Video, die fps waren ähnlich, die Unterschiede aber sehr deutlich sichtbar.
Dass je nach Spiel unterhalb einer gewissen Grenze auch Framemetering versagt, ist ja nicht ausgeschlossen. Das sind dann aber eher die fps-Raten, mit denen ich sowieso nicht spielen möchte. 40+, eher 50+ sollten es schon sein, speziell in Shootern und Rennspielen.

Es geht mir nicht um kleine Einbrüche, es geht darum, dass man auf weiten Teilen viel Performance verschenkt, um die Mikroruckler zu bekämpfen. Beispiel Skyrim mit SGSSAA:
Draußen im Wald mal 40-45, schon etwas rucklig. Anderswo oder in Innenlevels immer 60. Limitiere ich auf 40, verschenke ich dort, wo 60 möglich wären, 1/3 Performance. Das ist doch keine Lösung, denn den Unterschied zwischen 40 und 60 merke ich sehr deutlich in der Direktheit der Steuerung, gerade bei 1st Person.

Da ist mir eine Lösung, die die Ruckler bei diesen fps-Raten so gut wie möglich reduziert, lieber.

Es ist genauso plausibel, dass Nvidia den mobilen Lösungen Priorität eingeräumt hat, siehe die vielen Designwins und Marktanteilgewinne. Anfang 2012 gab es die Wafer eben nur in begrenzter Zahl. GF110 kann eh kein PCIe 3.0, das ist Fermi. Ich wäre hier vorsichtig mit so "eindeutigen" Schlussfolgerungen. Letztlich wissen wir nichts mit Sicherheit.

"GeForce GTX 680 and GTX 670 GPUs support PCI Express 3.0. They operate properly within the SIG PCI Express Specification and have been validated on multiple PCI Express 3.0 platforms. Some motherboard manufacturers have released an updated SBIOS to enable the Intel X79/SNB-E PCI Express 2.0 platform to run at up to 8GT/s bus speeds. We have tested GeForce GTX 680 and GTX 670 GPUs across a number of X79/SNB-E platforms at 8GT/s bus speeds, but have seen significant variation in signal timing across different motherboards and CPUs. Therefore we’ve decided to only support and guarantee PCI Express 2.0 bus speeds on X79/SNB-E with our standard release drivers. Native PCI Express 3.0 platforms (like Ivy Bridge) will run at 8GT/s bus speeds with our standard release drivers.

Dass es bei AMD funktioniert, muss ja noch nichts heißen. Wenn Nvidia strengere Qualitätsmaßstäbe anlegt und sich wegen den Timingdifferenzen Sorgen macht, müssen sie eben zurückstufen. Sie können ja auch nicht sagen "ihr dürft die Kepler-Karten nur auf Z77-Plattformen einbauen". Die Karten müssen mit den beworbenen Features überall funktionieren, da zählt der kleinste gemeinsame Nenner. Wenn das der verkorkste X79 ist, heißt der eben PCIe 2.0

fondness
2012-12-30, 12:45:26
Es ist genauso plausibel, dass Nvidia den mobilen Lösungen Priorität eingeräumt hat, siehe die vielen Designwins und Marktanteilgewinne. Anfang 2012 gab es die Wafer eben nur in begrenzter Zahl.


Was hat das mit dem PCIe-Interface zu tun?


GF110 kann eh kein PCIe 3.0, das ist Fermi. Ich wäre hier vorsichtig mit so "eindeutigen" Schlussfolgerungen. Letztlich wissen wir nichts mit Sicherheit.

Ich meinte natürlich GK110. Wir wissen das NV die Karten im Profi-Segment nur für PCIe2.0 freigibt und wir wissen das PCIe3.0 mit dem x79 Chipsatz funktioniert. Aber im Grunde ist es auch belanglos. Es funktioniert jedenfalls nicht mit Intels X79-Chipsatz.

boxleitnerb
2012-12-30, 12:51:22
Dass beides mögliche Gründe für eine Verzögerung sind.

Ja tun sie, deshalb:
Beide Rechenkarten hat Nvidia vorsichtshalber nur für PCIe 2.0 spezifiziert, weil es mit mit manchen Xeon-E5-Boards noch Probleme gab. Nvidia unterstrich gegenüber heise online, dass die Hardware PCIe 3.0 unterstütze, das Grafikkarten-BIOS die Karten jedoch auf PCIe 2.0 festsetzt. Es stehe den OEMs allerdings frei, für OEM-Systeme K20-Karten mit "freigeschaltetem" PCIe 3.0 einzusetzen.

Heißt das jetzt, dass die Boards Probleme machen, oder die Karten? Wem glauben wir jetzt?
Ja, es "funktioniert" auf x79, aber offenbar nicht 100% sicher genug, um es offiziell freizuschalten. Wer weiß, was man rausfinden würde, wenn man bei AMDs Karten auf X79 die Timings nachmessen würde - gar dasselbe, nämlich Variationen? Tja...der Punkt ist, die Situation ist hier nicht so eindeutig wie beim Framemetering, das offensichtlich innerhalb des technisch Machbaren ordentlich funktioniert. Und hier gibt es auch keine anderen Mitspieler, die die Sache komplizierter machen können, als es für den Laien den Anschein hat. Ich sehe keinen Grund, hier irgendwas anzuzweifeln aufgrund einer undurchsichtigen Situation bei dieser ganz anderen Geschichte.

Skysnake
2012-12-30, 13:33:41
Kurze Frage, weils hier schon jemand von Fraps-calc nen screen gepostet hat.

Kann jemand mal bitte die exe hochladen? Ich finde für fraps-calc einfach keinen funktionierenden Download mehr -.-

boxleitnerb
2012-12-30, 13:50:03
http://www.file-upload.net/download-6989067/frapscalc.zip.html

Skysnake
2012-12-30, 19:19:21
danke

EDIT:
Toll ich bekomme beim starten irgend ne russische Fehlermeldung -.-

Muss man noch irgendwas einstellen?

Godmode
2012-12-30, 19:53:34
danke

EDIT:
Toll ich bekomme beim starten irgend ne russische Fehlermeldung -.-

Muss man noch irgendwas einstellen?

Ja du musst die Fraps Logs in das Verzeichnis der Fraps Calc.exe kopieren.

Das Tool ist von der Usability her leider nicht das Beste.

Skysnake
2012-12-30, 19:59:34
THX!

Jetzt gehts. Das tool an und für sich ist aber trotzdem ganz nett programmiert. C# wahrscheinlich oder?

Blaire
2012-12-30, 21:09:47
Der PCGH-Test zeigt sehr schön das dieses Framemetering, sofern es überhaupt in HW implementiert ist, nicht wirklich µRuckler verhindert. Wer SLi/CF verwendet sollen einen Framelimiter einschalten, damit hat man perfekte Frametimes und solange man ausreichend fps hat funktioniert das auch zuverlässig. Ansonsten scheint dieses adaptive Vsync auch ganz gut zu funktionieren. Beides ist sowohl bei AMD als auch bei NV möglich und deshalb finde ich diese verteufelung von CF mittlerweile etwas peinlich.


Ich bezweifel das du jemals Erfahrung damit hattest, sonst würdest du sowas kaum behaupten. Denn ein FPS Limiter kann nur dann funktionieren, wenn auch entsprechend gute Multi-GPU Profile vorhanden sind. Ist dies nicht der Fall, hilft auch kein FPS-Limiter etwas. Und genau hier ist der CF-User "gearscht", da man außer steinzeitliches Exe-Renaming keine Möglichkeit hat, Schwachstellen wie schlechtere Minimumfps oder träges FPS-Verhalten ausbügeln kann, gerade bei mehr als 2 GPUs ist das fatal, da diese spezielle Anpassungen benötigen. (siehe dazu auch das Video auf Computerbase aus BF3)
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/9/

Bei NVIDIA´s SLI ist es meist garnicht nötig irgendetwas zu limitieren, in den meisten Fällen klappt es auch so vernünftig, bei spielbaren Settings! Aber natürlich sind auch hier gute Profile Voraussetzung , damit Frame-Flipping effizient funktionieren und den Spielern einen echten Mehrwert bringen kann.
AMD hat aber bis heute keine Verbesserungen im Treiber, das nennt man peinlich, zumal das Problem seit Jahren bekannt ist.

RIPchen
2012-12-30, 21:47:58
Hallo zusammen,
ich habe seit heute mein System (i7-3930K@4,2GHz, 16GB@2133MHz) mit einem Triple-Crossfire aus 5870er laufen. Auf CB gibts dazu unter "Tri-Fire" oder "RIPchen" gesucht einen Thread mit Bildern und mehr Infos.
Ich bin noch gan am Anfang mit dem Testen, aber das "Zucken" der Bilder - sehr schön zu sehen auf Jeep-Fahrten - und durch unterschiedliche frametimes verursacht ust sehr "schön" zu sehen bis in Bereiche von 60-70fps hoch.
Auch der in dem Artikel angegeben Umstand, dass AMD scheinbar höhere Durchschnitts-fps durch besonders schnelle Passagen oder Bilder holt ist - meines Erschtens - gut zu sehen.
Ich habe natürlich kein Vergleichs-System mit Nvidia-Karten und stehe wie gesagt noch ganz am Anfang, aber mit dem o g. Artikel im Hinterkopf scheinen sich die dort genannten Probleme - scheinbar - zu bestätigen.
Gruß
Rippi

fondness
2012-12-30, 22:02:13
Ich bezweifel das du jemals Erfahrung damit hattest, sonst würdest du sowas kaum behaupten. Denn ein FPS Limiter kann nur dann funktionieren, wenn auch entsprechend gute Multi-GPU Profile vorhanden sind. Ist dies nicht der Fall, hilft auch kein FPS-Limiter etwas. Und genau hier ist der CF-User "gearscht", da man außer steinzeitliches Exe-Renaming keine Möglichkeit hat, Schwachstellen wie schlechtere Minimumfps oder träges FPS-Verhalten ausbügeln kann, gerade bei mehr als 2 GPUs ist das fatal, da diese spezielle Anpassungen benötigen. (siehe dazu auch das Video auf Computerbase aus BF3)
http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/9/


Erzähl keinen Schmarren. Ein fps-Limiter erzeugt immer perfekte Frametimes, es ist auch gar nicht anders möglich wenn man weiß wie ein fps-Limiter arbeitet. Dazu gibt es auch genügend Tests im Netz die alle zeigen das damit µRuckler auch bei CF behoben werden. Auch sind die CF-Profile was das scaling betrifft alles andere als schlecht, diese werden mittlerweile wöchentlich gepflegt und auch hier gibt es genügend Tests zu auch im Vergleich mit SLI. Und ja das kann ich auch beurteilen weil mein Cousin ein 7950 CF System hat und damit dank fps-Limiter äußerst zufrieden ist. Dieses ständige undifferenzierte Bashing von manchen Usern hier finde schon ziemlich seltsam.

Cubitus
2012-12-30, 22:14:39
Was Blaire meint ist, dass wenn Profil nicht sauber skaliert, es Framedrops geben kann! Das ganze Spiel läuft dann unrund.
Da hilft auch kein limit. Wenn AMD Profil gut ist ok, aber man kann selber nix nachjustieren. ;)

Schwachstellen wie schlechtere Minimumfps oder träges FPS-Verhalten ausbügeln kann, gerade bei mehr als 2 GPUs ist das fatal, da diese spezielle Anpassungen benötigen. (siehe dazu auch das Video auf Computerbase aus BF3)

Und so ist es auch!

boxleitnerb
2012-12-30, 22:19:38
weil mein Cousin ein 7950 CF System hat und damit dank fps-Limiter äußerst zufrieden ist.

Dann wäre er mit einer etwas übertakteten 7970 ähnlich zufrieden, denn dank Limiter würde die nicht großartig anders performen. Wie Wolfgang korrekt schreibt:

Der FPS-Limiter ist aber kein Allheilmittel, sondern eher ein kleines Pflaster auf einer großen Wunde. Durch ihn entstehen nämlich auch Nachteile. Zuerst ist es natürlich gegen den Sinn von Multi-GPU-Systemen, den FPS-Wert absichtlich zu begrenzen, da man sich ein solches System schlussendlich für hohe FPS-Zahlen kauft.

Der zweite Nachteil ist aber viel schwerwiegender: Denn so muss der FPS-Limiter von Spiel zu Spiel unterschiedlich eingestellt werden – teilweise gar von Level zu Level, je nach Anforderung der Umgebung! Wer nämlich die Auflösung sowie die Grafikqualität gerne nach oben schraubt, gerät dennoch schnell in Schwierigkeiten.

Die durchaus sinnvolle 50-FPS-Grenze wird dann schnell unterschritten, dasselbe gilt für 40 Bilder pro Sekunde. Und wenn der FPS-Limiter nicht mehr greift, hat man genauso mit den Mikrorucklern zu kämpfen als würde man keinen benutzen.

Dementsprechend verhindert der FPS-Limiter zwei Gründe, weshalb man gerade auf Multi-GPU setzt: Hohe FPS-Raten werden nicht mehr erreicht und man sollte auch die Qualitätseinstellungen nicht zu hoch ansetzen. Der FPS-Limiter ist somit zwar eine kleine Notlösung für frustrierte Käufer...

Das Fettgedruckte ist das größte Problem. Während Dxtory noch per Profil auf einer per-Spiel-Basis eingesetzt werden kann, gilt der Wert dann global für das ganze Spiel. Es sei denn, man hat Lust, permanent mit Alt-Tab rauszugehen und den Wert zu ändern. Wer das verständlicherweise nicht will, verschenkt streckenweise soviel Performance, dass sich SLI/CF dann eher weniger lohnt. Warum ich das weiß? Weil ich es selbst ausprobiert habe und mich nicht auf irgendwelche imaginären Cousins berufen muss ;)

Blaire
2012-12-30, 23:30:58
Erzähl keinen Schmarren. Ein fps-Limiter erzeugt immer perfekte Frametimes, es ist auch gar nicht anders möglich wenn man weiß wie ein fps-Limiter arbeitet.

Also ich kenne schon 2 FPS-Limiter, welche nach unterschiedlichen Prinzipien arbeiten...und ganz sicher kein Allheilmittel gegen MR sind, wie du es versuchst darzustellen. Man sollte eben nicht blind Frametimes vertrauen, denn zusätzliches Lag, lässt sich damit nicht zeigen! Und genau hier hat SLI aber deutliche Vorteile, die gefühlten FPS! Siehe auch: http://hardforum.com/showpost.php?p=1039405776&postcount=25

Schaffe89
2013-01-01, 18:10:31
Ich bezweifel das du jemals Erfahrung damit hattest, sonst würdest du sowas kaum behaupten.

Und du hattest in letzter Zeit schonmal eine AMD Karte?
Jeder deiner Posts ist extrem grün gefärbt, ich kanns schon nicht mehr lesen.

Und genau hier ist der CF-User "gearscht", da man außer steinzeitliches Exe-Renaming keine Möglichkeit hat, Schwachstellen wie schlechtere Minimumfps oder träges FPS-Verhalten ausbügeln kann, gerade bei mehr als 2 GPUs ist das fatal, da diese spezielle Anpassungen benötigen.

Ich könnte genausogut den Tomshardwaretest zitieren, der den FPS Limiter begrüßt und als sehr gutes Tool darstellt.
Übrigens ganz toll mit dem Radeon Pro Tool nutzbar.
die CF Skalierung ist übrigens ziemlich gut im CB Test und ich sehe bei den Frameverläufen keine NAchteile bei der NUtzung des CF´s, du etwa schon?

Die Skalierung bewegt sich einen Tick unter bzw, auch teils über den Nvidia Karten.

AMD hat aber bis heute keine Verbesserungen im Treiber, das nennt man peinlich, zumal das Problem seit Jahren bekannt ist.


Und Nvidia hatte bis vor kurzem auch noch rein gar nichts vorzuweisen.
Bei schnellen Bildwechseln, oder bei den Frametimemessungen der PCGH, ist das Spilegefühl zwar merkbar gegenüber AMD besser, die Möglichkeit einen Framelimiter zu nutzen lässt allerdings ganz einfach den Nvidia Vorsprung der besseren Frametimes wieder schmilzen.

Wolfgang redet wie gewohnt solche Tools im CB Test einfach kaputt, erwähnt nicht, dass es mit dem Radeon Pro Tool nutzbar ist und hat auch diebszüglich keine Werte im Test.

Sry, aber sich nur auf Intel und Nvidiabase zu gucken ist reichlich lächelrich, ganz besonders weil deren Tester nen riesen Mangel an integrität und Objektivität besitzen.

Auch sind die CF-Profile was das scaling betrifft alles andere als schlecht, diese werden mittlerweile wöchentlich gepflegt und auch hier gibt es genügend Tests zu auch im Vergleich mit SLI.

Erwarte von diesem Nutzer keine differenzierte Betrachtung.

boxleitnerb
2013-01-01, 18:16:02
Äh, du hast schon die Begründungen von Wolfgang gelesen, oder? Kaputtreden würde dazu nur jemand sagen, der die Nachteile dieser Lösung nicht wahrhaben will. DAS ist ein Mangel an Objektivität!

Nvidia hat seit G80 Framemetering (Software, erst seit Kepler in Hardware), das ist "bis vor kurzem"?

Blaire
2013-01-01, 18:19:59
Äh, du hast schon die Begründungen von Wolfgang gelesen, oder? Kaputtreden würde dazu nur jemand sagen, der die Nachteile dieser Lösung nicht wahrhaben will. DAS ist ein Mangel an Objektivität!

Nvidia hat seit G80 Framemetering (Software, erst seit Kepler in Hardware), das ist "bis vor kurzem"?

Spar dir die Zeit. Die haben es vor Jahren schon nicht verstanden und werden es jetzt auch nicht tun. Es sind eh immer die Gleichen...

boxleitnerb
2013-01-01, 18:25:41
Hast Recht. Was soll man von jemandem erwarten, der "Nvidiabase" schreibt und lieber Seitenhiebe verteilt statt argumentiert. Man kennt sich nicht mit mGPU aus, nur weil man sich zum ersten Mal mehrere Karten kürzlich zugelegt hat. Jeder hier weiß, dass du auf beiden Seiten mit mGPU dabei bist/warst und das schon ziemlich lange und dich entsprechend gut auskennst. Zum tombman v2 reichts aber (noch) nicht :D

Black-Scorpion
2013-01-01, 18:26:03
Das sagt der richtige. Wenn es um Objektivität geht solltet ihr beide ganz schön die Füße stillhalten. Davon seid ihr Ganz weit entfernt.

boxleitnerb
2013-01-01, 18:31:18
Deine Meinung, mehr nicht. Wenn wir in deinen Augen Fanboys sind, willkommen im Club ;)
Der Punkt ist, du kannst Leuten mit deutlich mehr Erfahrung halt nicht wirklich was vorwerfen oder erzählen, denn du selbst kannst es nicht beurteilen. Wenn mir ein Mechanikerprofi irgendwas erzählt, was meine Lieblingsautomarke in keinem so guten Licht dastehen lässt, wer bin ich dann, ihm mangelnde Objektivität vorzuwerfen, wenn ich von dem Thema keine Ahnung habe oder erst Anfänger bin? Bisschen Respekt vor Erfahrung statt einfach nur Widerspruch und Gemeckere würden manchen hier nicht schlecht zu Gesicht stehen.

Es reden beim Thema mGPU immer viele mit, aber die allerwenigsten benutzen es überhaupt oder wenn, dann nur oberflächlich und kennen nicht die Eigenheiten, Kniffe und Fallen, die damit im täglichen Gebrauch einhergehen. Das finde ich ziemlich nervig und damit bin ich bestimmt nicht allein.

Gouvernator
2013-01-01, 18:33:02
Ich könnte genausogut den Tomshardwaretest zitieren, der den FPS Limiter begrüßt und als sehr gutes Tool darstellt.
Die können über CF/SLI genau so viel sagen wie ein Autotester nach 3 Stunden über ein Porsche Modell. Noobs in anderen Worten...

Externe Tools sind immer von etwas abhängig das sie überhaupt funktionieren. A) Bug mit Spiel X B) Bug mit Windows XY C) Bug mit neuer Version in Spiel X D) Bug in neuer Version in Windows XY
Dann kommt dazu wie der Tool mit Spiel X zurecht kommt. Ich habe gesehen das wenn man 30 FPS will, bekommt man 25-35 FPS also noch nicht mal richtigen Limiter.
Dann hat eventuell der Progger keine Lust mehr oder keine Zeit für Support bzw. macht es unregelmäßig und in langen Abständen.

StefanV
2013-01-01, 18:38:41
Naja, also um jetzt mal ehrlich zu sein: Wer sich halbwegs mit Grafikkarten beschäftigt hat, der weiß eigentlich, wie man 3 AMD Grafikkarten für CF mit den CF Brücken verkabeln sollte. Wer das nicht hin bekommt, dem kann (und darf) man unterstellen, sich nicht ausreichend mit der Materie auszukennen.

Und statt wild rumzuprobieren sollte man vielleicht mal 10sekunden Googeln...

Godmode
2013-01-01, 18:39:58
Ich wollte meine zweite GTX verkaufen, da mich das gefrickel mit dem Treiber genervt hat. Mittlerweile bin ich froh das ich sie noch habe, weil die Settings die ich mit vier Karten fahren kann, doch was anderes sind als nur mit zwei. Meiner Meinung nach muss man immer einen Limiter benutzen, sonst stockt es und es fühlt sich nicht flüssig an. Mit nur zwei Karten war das Spielgefühl für mich deutlich schlechter. Wenn ich auf Bildqualität verzichten kann, gehts natürlich auch mit zwei Karten. Wer allerdings auf:
8xMSAA
8xSGSSAA
16xHQAF
HQAO
3DVision
Multi Monitor
nicht verzichten will und das am besten noch alles auf einmal, kommt um 3-4 Karten gar nicht herum.

Schaffe89
2013-01-01, 19:39:01
Spar dir die Zeit. Die haben es vor Jahren schon nicht verstanden und werden es jetzt auch nicht tun. Es sind eh immer die Gleichen...
Du hast den Framelimiter als "nutzlos" dargestellt, da angeblich AMD Karten mit starken Framedrops und erheblichen Balancing Probleme "träges FPS Verhalten" zu tun haben.
Bitte zeige mir ein solches Verhalten der Karten in einem Test, welcher deiner pauschalen Bewertung nicht widerspricht.

Ich kenne keine Tests die das zeigen, weder der CB noch der Tomshardware Test.
Ein FPS Limiter bringt enorm viel und ja man muss je nach Spiel die FPS Grenze verschieben, das ist aber in ein paar Sekunden Getan, wenn man schon ein Multi GPU Setup hat, dann finde ich die Aussagen des Computerbase Redakteurs etwas deplaziert, er tut ja grade so, als würde das gar nichts helfen, weil viel zu aufwändig.

Aber nebenher ein Multi GPU System betreiben, was ansonsten schon aufwändiger zu betreiben ist.
Dann darf ich aber auch keine Test veröffentlichen und mich mit AF und AA beschäftigen, weil das setzt ja voraus, dass man vor dem Spielen etwas einstellt.
Demnach wurde der Nachteil bei Nvidia SGSSAA nur per externem Tool einzustellen, ja viel zu stiefmütterlich behandelt.

Genauso könnte ich Nvidias Frame Metering kaputtargumentieren.

Kaputtreden würde dazu nur jemand sagen, der die Nachteile dieser Lösung nicht wahrhaben will. DAS ist ein Mangel an Objektivität!

Es gibt in dem Test keinen einzigen Hinweis auf das Radeon pro Tool.
Es wurden keine Werte mit dem Framelimiter gezeigt und ich bezweifle dass sich Wolfgang auch nur die Bohne mit dem Tool hingesetzt hat um es zu testen, es wurden genauso im Letzten Test zur HD 7870 LE bei deselben Karte verschiedene Treiber getestet, deswegen ergibt sich auch eine Leistung über einer HD 7950 800mhz Edition.

Natürlich gibt es keine hinreichende Stellungnahme der Tester, so wie bei jeder sachlichen Kritik zu den letzten Tests.

Software, erst seit Kepler in Hardware

Wo kann ich nachlesen, dass es in Hardware ist?
Ich finde es etwas befremdlich, dass Spiele die nicht sonderlich bekannt sind, deutlich mehr µruckleln, als bekannte, trotz angeblichen hardware Framemeterings.
Glaube einem Hersteller besser nicht immer alles, siehe Directx11.(1) oder seien es irgendwelche Behauptungen von AMD.

Man kennt sich nicht mit mGPU aus, nur weil man sich zum ersten Mal mehrere Karten kürzlich zugelegt hat.

Ich habe schon deutlich öfter MGPU genutzt, selbst noch zur G80 Zeiten, auch von beiden Herstellern.
Vor einem halben Jahr waren es 3! GTX 480.

[QUOTE]Bisschen Respekt vor Erfahrung statt einfach nur Widerspruch und Gemeckere würden manchen hier nicht schlecht zu Gesicht stehen.[QUOTE]

Dann soll es doch seine Erfahrung anhand eines Tests belegen.
Nebenbei, mehr als 2 GPU´s nutzt sowieso fast kein Schwein und da sieht man auch laut CB, dass sich das bei Nvidia trotz FRame Meterng schon fast genauso unrund anfühlt.

boxleitnerb
2013-01-01, 19:47:21
Es gibt in dem Test keinen einzigen Hinweis auf das Radeon pro Tool.

Falsch. Es gibt einen langen Absatz über die Möglichkeit, einen Framelimiter zu benutzen. Er tut auch nicht so, als würde es gar nicht helfen, das ist schlichtweg von dir gelogen. Er geht vielmehr auf die Probleme ein, die man damit zwangsläufig bekommt und hinterfragt die Sinnhaftigkeit.
Du ignorierst völlig, dass man während des Spiels dauernd die Grenze verschieben müsste, um vernünftige Performance und weitgehende Mikrorucklerfreiheit zu bekommen. Ich habe den Limiter in vielen Spielen anfangs benutzt und weiß sehr genau, welche Kompromisse man sich damit aufhalst. Du auch?
Das Framemetering funktioniert ohne Eingriff des Nutzers automatisch. Kaum vergleichbar mit einem fps Limiter, bei dem du entweder schlechtere Performance, streckenweise Mikroruckler oder permanentes Umschalten in Kauf nehmen musst. Ich hätte absolut keine Lust, meinen Spielfluss permanent dafür zu unterbrechen, das ist nicht im geringsten praktikabel.

Wo kann ich nachlesen, dass es in Hardware ist?

In der Produktbeschreibung der GTX690 bei Nvidia. Wo kann ich nachlesen, dass es nicht so ist? Weißt du es besser als Nvidia?

und da sieht man auch laut CB, dass sich das bei Nvidia trotz FRame Meterng schon fast genauso unrund anfühlt.

"Noch spielbar" und "unspielbar" (laut Erlebnisbericht im Video) ist also fast dasselbe? Glaubst du, darüber besser urteilen zu können als Wolfgang, der beide Lösungen direkt vergleichen konnte (bedenke auch, Spielen mit Input und Reaktion auf dem Bildschirm ist was anderes als nur passives Zusehen. Wird übrigens auch gesagt im Video...)? Wie ich sagte - du redest mit, obwohl du nicht mitreden kannst, weil dir schlicht der Vergleich fehlt.

Dass du vorher mGPU hattest, kauf ich dir nicht ab. Sonst hättest du dich längst mal dazu geäußert oder im SLI-Bit Thread blicken lassen oder mal ein paar Benchmarks mitgemacht.

Schaffe89
2013-01-01, 19:50:26
[QUOTE]Du ignorierst völlig, dass man während des Spiels dauernd die Grenze verschieben müsste[QUOTE]

Man stellt die Grenze auf 60 FPS und kommt damit eigentlich immer bestens aus.
Selbst wenn die Werte fallen, limitiert die CPU und wenn diese limitiert, dann gibt es ebenfalls deutlich weniger µruckler.

Hast du dir zudem schonmal das Testsetup von CB reingezogen?

16x16x8 Lanes pro GPU.
DAs sind erhebluche µruckler schonmal vorprogrammiert, wenn die Bandbreite bei der letzten Karte halbiert ist.

boxleitnerb
2013-01-01, 20:02:45
Das hat nach wie vor nichts mit der Sinnhaftigkeit zu tun, was du da schreibst. Denn wenn dein Setup 60fps min schafft, aber 90fps avg, verschenkst du satte 30fps über weite Strecken. Mit dem Framemetering müsstest du das u.U. nicht und könntest ein oder zwei Qualitätsstufen höher schalten, bevor es anfängt zu ruckeln. Daher ist es voll verständlich, wenn man sowas nicht empfehlen will. Übrigens: Die GPUs können auch locker unterhalb 60fps limitieren, was willst du da mit der CPU?

Wer nur mit VSync spielt so wie ich, für den wäre das eher eine Lösung, weil VSync die fps eh limitiert. Ist aber auch nicht jedermanns Sache zumal es schön weiter mikroruckelt, wenn man unter die 60fps fällt. Hier kommt es stark an, wie die lokalen Minima im Verhältnis zu den avg fps liegen. In Spiel A ist der Abstand sehr groß, was den Limiter dort sinnlos macht, in Spiel B kann es schon wieder anders sein. Das Problem ist hier, dass die Ansprüche und Szenarien so verschieden sind und jeder es anders einstellen würde, dass da eine pauschale Betrachtung keinen Sinn macht. Ist auch etwas widersinnig, auf der einen Seite ungebremste Benchmarks und Skalierungsratings zu präsentieren und auf der anderen Seite dann einen Riegel davorzuschieben und die Performance zu begrenzen.

Erhebliche Mikroruckler durch 16/16/8...das will ich mal bewiesen sehen. Zumal das 3-way SLI auf demselben Board läuft und diese angeblichen Probleme augenscheinlich nicht hat, denn sonst würde das genauso ruckeln wie das Trifire, was laut Wolfgang aber eben nicht der Fall ist. Bleib doch mal bei belegbaren Dingen statt dir was auszudenken bitte.

Grestorn
2013-01-01, 22:57:23
Nach gefühlten 10 Jahren Abstinenz mal wieder vorbeigeguckt und gleich wieder zu Hause gefühlt... :)

Die gleichen Themen, die gleichen Darsteller und die gleiche Sprache ... es hat sich nichts verändert.

Jungs, grün, rot, braun oder gelb... ist doch alles egal. Hauptsache mehr als ein Anbieter auf Augenhöhe, sonst stagniert alles. Und deswegen ist Gott sei Dank noch alles im grünen Bereich. Oder ist das politisch inkorrekt und ich müsste sagen "im roten Bereich"? Ne, das liest sich auch falsch... rot+grün gibt bekanntlich gelb... (additiv) also: "Alles im gelben Bereich"! ;)

Schönen Abend noch ein ein gutes Jahr 2013!

Gouvernator
2013-01-01, 23:42:37
Nach gefühlten 10 Jahren Abstinenz mal wieder vorbeigeguckt und gleich wieder zu Hause gefühlt... :)

Die gleichen Themen, die gleichen Darsteller und die gleiche Sprache ... es hat sich nichts verändert.

Jungs, grün, rot, braun oder gelb... ist doch alles egal. Hauptsache mehr als ein Anbieter auf Augenhöhe, sonst stagniert alles. Und deswegen ist Gott sei Dank noch alles im grünen Bereich. Oder ist das politisch inkorrekt und ich müsste sagen "im roten Bereich"? Ne, das liest sich auch falsch... rot+grün gibt bekanntlich gelb... (additiv) also: "Alles im gelben Bereich"! ;)

Schönen Abend noch ein ein gutes Jahr 2013!
Nö Tombman fehlt...

Kriton
2013-01-02, 02:19:44
Externe Tools sind immer von etwas abhängig das sie überhaupt funktionieren. A) Bug mit Spiel X B) Bug mit Windows XY C) Bug mit neuer Version in Spiel X D) Bug in neuer Version in Windows XY
Dann kommt dazu wie der Tool mit Spiel X zurecht kommt. Ich habe gesehen das wenn man 30 FPS will, bekommt man 25-35 FPS also noch nicht mal richtigen Limiter.
Dann hat eventuell der Progger keine Lust mehr oder keine Zeit für Support bzw. macht es unregelmäßig und in langen Abständen.

Dann dürfte man den Nvidia Inspector also nicht positiv für Nvidia heranziehen? :freak: (ka wie Du dazu stehst - ich denke gerade an einige andere in diesem Forum).

boxleitnerb
2013-01-02, 07:30:52
Naja der Inspector tut ja nichts anderes, als auf bestehende versteckte Treiberfunktionen zuzugreifen. Ein Limiter z.B., der sich irgendwo "dazwischenschiebt" ist was anderes. Grad gestern gemerkt:

Medieval 2 Total War im Steamsale gekauft, startet nicht. Bild minimiert sich und wenn man draufklickt, gibts eine Fehlermeldung. Problem? Dxtory. Geschlossen und es lief.

Blaire
2013-01-02, 10:41:56
Naja der Inspector tut ja nichts anderes, als auf bestehende versteckte Treiberfunktionen zuzugreifen.

Genau das ist ja das tolle am NV Inspector, das Tool bleibt solang nix grundlegendes an der NVAPI geändert wird, immer funktionabel und benötigt kaum Anpassungen.
Werden neue Treiber-Funktionen integriert, werden diese vom Inspector auch problemlos erkannt. Grestorn hatte da damals deutlich mehr Arbeit mit dem Nhancer gehabt, als noch alles umständlich über die NVApps.XML und Registry ablief...