PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI vs. Crossfire


Seiten : 1 [2] 3

Schlammsau
2008-11-11, 22:10:01
Beweiß?

Die momentan hardwarehungrigsten Games am Markt. Und bitte ganz nach unten scrollen!
Alle anderen Games sind Pipifax für MGPU.
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

Gast
2008-11-11, 22:23:32
Bis wann war AI-off mit weniger schlimmen Nebenwirkungen nutzbar?

naja, nebenwirkungen waren ähnlich wie heute, die unterschiede nur dass es damals noch kein CF gab und garkeine AA-kompatibilitätsbits, wenn eine engine kein AA unterstützte gab es damals auch keines ;)



Na, nach Herrn Raff flimmert R5xx so viel G7x, hat nur eben die nahezu Winkelunabhängigkeit als Vorteil, also mal nicht übertreiben.

stimmt ja auch, wenn man beim G7x HQ einstellt ist die qualität annähernd gleich, wenn man beim R5xx auf die winkelunabhängige filterung (die damals ja noch optional war) verzichtet. G7x-HQ war sogar (abgesehen von der winkelabhängigkeit) besser als R5xx@default, dieses aber wiederum besser als NVs default.
vergleichbar waren am besten HQ und AI-off

Blaire
2008-11-11, 22:29:20
Die momentan hardwarehungrigsten Games am Markt. Und bitte ganz nach unten scrollen!
Alle anderen Games sind Pipifax für MGPU.
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

Das hat aber nichts mit CF/SLI Skalierung zu tun, hier geht den Karten einfach der Speicher aus bzw. sind weit von spielbaren Settings entfernt.

derguru
2008-11-11, 22:33:19
Die momentan hardwarehungrigsten Games am Markt. Und bitte ganz nach unten scrollen!
Alle anderen Games sind Pipifax für MGPU.
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

schonmal was von rammangel gehört?
da kannste 5 karten anreihen dadurch kriegste auch nicht mehr performance.erkennst du das nicht oder willste mit absicht hier rumtrollen.:mad:

Gast
2008-11-11, 22:37:10
Und bitte ganz nach unten scrollen!

Warum, spielst du gerne mit 5 avgFPS?
Alle anderen Balken in dem Link bescheinigen SLI eine bessere Skalierung.

Alle anderen Games sind Pipifax für MGPU.
Quatsch.

Gamer68
2008-11-11, 22:44:22
Beweiß?


Ich hab den Beweiß vor mir, und mein Nachbar hat ne 4870X2 wo das Crossfire weit besser funktioniert als meien GX2 ohne den nhancer läuft SLI zum K.... Punkt.

Hab mal ne weile gelesen hier, und die User die SLI so in den Himmel heben und sagen ist besser wie CF sollten mal dringend ne weile vom PC weg;)

Gast
2008-11-11, 23:02:13
Ich hab den Beweiß vor mir, und mein Nachbar hat ne 4870X2 wo das Crossfire weit besser funktioniert als meien GX2 ohne den nhancer läuft SLI zum K.... Punkt.

Hab mal ne weile gelesen hier, und die User die SLI so in den Himmel heben und sagen ist besser wie CF sollten mal dringend ne weile vom PC weg;)

Ich glaub du solltest mal ne weile von PC weg!! Du kannst doch nicht die alte 9800x2 (alt) gegen eine 4870x2? rofl, was hier für möchtegern gurus rumrennen, hammmmmer !!

Gamer68
2008-11-11, 23:42:30
Ich glaub du solltest mal ne weile von PC weg!! Du kannst doch nicht die alte 9800x2 (alt) gegen eine 4870x2? rofl, was hier für möchtegern gurus rumrennen, hammmmmer !!

x_X es geht um die Skalierung nicht um die Leistung der Karten, jüngchen:|

LovesuckZ
2008-11-12, 00:10:41
Jedenfalls freue ich mich, dass jetzt hoffentlich auch diese unsäglichen 8xMSAA vergleiche aufhören. Denn einen visuellen Unterschied sieht man gegenüber 4xMSAA beim spielen auch nicht mehr.

Coda
2008-11-12, 02:33:47
Es ergibt technisch auf jeden Fall nicht viel Sinn, dass die Skalierung von Crossfire oder SLI unterschiedlich von der Auflösung abhängen.

Das ganze ist eine reine Treiberfrage. Alle Beschleunigungsmöglichkeiten können bei beiden System exakt gleich verwendet werden.

Wenn das eine mal in einer Applikation besser skaliert dann hat das Treiberteam des jeweiligen IHVs besser gearbeitet - mehr nicht.

derguru
2008-11-12, 02:54:06
Es ergibt technisch auf jeden Fall nicht viel Sinn, dass die Skalierung von Crossfire oder SLI unterschiedlich von der Auflösung abhängen.


technisch nicht aber praktisch,unter 1280*1024 ist sogut wie immer die ati vorne und das teilweise sehr deutlich,erst bei hohen auflösungen schliesst sich der kreis.
das ist eigentlich das einzige wo man unterschiede zwischen sli und cf feststellen kann.
vielleicht liegt das an den sli boards das die bei niedrigen auflösungen nicht in fahrt kommen,ach was heißt vielleicht definitive:tongue:,aber ist ja eigentlich auch unwichtig in niedrigen auflösungen.

sogut wie bei allen spielen wo cf funzt,
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/9/#abschnitt_call_of_duty_4

Coda
2008-11-12, 03:15:06
Ein Beispiel sagt gar nichts aus. Da scheint AFR nicht gescheit zu funktionieren bei NVIDIA.

derguru
2008-11-12, 03:17:11
Ein Beispiel sagt gar nichts aus. Da scheint AFR nicht gescheit zu funktionieren bei NVIDIA.

mach die äuglein auf dann siehste das es mehr als nur cod4 ist,man muss ja nicht alles verlinken das kriegt man ja auch selbst hin, nicht?;)

Coda
2008-11-12, 03:20:02
Die Auswahl von Computerbase ist viel zu begrenzt, und hat viel zu viel Spiele mit ähnlichen Engines drin. Da kann man keinen Schluss ziehen.

Es gibt genauso Gegenbeispiele wie Crysis usw. und das Gesamtrating sagt auch etwas anderes.

Was ich noch als Grund gelten lassen würde ist, dass NVIDIA-Treiber evtl. etwas mehr CPU-Last verursachen.

derguru
2008-11-12, 03:33:31
Die Auswahl von Computerbase ist viel zu begrenzt, und hat viel zu viel Spiele mit ähnlichen Engines drin. Da kann man keinen Schluss ziehen.
das ist doch lächerlich,was hat denn fear,cod4 und die unreal 3 engine gemeinsam?wieviel engines brauchst du denn für ein vergleich 10 oder was.

Es gibt genauso Gegenbeispiele wie Crysis usw. und das Gesamtrating sagt auch etwas anderes.
gesamtrating ist zu oberflächlich,wenn du mit crysis kommst dann komm ich mit rainbow six ect.

Was ich noch als Grund gelten lassen würde ist, dass NVIDIA-Treiber evtl. etwas mehr CPU-Last verursachen.

3d mark06 da sind wir uns ja einig das nv und ati da alles gegeben haben was an skalierung möglich ist und siehe da eine einzelne 260gtx ist schneller aber dann im sli verliert sie.das reicht mir eigentlich schon als theorie mehr ist gar nicht notwendig.
das ist auch bei fear,call of juarez der fall aber da könnte man ja sagen die haben sich nicht soviele mühe beim treiber gegeben;)

ich wette das bei einem x58 intel board die skalierung des sli sys sich ein gutes stück verbessert im gegensatz zu den nv boards auch in der 1280*1024 auflösung.

Coda
2008-11-12, 03:35:27
das ist doch lächerlich,was hat denn fear,cod4 und die unreal 3 engine gemeinsam?wieviel engines brauchst du denn für ein vergleich 10 oder was.
10 hört sich gut an - ja.

gesamtrating ist zu oberflächlich,wenn du mit crysis kommst dann komm ich mit rainbow six ect.
Eben.

Schlammsau
2008-11-12, 07:38:58
schonmal was von rammangel gehört?
da kannste 5 karten anreihen dadurch kriegste auch nicht mehr performance.erkennst du das nicht oder willste mit absicht hier rumtrollen.:mad:

Willst du mir erzählen, in Crysis Warhead - 2560x1600 1xAA/1xAF (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead) geht einer Geforce GTX280 der Speicher aus? :|

Gast
2008-11-12, 11:18:38
Ja, der VRAM Verbrauch liegt deutlich über 1024MiB.

Aber lass uns nur weiter über 10avgFPS diskutieren. Schade das sich CB zu fein war die minFPS auszuzeichnen oder die Spielfigur zu bewegen.

pest
2008-11-12, 11:42:55
Einfach schräg eine Wand entlang schauen, dann sollte es eigentlich ins Auge springen.

ich habe halt nicht unbedingt an eine "Kastengeometrie" gedacht, sondern eher an kompliziertere geometrische Strukturen wie z.B. ausmodellierte Felswände u.ä.
Damit will ich nur sagen, die Wichtigkeit und Auffälligkeit von vorhandenem AF hängt imo von der Anwendung ab.

Gast
2008-11-12, 12:41:04
Ja, der VRAM Verbrauch liegt deutlich über 1024MiB.

Aber lass uns nur weiter über 10avgFPS diskutieren. Schade das sich CB zu fein war die minFPS auszuzeichnen oder die Spielfigur zu bewegen.

Ach, wie schön, dass du zu unfähig warst, den Artikel zu lesen.

Coda
2008-11-12, 12:43:17
ich habe halt nicht unbedingt an eine "Kastengeometrie" gedacht, sondern eher an kompliziertere geometrische Strukturen wie z.B. ausmodellierte Felswände u.ä.
Das ist eigentlich irrelevant, die Verzerrungen kommen immer vor. Aber freu dich wenn du es nicht so siehst :)

deekey777
2008-11-12, 12:53:02
http://www.ixbt.com/video/itogi-video/test/0807_4870x2.shtml

Auch wenn der Test in Russisch ist, so schafft es wohl jeder die Zahlen zu interpretieren.

Gast
2008-11-12, 12:56:41
Willst du mir erzählen, in Crysis Warhead - 2560x1600 1xAA/1xAF (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead) geht einer Geforce GTX280 der Speicher aus? :|
Und was geht hier ab? Tut mir leid sind zwar 50 FPS, du stehst ja auf 5 FPS, aber trotzdem:
http://www.abload.de/img/lolcc2w.jpg

Gamer68
2008-11-12, 13:23:43
Und was geht hier ab? Tut mir leid sind zwar 50 FPS, du stehst ja auf 5 FPS, aber trotzdem:


ganz klasse, der Bench ohne FC2 Hotfix :rolleyes:

Gast
2008-11-12, 13:36:31
der bringt doch eh nix

Gast
2008-11-12, 13:36:43
ganz klasse, der Bench ohne FC2 Hotfix :rolleyes:
Du meinst den, mit dem weniger Details dargestellt werden?

V2.0
2008-11-12, 13:37:40
Was eine sinnlose Stimmungsmache, wenn man Benches postet die fehlerhaft sind.

Gast
2008-11-12, 13:43:59
Welche Seite meinst du?

derguru
2008-11-12, 14:05:15
Willst du mir erzählen, in Crysis Warhead - 2560x1600 1xAA/1xAF (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/13/#abschnitt_crysis_warhead) geht einer Geforce GTX280 der Speicher aus? :|

ja sicher die screens die du gezeigt hast haben nichts mehr mit sli und cf zutun ,denn wenn es zum rammangel kommt gibts keine verbesserungen durch cf und sli.
du solltest wissen das ati ein wenig sparsamer mit vram umgeht,aber kann dir gerne beispiele zeigen wo es mit ati auch zum rammangel kommt und dann sind es die selben symptome wie bei nv sli.

hier mit der ati 4870 512mb(die 1024mb würde keine Probleme machen)
wie du siehst hält sich eine ultra sogar noch tapfer dank mehr speicher
jericho
http://www.abload.de/thumb/jerichorikj.gif (http://www.abload.de/image.php?img=jerichorikj.gif)

call of juarez
http://www.abload.de/thumb/coy3stf.gif (http://www.abload.de/image.php?img=coy3stf.gif)

Gast
2008-11-12, 17:45:27
imho ist das max rendertaget bei 8192X8192 und somit könnte man mit ssaa auch keine 2gb vram auslastenDu vergisst das MSAA. Rechne die 8k x 8k mal mit HDR und 8xMSAA und du wirst sehen, dass die allgemein verbaute VRAM-Menge im Vergleich zu dem, was laut API eigentlich wenigstens für ein Rendertarget drin sein müsste, geradezu lächerlich unterdimensioniert ist. Wären bescheidene 4 Gigs alleine für einen Backbuffer, sogar der Zbuffer und der Frontbuffer kämen noch dazu, von zu rendernden Objekten, Texturen uswusf. ganz zu schweigen. Bei dem ganzen deferred-Kram ists schließlich noch übler.

Gast
2008-11-12, 19:04:47
Und was geht hier ab?

zu wenig VRAM, FarCry2 zeigt ja schon in "normalen" auflösungen vorteile für karten mit mehr speicher und erst recht hier.

=Floi=
2008-11-12, 19:27:13
ich muß hier coda leider kritisieren. die cpu auslastung kann es nicht sein, da mit einem quad getestet wurde und da könnte sich der treiber auch einen ganzen core nehmen und die die cpu würde noch nicht limitieren bzw. die spieleleistung mindern.

Gast
2008-11-12, 19:34:26
ich muß hier coda leider kritisieren. die cpu auslastung kann es nicht sein, da mit einem quad getestet wurde und da könnte sich der treiber auch einen ganzen core nehmen und die die cpu würde noch nicht limitieren bzw. die spieleleistung mindern.

du weißt aber schon, dass nich alles parallel ausgeführt werden kann?

Gast
2008-11-12, 20:03:28
zu wenig VRAM, FarCry2 zeigt ja schon in "normalen" auflösungen vorteile für karten mit mehr speicher und erst recht hier.
Die 4870 haben ebenfalls 1024MiB.

VRAM Bug?

bawde
2008-11-12, 21:14:11
ich würde keins von beiden machen

Gast
2008-11-13, 00:16:12
http://www.pcgameshardware.de/aid,666877/Test/Benchmark/Call_of_Duty_5_World_at_War_Benchmark-Test_Grafikkarten/?page=2

Interessant wiedermal die niedrigen Minimumfps von Crossfire ,das spiegelt genau das wieder was Computerbase in seinem letzten Review auch geschrieben haben und Mikroruckler gibts natürlich auch wiedermal.

_DrillSarge]I[
2008-11-13, 13:46:14
Neu mit Cat 8.11:

ATI CrossFireX™ Enhancements
This release of ATI Catalyst™ enables users to verify whether an application is
running in ATI CrossFireX™ mode. The new option found in the ATI Catalyst™
Control Center system tray, will allow users to verify whether a Direct3D or
OpenGL application is running in ATI CrossFireX™ mode. (The “ATI Cross-
FireX” logo will be shown on screen when the application is running).
jetzt sieht man wenigstens, obs an ist

Gamer68
2008-11-14, 11:18:50
http://www.pcgameshardware.de/aid,666877/Test/Benchmark/Call_of_Duty_5_World_at_War_Benchmark-Test_Grafikkarten/?page=2

Interessant wiedermal die niedrigen Minimumfps von Crossfire ,das spiegelt genau das wieder was Computerbase in seinem letzten Review auch geschrieben haben und Mikroruckler gibts natürlich auch wiedermal.

Die MIN FPS sind in der Tat IMMER niedriger als bei Nvidia, dafür gibt ne ganze einfach Antwort:

Die Karten brauchen ca paar Sec bis sie ihre wahre Leistung ausspucken, warum auch immer in den ersten 3-4 sec ist die Leistung nicht so dolle aber dann steigt sie rapide an (2D/3D wechsel vieleicht?)
Schön zu sehen bei Crysis Warhead gleich am Anfang 22 FPS, nach 3 sec. steigen sie auf 60 oder mehr, man kann das auch gegenbenchen mit FRAPs in dem man Fraps nach paar sec. erst startet und nicht wie der Bench es schon von Anfang an berechnet und die MIn FPS sind bei Fraps weit höher als es dieses Tool anzeigt:smile:

derguru
2008-11-14, 13:55:30
I[;6909847']Neu mit Cat 8.11:


jetzt sieht man wenigstens, obs an ist

naja mehr störend als fördernd.das sieht man auch so ob cf geht oder nicht,hätten die es wenigstens so gemacht das das logo nach paar sek. wieder verwindet.
habe z.b. bei dead space auch das logo zusehen bekommen obwohl gar kein cf untertützt wird(vielleicht nutzt dead space zu einem % die 2 karte wer weiß).bei gothic3 kam es nicht,immerhin;)

Unyu
2008-11-15, 12:27:54
Und was geht hier ab? Tut mir leid sind zwar 50 FPS, du stehst ja auf 5 FPS, aber trotzdem:
http://www.abload.de/img/lolcc2w.jpg
Nach neuesten Erkenntnissen muss man noch locker 27% abziehen, da CB mit dem Hotfix-Cheat getestet hat.

mapel110
2011-01-24, 00:59:54
Computerbase hat mal wieder getestet
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/#abschnitt_einleitung


Bei Microrucklern hat sich nicht viel getan. ATI leidet stärker darunter als nvidia, aber auch bei nvidia gibts das noch in einigen Titeln.
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/

Blaire
2011-01-24, 01:51:28
Schöner Test, zeigt aber auch das Nvidia in den letzten Monaten nicht soviel auf SLi Profilpflege geachtet hat. Arcania,F1 2010 ziemlich miese Skalierung 100% das Profil schuld.

Knuddelbearli
2011-01-24, 01:54:38
gibts eigentlich studien oder sonstwas zu den anderen sli / cf methoden? wo es keine mikroruckler gibt. also wie gut skalieren die wie gross ist der aufwand die zu implementieren wenn die engine keine rücksicht darauf nimtm wie schwer wenn sie darauf rücksicht nimmt ( wär doch was für dx12 ) usw

Gorkon
2011-01-24, 11:58:37
Computerbase hat mal wieder getestet
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/#abschnitt_einleitung

Treiberversionen
ATi Catalyst 8.79.6.2RC2 (HD 6900)
Nvidia GeForce 262.99 (GTX 580)
Nvidia GeForce 263.09 (GTX 570)

Wann lernt es CBase denn endlich mal :usad:

mfg

Pana
2011-01-24, 12:23:27
NIE! Das ist so eine Art CB-Runningag.

Ihm
2011-01-24, 13:28:12
Wann lernt es CBase denn endlich mal :usad:

mfg

Wie? Kein Pimmelmark?

Darlie
2011-01-24, 16:41:08
Wann lernt es CBase denn endlich mal :usad:

mfg

Was soll das großartig ausmachen, sind doch (ältere) Spiele getestet worden die auch in beiden Treiber die Profile bieten. Oder gibt es bei nvidia etwa die Wundertreiber ? Bisher unterscheiden sich die Treiberversionen doch nur marginal
in der Performance,da ändert sich imho nichts am Ergebniss.

airbag
2011-01-24, 16:43:08
Wann lernt es CBase denn endlich mal :usad:

mfg

Bei SGPU ist es egal, weil es keine Wundertreiber gibt.
Bei MGPU ist es sogar gut, weil man so die unterschiedliche Skalierungen unter den Treiberversionen (eventuell angepasste SLI Profile) sehen kann.

Dural
2011-01-25, 09:19:53
immer das selbe mit CF/SLI und man sollte es jetzt langsam wissen, den die Technik gibt es jetzt schon seit Jahren...

Die Grundregel lauten:


-Je stärker die GPUs sind desto höher wird die CPU last

-Starke GPU Skalieren immer schlechter gegenüber kleinere GPUs bei CF/SLI

-Ohne gute Profile geht "nichts"

-Grosse Speicher Menge für jede GPU schon fast Pflicht

Feuerteufel
2011-01-25, 19:03:16
immer das selbe mit CF/SLI und man sollte es jetzt langsam wissen, den die Technik gibt es jetzt schon seit Jahren...

Die Grundregel lauten:


-Je stärker die GPUs sind desto höher wird die CPU last

-Starke GPU Skalieren immer schlechter gegenüber kleinere GPUs bei CF/SLI

-Ohne gute Profile geht "nichts"

-Grosse Speicher Menge für jede GPU schon fast Pflicht

So viel mehr CPU Leistung ist da aber nicht nötig.

Warum starke GPUs schlechter skalieren sollen verstehe ich nicht.
Weshalb sollte das so sein?

derguru
2011-04-29, 14:38:56
NVIDIA GeForce 3-Way SLI and Radeon Tri-Fire Review (http://www.hardocp.com/article/2011/04/28/nvidia_geforce_3way_sli_radeon_trifire_review/1)

boxleitnerb
2011-04-29, 14:50:42
Nicht vollständig. Keine Untersuchung der Mikroruckler, kein Wort über Input-Lag oder Profile (Editierbarkeit), Benchmarks ohne (SS)AA teilweise.
Kein Hinweis auf die Bildqualität, die mit so Systemen möglich ist.

LovesuckZ
2011-04-29, 15:00:55
Das problem der Seite ist, dass sie Multi-GPU einzig und allein in die Schiene des Multi-Monitors Gaming quetschen. Und das ist eine vollkommen verkehrte Betrachtung. Ersten ist MM-Gaming verdammt speziel. Noch spezieller als Multi-GPU. Die Probleme - Platz, Kompartibilität, weiterhin Notwendigkeit von MSAA bzw. SSAA, die in Spielen auftretende Fischoptik - werden einfach ignoriert.

Der größte Punkt für Multi-GPU ist SSAA. Und das wird hier einfach ignoriert. Ein Dragon Age 2 mit 4xSGSSAA sieht einfach klasse aus - selbst ohne LoD-Verschiebung. Ist aber auf einer Karte nicht annährend so gut spielbar.

Aber HardOCP ist auch auf diesen Trip seitdem AMD mit Eyefinity ankam. Das macht die Reviews ziemlich langweilig.

boxleitnerb
2011-04-29, 15:04:05
Ich hätte mich da jetzt im Forum registriert und ein paar Wörtchen geschrieben, aber die akzeptieren meine beiden Mailadressen nicht.

LovesuckZ
2011-04-29, 15:14:35
Ich hätte mich da jetzt im Forum registriert und ein paar Wörtchen geschrieben, aber die akzeptieren meine beiden Mailadressen nicht.

Brauchst du nicht. Die Punkte werden entweder ignoriert oder zu tode gebasht. HardOCP und die Forumsleute sind fast ausschließlich Fans von Multi-Monitor-Gaming. Und darauf wird eben Multi-GPU bei ihnen beschränkt.

Ich spiele hier Bad Company 2 mit 8xSGSSAA in 24:9 mit 3xGTX570 Karten. Abgesehen vom RAM, bräuchte man für 5760x1080 wohl 3 oder 4x Karten der nächsten Generation, um überhaupt auf 60 FPS zu kommen. Und ohne SSAA fasse ich BC2 nicht an - das Flimmern geht so auf den Sack, das ist unglaublich.

boxleitnerb
2011-04-29, 15:18:55
Erzähl mir nix - ich zock grad Bullestorm auf meiner alten 8800GTX...da flimmert ALLES :(

Nakai
2011-04-29, 16:59:52
NVIDIA GeForce 3-Way SLI and Radeon Tri-Fire Review (http://www.hardocp.com/article/2011/04/28/nvidia_geforce_3way_sli_radeon_trifire_review/1)

Naja, der Test belegt wieder einmal, dass die HD69xx erst in den hohen Auflösungen ihre Überlegenheit ausspielen. Die kleinen Anmerkungen des Reviews , dass CF irgendwie besser skaliert, ist ein Trugschluss. Trifire ist eben hier so stark, weil eben hohe Auflösungen gefahren wurden und nicht, weil es gut skaliert.

Brauchst du nicht. Die Punkte werden entweder ignoriert oder zu tode gebasht. HardOCP und die Forumsleute sind fast ausschließlich Fans von Multi-Monitor-Gaming. Und darauf wird eben Multi-GPU bei ihnen beschränkt.

Multimonitoring ist eher aus der Not geboren um den Spielern wieder neue Investitionsanreize zu liefern. Der Grafikmarkt ist eben in den letzten Jahren ziemlich stagniert. Die maximale Auflösung ist immer noch 2560*1920. Der nächste Schritt muss in die Richtung "höher aufgelöste Panels" gehen (und hier ist auch HD eines der Krebsgeschwüre).

tombman
2011-04-29, 17:12:41
Aber HardOCP ist auch auf diesen Trip seitdem AMD mit Eyefinity ankam. Das macht die Reviews ziemlich langweilig.
Jo, kann man vergessen, das review..einzig mit dieser abartigen Auflösung benchen = your shipment of fail has arrived :rolleyes:

boxleitnerb
2011-04-29, 17:12:47
Crossfire skaliert generell schon besser als SLI. Das belegen viele Tests. Ist nur die Frage, was hinten bei rauskommt (Frametimes). Im letzten Test auf CB herrschte praktisch Gleichstand, aber es wurden zu wenig Spiele getestet, um da wirklich eine vernünftige Aussage treffen zu können.

Blaire
2011-04-29, 17:18:35
Nicht vollständig. Keine Untersuchung der Mikroruckler, kein Wort über Input-Lag oder Profile (Editierbarkeit), Benchmarks ohne (SS)AA teilweise.
Kein Hinweis auf die Bildqualität, die mit so Systemen möglich ist.

BF2: Bad Company und F1 2010 sind eindeutig die Profile das Problem bei Nvidia das seh ich sofort, die Games Auswahl ist auch zu gering um sich ein abschließendes Urteil zu erlauben, wie Hardocp es da macht. Und wenn man schon so sehr auf den Preis schaut, hätte man genauso gut 3xGTX480 verwenden können, die ähnliche Ergebnisse liefern. Nvidia muss man vorwerfen, die Profile nicht gut genug angepasst zu haben.

LovesuckZ
2011-04-29, 17:29:02
Die Preisdiskussion ist sowieso unsinnig. Man erhält bei nVidia in vielen Spielen eine Qualität, die es bei AMD einfach nicht gibt. Und das wirkt sich mit Multi-GPU noch stärker aus.
Nehmen wir doch nochmal Bad Company 2: Das läuft, auch dank Blaire, bei mir mit 8xSGSSAA, 24:9 und 2960*1110. Das ist, egal wieviel Geld man in AMD Hardware investiert, nicht erreichbar. Was soll mir also HardOCPs Aussage, dass die AMD Hardware soviel billiger wäre, also sagen? Wenn ich keinen Wert auf BQ lege, kaufe ich mir vorallem kein Multi-GPU System. Und guckt man sich die Werte bei HardOCPs an, reicht nichtmal Tri-GPU, um 1080x3 vernünftig betreiben zu können.

EvilTechno
2011-04-30, 03:28:37
Die Preisdiskussion ist sowieso unsinnig. Man erhält bei nVidia in vielen Spielen eine Qualität, die es bei AMD einfach nicht gibt.

Ich wollte GTR2 flimmerfrei und den Crysis Mod MWLL konkurrenzfähig flott bei bestmöglicher Grafik spielen.

Da griff ich zur AMD HD 6950 2GB.

Genug Speicher für Cysis, mit SSAA unter GTR2 flimmerfrei (und ich Depp hab vor einem Jahr noch gemeint, solche Bildverbesserungsmaßnahmen würden nix bringen und wurde zurecht von Tombman gerüffelt).

Wo ist da die überlegene nV Karte? Mit welchem Mehrwert wiegst du die Mehrkosten auf?

Blaire
2011-04-30, 04:19:56
Jetzt früh am Morgen das alles aufzuzählen würde mir recht schwer fallen. Es kommt auch immer drauf an, auf was man Wert legt, aber ich will es mal so umschreiben. Wenn man sich einmal an hohe Bildqualität samt vielen Extras gewöhnt hat, dann möchte man es nicht mehr missen. Du brauchst auch den direkten Vergleich, dann weisst du die Vor- und Nachteile besser einzuschätzen. Will man bestmögliche Bildqualität dann führt kaum ein Weg an Nvidia vorbei. Nur deshalb ist die HD6950 keine schlechte Grafikkarte, ich persönlich fand diese sogar recht gut, aber auch Dinge die mir nicht gefielen.

boxleitnerb
2011-04-30, 09:09:55
Ich wollte GTR2 flimmerfrei und den Crysis Mod MWLL konkurrenzfähig flott bei bestmöglicher Grafik spielen.

Da griff ich zur AMD HD 6950 2GB.

Genug Speicher für Cysis, mit SSAA unter GTR2 flimmerfrei (und ich Depp hab vor einem Jahr noch gemeint, solche Bildverbesserungsmaßnahmen würden nix bringen und wurde zurecht von Tombman gerüffelt).

Wo ist da die überlegene nV Karte? Mit welchem Mehrwert wiegst du die Mehrkosten auf?

Da bist du aber auf DX9 beschränkt mit deinem SSAA. Weiterhin greift das AMD-sche SGSSAA nicht immer überall - da kann dir Blaire mehr dazu erzählen. Und da du SGSSAA bei AMD nur dort anwenden kannst, wo auch MSAA geht und das bei Nvidia öfters funktioniert (leider habe ich dafür keinen konkreten Beweis, aber schau dir mal den Kompatibilitätsthread an - ich glaube nicht, dass mit einer AMD da überall auch (SS)AA geht) hast du da noch einen Vorteil.
Wenn alle Stricke reißen (z.B. Flimmerhölle GTA4) kannst du immer noch downsamplen - mit deiner 6950 nicht, jedenfalls nicht unter dem zeitgemäßen Win7.

Black-Scorpion
2011-04-30, 09:58:13
Wie immer nur schön die Vorteile runter beten. Das die Hälfte der so tollen Features ohne basteln und extra Tool gar nicht geht wird wie immer schön unter den Tisch gekehrt. Das aber vielleicht nicht jeder Lust hat erst zu basteln bevor er spielen will kann euch ja egal sein. Hauptsache die vermeintlichen Vorteile aufzählen.

Mr. Lolman
2011-04-30, 10:10:50
Da bist du aber auf DX9 beschränkt mit deinem SSAA. Weiterhin greift das AMD-sche SGSSAA nicht immer überall - da kann dir Blaire mehr dazu erzählen. Und da du SGSSAA bei AMD nur dort anwenden kannst, wo auch MSAA geht und das bei Nvidia öfters funktioniert (leider habe ich dafür keinen konkreten Beweis, aber schau dir mal den Kompatibilitätsthread an - ich glaube nicht, dass mit einer AMD da überall auch (SS)AA geht) hast du da noch einen Vorteil.
Wenn alle Stricke reißen (z.B. Flimmerhölle GTA4) kannst du immer noch downsamplen - mit deiner 6950 nicht, jedenfalls nicht unter dem zeitgemäßen Win7.
Outofthebox funktioniert AA bei ATI besser als bei NV. (zB.Bioshock2 DX9, MoH, Arma2 SSAA,...).Wenn man mit externen Tools herumtweaken (böse Zungen würden „ herumfrickeln“ sagen) will, ist man wohl mit NV besser bedient ;)

boxleitnerb
2011-04-30, 10:19:04
Die Vorteile sind nicht nur vermeintlich, sondern faktisch ;)
Dass man dafür etwas basteln muss, da habt ihr Recht. Aber wer 700+ Euro für 2/3 Grafikkarten ausgibt, von dem kann man auch erwarten, dass er in einen Thread guckt, einen String kopiert und in den Inspector einfügt.

Ihr tut ja immer gerade so, als wäre das alles eine ultrakomplizierte Angelegenheit - ist es mit Ausnahme von DS aber nicht. Das ist nur dummes Geschwätz, um die Vorteile wieder mal schlechtzureden, weil sie bei AMD nicht existieren.

@Lolman: Was meinst du mit "besser"? Blurfrei?

Ich persönlich sehe keinen Sinn darin, mir ein CF-System zuzulegen und dann out-of-the-box Flimmern in neueren Games ertragen zu müssen. Zwar haben alle DX10/11 Spiele noch einen DX9 Fallback, aber für ein ruhiges Bild darauf beschränkt zu sein, kann es ja wohl auch nicht sein - zumal man oft auch Performance verschenkt (DX11-Speedup).

Für den DAU, den rein fps-Geilen, Multimonitorgamer oder Leute, die sich unverständlicherweise stur weigern, ihr teures MultiGPU-System optimal durch Tweaks einzusetzen, ist AMD die bessere Wahl, ja. Nur sind das (bis auf die Multimonitorleute) keine sinnvollen Zielgruppen für MGPU.

Mr. Lolman
2011-04-30, 10:23:45
Grad das Flimmern ist mit aktuellen Treibern eigentlich minimalst. Da lass ich noch eher Physx und Dx10/11 SSAA und die Profilverwaltungsmöglichkeiten gelten.

Edit: Nur für SSAA sich Multi-GPU zuzulegen, find ich aber schon ein bisschen dekadent.Da bläst man zT deutlich mehr als 200 Watt zusätzlich in die Luft, bloß damit die Kanten ein bisschen glatter werden und nimmt damit auch ggf. noch Nachteile bei den Frametimes und GPULag in Kauf?

Naja, jeder wie er will.

boxleitnerb
2011-04-30, 10:28:01
Äh, ich dachte wir reden über AA-Flimmern (Shader, Polygonkanten usw.), nicht AF-Flimmern.
Dennoch, das ist interessant - gibts dazu aktuelle AF-Videovergleiche?

Edit: Für was sonst? Meist (nicht immer) reicht doch auch eine starke Karte für gute Spielbarkeit aus. Oder eben für mehrere Monitore.

derguru
2011-04-30, 11:37:58
mist,es gibt ja soviele spiele auf dx10 aufwärts-basis wo ich bq-technisch irgendwas verpasse als amd user.:freak:

bulletstorm,shift ,portal 2und co. und auch die kommenden highlights wie the witcher,brink,rage ect. sind in dx9.

und falls es mal ein titel schafft mehr als dx9 anzubieten gibt es eventuell die möglichkeit das ds-tool zu benutzen,vielleicht sehen wir es eh bald schon als offizielle option.

boxleitnerb
2011-04-30, 11:55:31
Na es werden eher mehr DX11 Spiele als weniger. Aber prinzipiell hast du schon Recht - im Moment sieht es eher mau aus. Kommt aber auch drauf an, was man spielt. Shogun 2 z.B. kriegt (hoffentlich) bald DX11+MSAA, aber dass das bei dem Game wohl nix bringen wird, konnte man schon in der Demo erahnen.

Mich würde ja immer noch interessieren, ob man mit einer NV öfters (SS)AA forcen kann als mit einer AMD. Leider findet sich niemand, der bei einem solchen Vergleich mal mitmachen würde.

Das DS-Tool ist ziemlicher Mist, da es nicht immer funktioniert und sich auch mit Steam (VAC) beisst. Offizielles DS wäre hier nur zu begrüßen. Kostet aber afaik deutlich mehr Leistung als SGSSAA.

LovesuckZ
2011-04-30, 12:18:27
Outofthebox funktioniert AA bei ATI besser als bei NV. (zB.Bioshock2 DX9, MoH, Arma2 SSAA,...).Wenn man mit externen Tools herumtweaken (böse Zungen würden „ herumfrickeln“ sagen) will, ist man wohl mit NV besser bedient ;)

Jap - herumfrickeln. Ich meine, dass stimmt auch: nV Inspector installieren, google anwerfen, drei Wörter eingeben, Bits finden, Bits in Inspector eintragen und spielen.

Wenn ich da an frühere Zeiten denke, so mit aTuner, rTuner, nHancer. Die Zeiten haben sich wirklich verfrickelt. :freak:

Man muss schon sagen, wenn man keine Argumente mehr für seine Lieblingsfirma hat, muss man mit Nonsens kommen. Zum Glück schreibst du keine Reviews, sonst müsste man die ja aufgrund des Bias mal so richtig ignorieren.

Grad das Flimmern ist mit aktuellen Treibern eigentlich minimalst. Da lass ich noch eher Physx und Dx10/11 SSAA und die Profilverwaltungsmöglichkeiten gelten.

Edit: Nur für SSAA sich Multi-GPU zuzulegen, find ich aber schon ein bisschen dekadent.Da bläst man zT deutlich mehr als 200 Watt zusätzlich in die Luft, bloß damit die Kanten ein bisschen glatter werden und nimmt damit auch ggf. noch Nachteile bei den Frametimes und GPULag in Kauf?

Naja, jeder wie er will.

Stimmt. Man sollte sich Multi-GPU System für solchen Quatsch wie SSAO kaufen. Da bläst man dann 200 Watt extra in die Luft, dass nicht beim zu Tode flimmern hilft, aber man sich an ganz dollen, statischen Schattierungen erfreuen. :lol:

/edit: Wobei, warte mal: Wieso testet DU dann SSAA, wenn es eigentlich vollkommen egal ist? Wieso wurde im GF100 und Cypress Test noch mit 8xMSAA getestet, wenn es eigentlich die Kanten nur ein "bisschen glatter werden" lasse?
Wow, sowas nennt man das verarschen oder? Immer schön pro AMD testen und wenn der doofe Boomerang dann mal zurückkommt, einfach auf "Ignorierung" gehen. Herrlich. Aber sowas von.

mist,es gibt ja soviele spiele auf dx10 aufwärts-basis wo ich bq-technisch irgendwas verpasse als amd user.:freak:

bulletstorm,shift ,portal 2und co. und auch die kommenden highlights wie the witcher,brink,rage ect. sind in dx9.

und falls es mal ein titel schafft mehr als dx9 anzubieten gibt es eventuell die möglichkeit das ds-tool zu benutzen,vielleicht sehen wir es eh bald schon als offizielle option.

Dragon Age 2, Bad Company 2, Mafia 2, Crysis 2, Dead Space 2... Alles auch mit DX9 und keinem AA. Wenn du sagst, du hättest du nichts verpasst, dann brauchst du auch kein Multi-GPU System. Und in allen DX9 Spielen bekomme ich bei nVidia Downsampling "out-of-the-box". Was wiederrum kein Vorteil für AMD ist, wenn man sich noch ein XP System installieren darf...

derguru
2011-04-30, 12:36:36
all die aufgezählten titel habe ich noch mit einer nv karte gespielt abgesehen von bad company2 das ich nicht kenne.dragon age 2 bezweifel ich aber das es gut mit sgssaa läuft,selbst mit mssaa war es schon an der schmerzgrenze und mal davon ab nutze ich sgssaa in spielen mit dx11 eh nicht mehr weil details verloren gehen durch die lod-verschiebung,dann lieber ds.

bis ende des jahres kommen weniger dx11 titel(vor allem die mich interessieren) als noch vor einem jahr,deswegen ist es mir erstmal vollkommen wurscht.
was du verpasst ist eine sehr gute sgssa-performance inkl.tent-modis in dx9 games mit bestechender bq.;)

LovesuckZ
2011-04-30, 12:43:05
all die aufgezählten titel habe ich noch mit einer nv karte gespielt abgesehen von bad company2 das ich nicht kenne.dragon age 2 bezweifel ich aber das es gut mit sgssaa läuft,selbst mit mssaa war es schon an der schmerzgrenze und mal davon ab nutze ich sgssaa in spielen mit dx11 eh nicht weil details verloren gehen durch die lod-verschiebung,dann lieber ds.

Die fehlende LoD-Verschiebung macht sich frühsten bei 8xSGSSAA deutlich bemerkbar. Bis 4x ist es kein Problem. Und es wesentlich wirksamer als Downsampling dank 4x4 EER.
Dragon Age 2 habe ich mit einer GTX580 in 2048x1152 mit 4xSGSSAA, High, High Texturen ohne Blur/SSAO/DoF durchgespielt und fand es vollkommen in Ordnung. Es ist eben immer eine persönliche Sache, wie man seine Spiele will. Deswegen sind Optionen auch immer von Vorteil.
Jetzt mit meinem Tri-SLI System spiele ich es mit 4xSGSSAA, Very High (ohne SSAA nicht zu genießen, scheiß POM), Blur und Frames zwischen 40-60, da CPU limitiert in den Fällen mit mit 40 FPS.


bis ende des jahres kommen weniger dx11 titel(vor allem die mich interessieren) als noch vor einem jahr,deswegen ist es mir erstmal vollkommen wurscht.

Ja und wahrscheinlich mehr DX9 Spiele, die kein AA "out-of-the-box" anbieten. Egal wie man es nimmt, zZ erreicht man die BQ von nVidia nicht.

Mr. Lolman
2011-04-30, 12:51:47
Stimmt. Man sollte sich Multi-GPU System für solchen Quatsch wie SSAO kaufen. Da bläst man dann 200 Watt extra in die Luft, dass nicht beim zu Tode flimmern hilft, aber man sich an ganz dollen, statischen Schattierungen erfreuen. :lol:

/edit: Wobei, warte mal: Wieso testet DU dann SSAA, wenn es eigentlich vollkommen egal ist? Wieso wurde im GF100 und Cypress Test noch mit 8xMSAA getestet, wenn es eigentlich die Kanten nur ein "bisschen glatter werden" lasse?

Ich schrieb, dass eine Multi-GPU Anschaffung allein für SSAA fragwürdig ist. Je nach Anwendung und Auflösung ist das für die schnellsten SingleGPU Karten hingegen nicht der Fall (langsamere schaffen zT nicht mehr Max. Details). Wenn man nun eine Anwendung, die eine geringere GPU-Last produziert, auf seiner Single-GPU Karte mit SSAA verschönert spricht ja nix dagegen, die viel zu hohen fps in zusätzliche BQ zu investieren (auch wenn das Verfahren bisweilen etwas ineffizient sein mag).

Dass du an der Stelle gegen SSAO wettern musst versteh ich nicht (hat ja auch nix mit dem Thema zu tun), ich persönlich jedoch empfinde SSAO als eins der besten Features der letzten Jahre, da es die Plastizität einer 3D-Szene deutlich erhöhen kann (je nach Implementierung):

SSAO hingegen

derguru
2011-04-30, 13:00:22
nv´s ssao performance ist schlechter als bei amd karten(jetzt gerade aktuell in dragon age 2) und nur deshalb kommt das geknatsche von LS sonst wäre es ein thema wie tesselation.was ist eigentlich damit?,so ruhig geworden um das weltbewegende feature tesselation,huch ein jahr vergangen. :lol:

Cubitus
2011-04-30, 13:03:05
Der aktuelle Treiber verbessert die Dragon Age 2 Perfomance immens.

LovesuckZ
2011-04-30, 14:06:53
Ich schrieb, dass eine Multi-GPU Anschaffung allein für SSAA fragwürdig ist. Je nach Anwendung und Auflösung ist das für die schnellsten SingleGPU Karten hingegen nicht der Fall (langsamere schaffen zT nicht mehr Max. Details). Wenn man nun eine Anwendung, die eine geringere GPU-Last produziert, auf seiner Single-GPU Karte mit SSAA verschönert spricht ja nix dagegen, die viel zu hohen fps in zusätzliche BQ zu investieren (auch wenn das Verfahren bisweilen etwas ineffizient sein mag).

Aha. SSAA spielt also keine Rolle. Und deswegen sollte man sich Multi-GPU auch nicht alleine für SSAA kaufen... Ehrlich: Lasse es. Wenn SSAA für Multi-GPU kein Grund wäre, dann erst recht nicht für Single-GPU.
Warum also das 3DCenter SSAA getestet hat, macht keinen Sinn. Wie gesagt: Dein shice Boomerang kommt dir gerade zurück. Aber es zeigt, dass du nur die Settings nimmst, die AMD am besten liegen. Aber das ist ja sowieso ein offenes Geheimnis.


Dass du an der Stelle gegen SSAO wettern musst versteh ich nicht (hat ja auch nix mit dem Thema zu tun), ich persönlich jedoch empfinde SSAO als eins der besten Features der letzten Jahre, da es die Plastizität einer 3D-Szene deutlich erhöhen kann (je nach Implementierung):

SSAO hingegen

Man muss sich schon so einiges einreden, um dort etwas weltbewegendes zu sehen. Ich spiele meine Spiele. Ich schaue mir keine Bilder aus den Spielen an.

Mr. Lolman
2011-04-30, 14:25:54
Aha. SSAA spielt also keine Rolle. Und deswegen sollte man sich Multi-GPU auch nicht alleine für SSAA kaufen... Ehrlich: Lasse es. Wenn SSAA für Multi-GPU kein Grund wäre, dann erst recht nicht für Single-GPU.

Ich schrieb, das Multi-GPU allein für SSAA ein bisschen dekadent wirken mag - in Zeiten von Green-IT. SingleGPU ist überall schnell genug. Und wenn man dann in einem Spiel zuviele fps hat, kann mans ja den Überfluss in SSAA investieren. Aber >200W an höherer Verlustleistung einfach nur für ein paar glatte Kanten (bis auf Triplehead gibts ja sonst keine Einsatzmöglichkeiten) in Kauf zu nehmen und dann gleichzeitig dagegen zu wettern, dass sich jemand erdreistet, auch mit der zT bei Single-GPU in Überfluss vorhanden Leistung, sich nicht auf aberwitzige fps-Werte zu beschränken, sondern gar doch ein paar zusätzliche SSAA-Tests zu machen, ist mMn ein eindeutiges Anzeichen, für ein wie auch immer geartetes, kognitives Problem!

boxleitnerb
2011-04-30, 14:33:21
Interessant, d.h. deiner Meinung nach braucht sich niemand außer für Multimonitor-Gaming mehr als eine Grafikkarte zulegen...gut, dass du dieses Urteil für alle Leute mit mehreren Grafikkarten fällen kannst.

Das ist jetzt wirklich lächerlich. Erst SSAA kleinreden und wenn das nicht mehr geht, mit Green-IT kommen - wo der Rechner ja täglich 8h mit Games läuft. Und auch das einzige Gerät ist, das im Haushalt Strom frisst. Und die 3 großen Monitore/Projektoren für Surround-Gaming sind ja auch so sparsam .

Das ist so am Thema vorbei, das glaubst du gar nicht. Es mag deine persönliche Meinung sein, aber hier geht es um SLI vs. Crossfire, nicht um "Mr. Lolman will die Umwelt schützen". Wenn du in deinen Aussagen glaubwürdig bleiben willst, lasse doch bitte so einen Quatsch.

LovesuckZ
2011-04-30, 14:38:24
Ich schrieb, das Multi-GPU allein für SSAA ein bisschen dekadent wirken mag - in Zeiten von Green-IT. SingleGPU ist überall schnell genug. Und wenn man dann in einem Spiel zuviele fps hat, kann mans ja den Überfluss in SSAA investieren. Aber >200W an höherer Verlustleistung einfach nur für ein paar glatte Kanten (bis auf Triplehead gibts ja sonst keine Einsatzmöglichkeiten) in Kauf zu nehmen und dann gleichzeitig dagegen zu wettern, dass sich jemand erdreistet, auch mit der zT bei Single-GPU in Überfluss vorhanden Leistung, sich nicht auf aberwitzige fps-Werte zu beschränken, sondern gar doch ein paar zusätzliche SSAA-Tests zu machen, ist mMn ein eindeutiges Anzeichen, für ein wie auch immer geartetes, kognitives Problem!

Aha. Multi-Monitor-Gaming wäre also der einzige Einsatzzweck. Dir ist schon bewusst, dass man hier weiterhin MSAA/SSAA benötigt? Aber das wäre ja wieder dekadent. :freak:
Du schreibst was zusammen, dass macht null Sinn. Downsampling, SSAA, Multi-Monitor-Gaming - das ist alles dekadent. Aber anscheinend stört dich SSAA ja nur, weil deine Lieblingsfirma hier gegenüber nVidia abkackt. Aber wenn man SSAA verwenden kann, um die Lieblingsfirma besser darstehen lassen zu können, dann stört einem auch die dekandenz dieses Feature nicht mehr.

Aber du hast recht: Wenn Wahrheit, Logik und Sinn für dich ein " geartetes, kognitives Problem" darstellen, dann muss ich damit leben. Aber zu dir kann man sowieso nur noch sagen, dass jemand mit solch einem Bias nicht 1km an ein Testsystem gelassen werden dürfte. So unglaublich, SSAA als Testfeature zu nehmen, aber gleichzeitig es als sinnlos titulieren, weil seine Lieblingsfirma abkackt. :freak:

Und jetzt mal zu deinem SSAO:
Dragon Age 2 mit MSAA und SSAO (http://www.multiupload.com/HI0WRK4GFH)
Dragon Age 2 mit SSAA ohne SSAO (http://www.multiupload.com/0IUV2V6MSM)

Aber SSAA ist ja dekadent und SSAO bringt soviel für Spiele - also wenn man Spiele spielt.

Mr. Lolman
2011-04-30, 16:20:10
Eigentlich hat ja die NV Fraktion damit angefangen, gegen den HardOCP-Test zu wettern, weil offensichtlich die NV-Karten bei Triplehead verhältnismäßig schlecht abschneiden, und dann konstatiert, dass man ja Multi-GPU ja eigentlich hauptsächlich wegen SSAA verwendet, und dass da ja NV viel besser ist, weil man ja mit externen Tools SSAA auch unter DX10/11 aktivieren kann, was bei ATi nicht geht.Als ich daraufhin meinte, dass es ein bisschen unverhältnismäßig sei, nur wegen SSAA sich ein Multi-GPU System zuzulegen, in Anbetracht dessen "dass man wegen ein paar glattere" Kanten tw. >200Watt zusätzliche Verlustleistung in Kauf nehme - werde ich nun von der NV-Seite angegangen, wie ich mich doch einerseits erdreisten könnte, so zu argumentieren und gleichzeitig um 3DCenter Test mit SSAA zu testen (wohlgemerkt Single-GPU!) und andererseits jetzt aufeinmal anfinge SSAA kleinzureden, weil ATi Karten da ja unterlegen seien. (wo denn bitte? ich sprach nur von der Verhältnismäßigkeit Multi-GPU extra für SSAA)

Nochmal: Wenn man ein persönliches Problem mit der Aussage,
"Nur für SSAA sich Multi-GPU zuzulegen, find ich aber schon ein bisschen dekadent.Da bläst man zT deutlich mehr als 200 Watt zusätzlich in die Luft, bloß damit die Kanten ein bisschen glatter werden und nimmt damit auch ggf. noch Nachteile bei den Frametimes und GPULag in Kauf?" , hat versteh ich das ja. Niemand lässt sich gern sein Hobby schlecht reden.

Wo aber im Zusammenhang damit, auf deiner einen Seite bei einem 3DCenter Test auch SSAA zu testen - einfach weil die Leistung auch bei SingleGPU tw. da ist (übrigens ein Punkt der Multi-GPU in der Hinsicht noch fragwürdiger Erscheinen lässt - v.a. in Anbetracht der Nachteile die man damit in Kauf nimmt), und aber gleichzeitig die Fragwürdigkeit einer MultiGPU Anschaffung allein für SSAA zu konstatieren, ein kausaler Denkfehler zu finden sein soll, erschließt sich mir nicht ganz. Was das wiederum mit meiner vermeintlichen Affinität zu meiner Lieblingsfirma zu tun haben soll, versteh ich noch weniger, da ja ATi 1. mit SSAA flotter läuft, und 2. auch bei hohen Auflösungen mit MultiGPU offensichtlich einen Vorteil hat (gleiche bis zT deutlich höhere fps und 200Watt weniger Verlustleistung) => eigentlich red ich - wenn ich gegen MultiGPU argumentiere - ja auch primär gegen ATI, oder? Bloß hier im 3DC haben sichs manche so gedreht dass die primäre Einsatzmöglichkeit für Multi-GPU über NV-Inspector mit Custom AA Bits - aktiviertes SSAA sein soll, und deswegen sind jetzt alle stinkig, weil ich mir erlaubt hab, anzumerken, wie unsinnig es, neutral betrachtet, sei, wegen ein paar glatteren Pixel gleich soviel zusätzliche Arbwärme zu produzieren?

Andererseits: Sich sein Auto mit Spoilern zu zupappen ist wohl genauso unsinnig, wie ebenden Umstand der Sinnhaftigkeit in einem Tuning Forum kundzutun. Genausowenig bringts wohl, die Nerdigkeit von Multi-GPU für SSAA in einem Grafikkarten Nerd- Forum zu hinterfragen. Deswegen sorry, macht doch alle wie ihr wollt, und nun haben wir uns wieder lieb, ok? =)

boxleitnerb
2011-04-30, 16:52:25
Der Test von HardOCP ist ja auch tatsächlich nicht vollständig, weil er eben nur einen (kleinen?) Teilbereich der MGPU-Anwendungen abdeckt:

Von denen, die zwei oder mehr GPUs haben haben nicht alle zwei oder mehr Bildschirme zum Zocken. Multimonitor-Gaming (MMG) ist also bezogen auf MGPU eher die Ausnahme als die Regel zumal hier noch zusätzliche Anforderungen an Platz, Stromverbrauch und Budget dazukommen.
Wenn 2+ GPUs für SSAA dekadent sind, was sind dann erst 2+ GPUs UND 2+ Monitore?

MGPU ist Luxus und wird immer Luxus sein (im Highend natürlich, so Quatsch wie GTS450 SLI z.B. ausgenommen). Der eine will ein erweitertes Sichtfeld haben (MMG), der andere will ein möglichst tolles Bild haben. Beides sind valide Anwendungsmöglichkeiten für MGPU, wobei letztere eben deutlich geringere Anforderungen stellt und daher auch häufiger benutzt wird (s.o.).

Das in einem MGPU-Shootout nichtmal mit einem Wort zu erwähnen, ist wohl kritikwürdig - und nichts anderes habe ich in Post 2 gemacht. Denn sich MGPU zuzulegen, um dann auf einem Monitor mit 200fps aber mit einem miesen Bild zu spielen, das kann und will ich nicht verstehen. Inputlag, Mikroruckler etc. (was ich auch angesprochen habe!) wurden dort ebenfalls mit keinem Wort erwähnt. Auch das habe ich kritisiert.

LovesuckZ
2011-04-30, 17:00:34
Eigentlich hat ja die NV Fraktion damit angefangen, gegen den HardOCP-Test zu wettern, weil offensichtlich die NV-Karten bei Triplehead verhältnismäßig schlecht abschneiden, und dann konstatiert, dass man ja Multi-GPU ja eigentlich hauptsächlich wegen SSAA verwendet, und dass da ja NV viel besser ist, weil man ja mit externen Tools SSAA auch unter DX10/11 aktivieren kann, was bei ATi nicht geht.Als ich daraufhin meinte, dass es ein bisschen unverhältnismäßig sei, nur wegen SSAA sich ein Multi-GPU System zuzulegen, in Anbetracht dessen "dass man wegen ein paar glattere" Kanten tw. >200Watt zusätzliche Verlustleistung in Kauf nehme - werde ich nun von der NV-Seite angegangen, wie ich mich doch einerseits erdreisten könnte, so zu argumentieren und gleichzeitig um 3DCenter Test mit SSAA zu testen (wohlgemerkt Single-GPU!) und andererseits jetzt aufeinmal anfinge SSAA kleinzureden, weil ATi Karten da ja unterlegen seien. (wo denn bitte? ich sprach nur von der Verhältnismäßigkeit Multi-GPU extra für SSAA)

Jemand der soetwas schreibt, sollte es unterlassen in seinen eigenen Tests SSAA zu verwenden. Aber so bist du eben: Gut für AMD - wird verwendet. Gut für nVidia - wird schlecht geredet.
Denn es macht null sinn, überschüssige Leistung einer Single-GPU in SSAA zu investieren, aber beim Multi-GPU wäre dies herausgeworfenes Geld, weil man nicht Green-IT wäre. Das ist so ein Widerspruch.


Nochmal: Wenn man ein persönliches Problem mit der Aussage,
"Nur für SSAA sich Multi-GPU zuzulegen, find ich aber schon ein bisschen dekadent.Da bläst man zT deutlich mehr als 200 Watt zusätzlich in die Luft, bloß damit die Kanten ein bisschen glatter werden und nimmt damit auch ggf. noch Nachteile bei den Frametimes und GPULag in Kauf?" , hat versteh ich das ja. Niemand lässt sich gern sein Hobby schlecht reden.

Ach und die Nachteile existieren beim Multi-Monitor-Gaming nicht? Du redest hier generell gegen Multi-GPU - und das ist so dermaßen am Thema vorbei. Wo ist also ein Gipsel, der dich auffordert das Spammen einzustellen?


Wo aber im Zusammenhang damit, auf deiner einen Seite bei einem 3DCenter Test auch SSAA zu testen - einfach weil die Leistung auch bei SingleGPU tw. da ist (übrigens ein Punkt der Multi-GPU in der Hinsicht noch fragwürdiger Erscheinen lässt - v.a. in Anbetracht der Nachteile die man damit in Kauf nimmt), und aber gleichzeitig die Fragwürdigkeit einer MultiGPU Anschaffung allein für SSAA zu konstatieren, ein kausaler Denkfehler zu finden sein soll, erschließt sich mir nicht ganz. Was das wiederum mit meiner vermeintlichen Affinität zu meiner Lieblingsfirma zu tun haben soll, versteh ich noch weniger, da ja ATi 1. mit SSAA flotter läuft, und 2. auch bei hohen Auflösungen mit MultiGPU offensichtlich einen Vorteil hat (gleiche bis zT deutlich höhere fps und 200Watt weniger Verlustleistung) => eigentlich red ich - wenn ich gegen MultiGPU argumentiere - ja auch primär gegen ATI, oder? Bloß hier im 3DC haben sichs manche so gedreht dass die primäre Einsatzmöglichkeit für Multi-GPU über NV-Inspector mit Custom AA Bits - aktiviertes SSAA sein soll, und deswegen sind jetzt alle stinkig, weil ich mir erlaubt hab, anzumerken, wie unsinnig es, neutral betrachtet, sei, wegen ein paar glatteren Pixel gleich soviel zusätzliche Arbwärme zu produzieren?

Na, dann frage ich mich ja, welchen Zweck denn SLI und Crossfire zu Zeiten hatten, wo Multi-Monitor-Gaming nicht so einfach möglich war. Erkläre uns das mal.
Aber es ist schön zu wissen, dass AA für dich keine Bedeutung mehr hat. Aber dies ist eben so, wenn man seine Meinung immer nach AMD ausrichten muss. So wie beim AF. ;D


Andererseits: Sich sein Auto mit Spoilern zu zupappen ist wohl genauso unsinnig, wie ebenden Umstand der Sinnhaftigkeit in einem Tuning Forum kundzutun. Genausowenig bringts wohl, die Nerdigkeit von Multi-GPU für SSAA in einem Grafikkarten Nerd- Forum zu hinterfragen. Deswegen sorry, macht doch alle wie ihr wollt, und nun haben wir uns wieder lieb, ok? =)

Weiß du, was ich unsinnsig finde? Einen Test mit einer Auflösung von 2560x1600 zu machen, wo der Monitor alleine mehr als 600€ (alleine das ist dekadent!) kostet und sich dann in einem Internetforum hinzustellen und die Vorteile genau dieses Settings ad absurdum zu führen.
Es zeigt aber sehr schön, dass das Review auf dieser Seite nur eins zeigen sollte: Wie toll AMD ist. Und wenn der shice Boomerang zurückkommt, dann war es nicht der, dem man selbst warf.

Blaire
2011-04-30, 17:02:38
Outofthebox funktioniert AA bei ATI besser als bei NV. (zB.Bioshock2 DX9, MoH, Arma2 SSAA,...).

Wenn es denn mal so wäre... weniger AA Profile als bei Nvidia, kein SSAA unter OpenGL (ja auch dafür kommen noch Games z.b. RAGE), kein TRSSAA für DX10/11 (offiziell!) Das sollte erstmal reichen.

boxleitnerb
2011-04-30, 17:06:30
Denn es macht null sinn, überschüssige Leistung einer Single-GPU in SSAA zu investieren, aber beim Multi-GPU wäre dies herausgeworfenes Geld, weil man nicht Green-IT wäre. Das ist so ein Widerspruch.

Hm, jein. Es kommt auf den eigenen Anspruch drauf an. Es gibt Leute, die freuen sich, wenn sie mit einer Karte hier und da ein bisschen SGSSAA zuschalten können, die aber nicht in Erwägung ziehen, sich dafür noch eine zweite zu holen. Aber das ist auch irgendwie am Thema vorbei, denn jemanden, der kein SLI/CF hat bzw. haben will, den betrifft besagter Test auf HardOCP auch gar nicht ;)
Den MGPU-Besitzern bzw. zukünftigen Besitzern, hilft dieser Test wirklich nur bedingt weiter, da eben zuviel fehlt.

LovesuckZ
2011-04-30, 17:13:18
Hm, jein. Es kommt auf den eigenen Anspruch drauf an. Es gibt Leute, die freuen sich, wenn sie mit einer Karte hier und da ein bisschen SGSSAA zuschalten können, die aber nicht in Erwägung ziehen, sich dafür noch eine zweite zu holen.

Dann nimm eben GTX460 und GTX580. Das ist ungefähr die selbe "sichtbare" Leistungsdifferenz
Aber das interessiert ja Lolman nicht. Er will uns einfach nur mitteilen, dass mGPU für mehr BQ auf einem Bildschirm dekadent wäre und einzig und allein Multi-Monitor-Gaming den mGPU einen Sinn gäbe. Das man bei MM-Gaming ebenfalls AA benötigt, wird verschwiegen und AA gleich als uninteressant abgestempelt.

derguru
2011-04-30, 17:56:01
amüsant wie immer und immer wieder über solche reviews aller HardOCP sich gewundert wird.als ob es jemals anders war,egal ob techpower,hardwareheaven,guru3d und konsorten es wird immer so gemacht.(das ausland interessiert nun mal sgssaa und ds null):rolleyes:

Mr. Lolman
2011-04-30, 17:57:09
Jemand der soetwas schreibt, sollte es unterlassen in seinen eigenen Tests SSAA zu verwenden. Aber so bist du eben: Gut für AMD - wird verwendet. Gut für nVidia - wird schlecht geredet.
Denn es macht null sinn, überschüssige Leistung einer Single-GPU in SSAA zu investieren, aber beim Multi-GPU wäre dies herausgeworfenes Geld, weil man nicht Green-IT wäre. Das ist so ein Widerspruch.
Wo ist da ein Widerspruch? Wenn man gerne spielt, braucht man eine GraKa. Wenn alle Spiele in maximaler Detailstufe in FullHD Auflösung laufen sollen, braucht man eine Highend GraKa. Wenns nun Spiele gibt, die auf der Highend GraKa sehr hohe fps Raten produzieren, spricht nix dagegen, die überschüssige Leistung in SSAA zu investieren. Was anderers hingegen ists, wenn man sich gleich soviele GraKas ins System steckt, dass man überall so viel überschüssige Leistung hat, dass man überall SSAA verwenden kann. Denn das bedeutet im Umkehrschluss, dass man auch ohne Multi-GPU auskommen würde. Oder eben, dass man bereit ist tw. >200Watt zusätzlich in die Luft zu blasen, um eben in den Genuss von glatteren Kanten zu kommen. Oder etwa nicht?


Ach und die Nachteile existieren beim Multi-Monitor-Gaming nicht? Du redest hier generell gegen Multi-GPU - und das ist so dermaßen am Thema vorbei. Wo ist also ein Gipsel, der dich auffordert das Spammen einzustellen?

Doch die existieren auch. Ich rede ja generell gegen MultiGPU. Nur dass man beim Multimonitoring generell das Problem hat, dass eine einzelne GraKa nicht mehr reicht. Der Vorteil des Multimonitorings ist halt, der deutlich höhere FOV, und dementsprechend auch ein höheres Mittendrinn-Gefühl. Multimonitoring erlaubt höheres FOV, größerer Ausschnitt der Spielwelt wird dargestellt. Bei SSAA hingegen hast du den gleichen Bildinhalt halt etwas glatter dargestellt.
=> Andere Zugangsweise um die generelle Nerdigkeit von MultiGPU aufzuzeigen: einem Laien gegenüber kann man wohl noch eher argumentieren, dass man für 3 Monitore 3 Grafikkarten im System hat, als wenn man zuerst Single GPU mit MSAA anwirft, und ihm dann zeigt, dass die anderen beiden GraKas die man im Rechner hat, dazu da sind, das Bild ein bisschen glatter zu machen.


Na, dann frage ich mich ja, welchen Zweck denn SLI und Crossfire zu Zeiten hatten, wo Multi-Monitor-Gaming nicht so einfach möglich war. Erkläre uns das mal.
Eh keinen. Maximal in Spielen, wo Highend Single GPU nicht ausreichte, und die Nachteile durch MultiGPU nicht allzu groß waren. Das Problem an SSAA bei MultiGPU ist ja, dass man aufgrund des höheren Versatzes und den unregelmäßigen Frametimes auch höhere fps-Zahlen braucht als bei Single GPU.


Aber es ist schön zu wissen, dass AA für dich keine Bedeutung mehr hat. Aber dies ist eben so, wenn man seine Meinung immer nach AMD ausrichten muss. So wie beim AF. ;D
Stimmt ja nicht. AA hat ne große Bedeutung für mich. Ich erlaubte mir hier jedoch nur die Frage der Sinnhaftigkeit von 200W+ zusätzlicher Verlustleistung allein für AA zu stellen. Genau die gleiche Frage würd ich stellen, wenn nun alle plötzlich anfingen 64xAF als Überfeature für MultiGPU anzupreisen.


Weiß du, was ich unsinnsig finde? Einen Test mit einer Auflösung von 2560x1600 zu machen, wo der Monitor alleine mehr als 600€ (alleine das ist dekadent!) kostet und sich dann in einem Internetforum hinzustellen und die Vorteile genau dieses Settings ad absurdum zu führen.
Es zeigt aber sehr schön, dass das Review auf dieser Seite nur eins zeigen sollte: Wie toll AMD ist. Und wenn der shice Boomerang zurückkommt, dann war es nicht der, dem man selbst warf.
2560x1600 entspricht 1920x1200 mit 1.33x1.33 OSSAA. => Wenn GraKas bei MSAA in 1920 genug fps produzieren, dann spricht ja nix, gegen AA. => Oder andersrum: Wenn man tatsächlich nur Spiele spielt, die so viele fps produzieren, dass Highend Karten absolut unterfordert wären, spricht ja auch nix für eine Highend Karte. Denn mit objektiv betrachtet leicht schlechterer BQ (MSAA statt SSAA) kann man auch mit einer halb so teuren GraKa, die halb soviel Strom verbraucht, in den fast gleichen Genuss kommen.

Dein Argument hinkt übrigens auch daran, dass man Monitor auch zu anderen Dingen als zum Spielen gebrauchen kann. Wenn du mit deinem 3x SLI allerdings am Desktop herumwerkst, in Foren postest und Videostreams schaust, bringt dir das hingegen keinerlei Vorteile.

Blaire
2011-04-30, 18:17:02
amüsant wie immer und immer wieder über solche reviews aller HardOCP sich gewundert wird.als ob es jemals anders war,egal ob techpower,hardwareheaven,guru3d und konsorten es wird immer so gemacht.(das ausland interessiert nun mal sgssaa und ds null):rolleyes:

Naja zumindest kann man erwarten, das die Tester erkennen ob ein Game optimal skaliert oder nicht. . Und dann meinen die doch tatsächlich noch, es läge am CPU Limit, wo doch 3-Way CF schon deutlich mehr MaxFPS liefert...:freak:

LovesuckZ
2011-04-30, 19:15:51
Wo ist da ein Widerspruch? Wenn man gerne spielt, braucht man eine GraKa. Wenn alle Spiele in maximaler Detailstufe in FullHD Auflösung laufen sollen, braucht man eine Highend GraKa. Wenns nun Spiele gibt, die auf der Highend GraKa sehr hohe fps Raten produzieren, spricht nix dagegen, die überschüssige Leistung in SSAA zu investieren. Was anderers hingegen ists, wenn man sich gleich soviele GraKas ins System steckt, dass man überall so viel überschüssige Leistung hat, dass man überall SSAA verwenden kann. Denn das bedeutet im Umkehrschluss, dass man auch ohne Multi-GPU auskommen würde. Oder eben, dass man bereit ist tw. >200Watt zusätzlich in die Luft zu blasen, um eben in den Genuss von glatteren Kanten zu kommen. Oder etwa nicht?

Willst du einen verarschen? Wenn du nur trollen willst, sage es doch bitte.
Abgesehen von dem: Du fängst schon wieder an zubestimmen, was man einstellen soll. Höre doch damit einfach mal auf. Ich finde Flimmerfreiheit ist wesentlich mehr von Bedeutung als irgendwelche Details-Features. SSAA kostet zwischen 50-75% an Leistung. Es ist kaum möglich mit einer GTX580 in jedem Spiel eine Polygonglättung von 4xRGMSAA zu erreichen, wenn man mit SSAA spielen will. Entweder ich muss mich mit weniger zufrieden geben oder Details runterstellen. Aber das ignorierst du förmlich.


Doch die existieren auch. Ich rede ja generell gegen MultiGPU. Nur dass man beim Multimonitoring generell das Problem hat, dass eine einzelne GraKa nicht mehr reicht. Der Vorteil des Multimonitorings ist halt, der deutlich höhere FOV, und dementsprechend auch ein höheres Mittendrinn-Gefühl. Multimonitoring erlaubt höheres FOV, größerer Ausschnitt der Spielwelt wird dargestellt. Bei SSAA hingegen hast du den gleichen Bildinhalt halt etwas glatter dargestellt.

Und ich muss auf SSAA und Downsampling verzichten. Was wiederum dazu führt, dass ich BQ opfere. Irgendwie doof, nicht?


Eh keinen. Maximal in Spielen, wo Highend Single GPU nicht ausreichte, und die Nachteile durch MultiGPU nicht allzu groß waren. Das Problem an SSAA bei MultiGPU ist ja, dass man aufgrund des höheren Versatzes und den unregelmäßigen Frametimes auch höhere fps-Zahlen braucht als bei Single GPU.

Das hängt von jedem selbst ab.


Stimmt ja nicht. AA hat ne große Bedeutung für mich. Ich erlaubte mir hier jedoch nur die Frage der Sinnhaftigkeit von 200W+ zusätzlicher Verlustleistung allein für AA zu stellen. Genau die gleiche Frage würd ich stellen, wenn nun alle plötzlich anfingen 64xAF als Überfeature für MultiGPU anzupreisen.

Ich kann den selben Quatsch über MM-Gaming, SSAA und Downsampling (höhrere Auflösung als 1080p) sagen. Verzichte ich auf alles, brauche ich vielleicht nichtmal eine GTX580. :rolleyes:


2560x1600 entspricht 1920x1200 mit 1.33x1.33 OSSAA. => Wenn GraKas bei MSAA in 1920 genug fps produzieren, dann spricht ja nix, gegen AA. => Oder andersrum: Wenn man tatsächlich nur Spiele spielt, die so viele fps produzieren, dass Highend Karten absolut unterfordert wären, spricht ja auch nix für eine Highend Karte. Denn mit objektiv betrachtet leicht schlechterer BQ (MSAA statt SSAA) kann man auch mit einer halb so teuren GraKa, die halb soviel Strom verbraucht, in den fast gleichen Genuss kommen.

Wow. Also, ähm. Wir drehen uns um Kreis: Du missbrauchst Settings, um deiner Lieblingsfirma auf den Podest zu helfen, aber gleichzeitig zeigst du, dass dir die Einstellungen vollkommen egal sind. Deine Propaganda ist abscheulich und traurig. Du testet 2560x1600 mit SSAA und hohen MSAA, aber stellst dich hier hin und führst diese Einstellung ad absurdum, weil man mit SLI mehr Leistung hat, die man wesentlich öfters in mehr BQ bringen kann.
Du tust mir ehrlich leid. Wie kann man nur so offensichtlich ein Review faken, um seinen LieblingsIHV oben stehen sehen zu können.


Dein Argument hinkt übrigens auch daran, dass man Monitor auch zu anderen Dingen als zum Spielen gebrauchen kann. Wenn du mit deinem 3x SLI allerdings am Desktop herumwerkst, in Foren postest und Videostreams schaust, bringt dir das hingegen keinerlei Vorteile.

Ich habe mein SLI zum Spielen. Du missbrauchst deinen Monitor, um zu zeigen, wie toll AMD ist. Ich kann genauo sagen, dass man eine solche Auflösung für Office nicht benötigt. Du zeigst gerade, wie subjektiv du dir deine eigene Ansicht zusammenreimst.

Mr. Lolman
2011-04-30, 20:05:20
Willst du einen verarschen? Wenn du nur trollen willst, sage es doch bitte.
Abgesehen von dem: Du fängst schon wieder an zubestimmen, was man einstellen soll. Höre doch damit einfach mal auf. Ich finde Flimmerfreiheit ist wesentlich mehr von Bedeutung als irgendwelche Details-Features. SSAA kostet zwischen 50-75% an Leistung. Es ist kaum möglich mit einer GTX580 in jedem Spiel eine Polygonglättung von 4xRGMSAA zu erreichen, wenn man mit SSAA spielen will. Entweder ich muss mich mit weniger zufrieden geben oder Details runterstellen. Aber das ignorierst du förmlich.

Du könntest ja auch 4xMSAA mit 2xSSAA kombinieren. Trotzdem ignorierst du mittlerweile zum gefühlten 10. Mal das Argument, dass du 50-75% an Leistung für glattere Kanten opferst, und dafür eben auch bereit bist, ordentlich viel an zusätzliche Abwärme in die Luft zu pulvern. Dass du ja kein Problem damit hast ist ja mittlerweile jedem hier hinlänglich bekannt. Dass das aber mancher seltsam finden mag, weist du jedoch konsequent von dir.


Und ich muss auf SSAA und Downsampling verzichten. Was wiederum dazu führt, dass ich BQ opfere. Irgendwie doof, nicht?

Ja schon. ;D


Das hängt von jedem selbst ab.

Stimmt. Wenn man lieber glatte Kanten als Frametimes hat.


Ich kann den selben Quatsch über MM-Gaming, SSAA und Downsampling (höhrere Auflösung als 1080p) sagen. Verzichte ich auf alles, brauche ich vielleicht nichtmal eine GTX580. :rolleyes:

Eben. Willst du unbedingt überall 4xSSAA haben brauchst du aber eben ein Triple SLI System. Da sind wir uns ja einig. Wo wir uns offensichtlich nicht einig sind, ist, dass die zusätzliche BQ von der du sprichst, bloß in Form eines glatteren Bildes zu Stande kommt. (Da kommt wieder das "Ich will ja spielen und keine Bilder anschauen"-Argument) - was nach dem Gesetz des abnehmenden Grenzertrags, ab einer gewissen Konfiguration (die mMn bei Multi-GPU anfängt) immer unökologischer wird.


Wow. Also, ähm. Wir drehen uns um Kreis: Du missbrauchst Settings, um deiner Lieblingsfirma auf den Podest zu helfen, aber gleichzeitig zeigst du, dass dir die Einstellungen vollkommen egal sind. Deine Propaganda ist abscheulich und traurig. Du testet 2560x1600 mit SSAA und hohen MSAA, aber stellst dich hier hin und führst diese Einstellung ad absurdum, weil man mit SLI mehr Leistung hat, die man wesentlich öfters in mehr BQ bringen kann.
Du tust mir ehrlich leid. Wie kann man nur so offensichtlich ein Review faken, um seinen LieblingsIHV oben stehen sehen zu können.

Was hab ich gefaked? Einerseits bist du geil of hohen GPU Load (SSAA) - wenn man jedoch Benchmarks mit hohen GPU Load durchführt, hast du ein Problem damit. Das klingt eher nach eben der Nerdhaftigkeit im Enthusiasten Bereich, wo man nicht mehr erlaubt seine Investition nach vernünftigen Gesichtspunkten zu hinterfragen, und stattdessen anfängt Diskussionen mit einer erbärmlich durchschaubaren Form der Agitation auf die persönliche Ebene zu lenken. Das find ich abscheulich und traurig.

Mir tuts eigentlich schon leid, dass ich dich mit meinen Posts offensichtlich dazu bringe, hier undifferenzierten Stuss abzulassen, während dein tolles SLI System fad vor sich hin idled.


Ich habe mein SLI zum Spielen. Du missbrauchst deinen Monitor, um zu zeigen, wie toll AMD ist. Ich kann genauo sagen, dass man eine solche Auflösung für Office nicht benötigt. Du zeigst gerade, wie subjektiv du dir deine eigene Ansicht zusammenreimst.

Ich hab keinen 2560x1600 Monitor. Die Benchmarks entstanden alle mit Monitorseitigen Downsampling (Jaaa das kann auch mit ATIs unter Win7 funktionieren :eek:). Außerdem kann die Desktopauflösung nicht hoch genug sein. Gerade wenn man sich mit CAD, Programmieren, oder einfach nur ein bisschen Multitasking beschäftigt.

=Floi=
2011-04-30, 23:42:19
zitat
Du könntest ja auch 4xMSAA mit 2xSSAA kombinieren.

das ergibt leider ein schlechtes glättungsmuster.
--> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8611490&postcount=17

ist ein kritikpunkt, aber man kann nicht alles haben und imho sind wir jetzt eh schon bei 95% des möglichen. "1:1" ist sowieso geiler. ;)


edit:
Eben. Willst du unbedingt überall 4xSSAA haben brauchst du aber eben ein Triple SLI System. Da sind wir uns ja einig. Wo wir uns offensichtlich nicht einig sind, ist, dass die zusätzliche BQ von der du sprichst, bloß in Form eines glatteren Bildes zu Stande kommt. (Da kommt wieder das "Ich will ja spielen und keine Bilder anschauen"-Argument) - was nach dem Gesetz des abnehmenden Grenzertrags, ab einer gewissen Konfiguration (die mMn bei Multi-GPU anfängt) immer unökologischer wird.

es ist einfach viel angenehmer, wenn alles super glatt ist und sich das auge nicht mehr an sägezahnkanten und an flimmrigem content fängt. Umgedreht stört es das spielgefühl erheblich und wenn man mal auf solch einen content eingeschossen ist, dann geht es einfach nicht mehr ihn zu ignorieren. das stört auch bei mir das spielgefühl erheblich und umgedreht erfreut es mich doch sehr und lässt mich einfach besser eintauchen, wenn die grafik wirklich perfekt sauber ist. bei shootern ist es auch wichtig, wenn das auge nicht abgelenkt wird.

LovesuckZ
2011-05-04, 14:05:08
Du könntest ja auch 4xMSAA mit 2xSSAA kombinieren. Trotzdem ignorierst du mittlerweile zum gefühlten 10. Mal das Argument, dass du 50-75% an Leistung für glattere Kanten opferst, und dafür eben auch bereit bist, ordentlich viel an zusätzliche Abwärme in die Luft zu pulvern. Dass du ja kein Problem damit hast ist ja mittlerweile jedem hier hinlänglich bekannt. Dass das aber mancher seltsam finden mag, weist du jedoch konsequent von dir.

Ich finde es wesentlich seltsamer, 2560x1600 und SSAA überhaupt zu testen, wenn man keinen Wert auf BQ legt, aber gleichzeitig sich bei den Grünen als neuer "Umweltschützer des Jahrhunderts" bewirbt.
Aber das ist nur meine bescheidene Meinung.


Stimmt. Wenn man lieber glatte Kanten als Frametimes hat.

Ironisch - bei Multi-Monitor-Gaming hat man weder vernünftige Frametimes noch glatte Kanten. Und trotzdem wäre dieses Setting sinnvoller? :freak:


Eben. Willst du unbedingt überall 4xSSAA haben brauchst du aber eben ein Triple SLI System. Da sind wir uns ja einig. Wo wir uns offensichtlich nicht einig sind, ist, dass die zusätzliche BQ von der du sprichst, bloß in Form eines glatteren Bildes zu Stande kommt. (Da kommt wieder das "Ich will ja spielen und keine Bilder anschauen"-Argument) - was nach dem Gesetz des abnehmenden Grenzertrags, ab einer gewissen Konfiguration (die mMn bei Multi-GPU anfängt) immer unökologischer wird.

"Gesetz des abnehmenden Ertrages" - deswegen reicht auch 4xRGAA meisten aus, 2xRGAA dagegen ist viel zu wenig. Das wiederum bedeutet, dass 4xRGSSAA der Modus ist, den man anzielt und nicht 2xRGSSAA.


Was hab ich gefaked? Einerseits bist du geil of hohen GPU Load (SSAA) - wenn man jedoch Benchmarks mit hohen GPU Load durchführt, hast du ein Problem damit. Das klingt eher nach eben der Nerdhaftigkeit im Enthusiasten Bereich, wo man nicht mehr erlaubt seine Investition nach vernünftigen Gesichtspunkten zu hinterfragen, und stattdessen anfängt Diskussionen mit einer erbärmlich durchschaubaren Form der Agitation auf die persönliche Ebene zu lenken. Das find ich abscheulich und traurig.

Erstaunlich: Siehst du, dass ich mich hier hinstelle und DEINE Einstellung im Review als "unnötig", "nerdig", "umweltvernichtend" deklariere? Ich finde es ironisch, dass jemand, der gewisse Einstellung für einen fairen Vergleich verwendet, sich dann hinterher hinstellt und diese Einstellung als "lächerlich" bezeichnet.

Mir tuts eigentlich schon leid, dass ich dich mit meinen Posts offensichtlich dazu bringe, hier undifferenzierten Stuss abzulassen, während dein tolles SLI System fad vor sich hin idled.

Ähm - du bist der jenige, der hier "undifferenzierten Stuss" ablässt.


Ich hab keinen 2560x1600 Monitor. Die Benchmarks entstanden alle mit Monitorseitigen Downsampling (Jaaa das kann auch mit ATIs unter Win7 funktionieren :eek:). Außerdem kann die Desktopauflösung nicht hoch genug sein. Gerade wenn man sich mit CAD, Programmieren, oder einfach nur ein bisschen Multitasking beschäftigt.

Wow -CAD, Programmieren, Multitasting. Klappt alles besten auf 1080p.
Jetzt mal abgesehen von dem Quatsch: ich finde es irretierend plötzlich Downsampling doch zu verwenden, aber gleichzeitig sich hinzustellen und höhreres Downsampling als unnötig zu bezeichnen. Da fehlt jede Logik.

Aber die größte Ironie ist: Sich 2006 darüber beschweren, dass nVidia's ansiotrope Filterung zum Flimmern und Banding neigt und das dies überhaupt nicht gehen würde, aber sich jetzt hinstellen und Flimmern und Banding als vollkommen in Ordnung zu bezeichnen, weil man ja auf die Umwelt achten müsste. Lächerlicher kann sich eine Person eigentlich nicht mehr machen. Glückwunsch.

ENKORE
2011-05-04, 16:58:23
Wow -CAD, Programmieren, Multitasting. Klappt alles besten auf 1080p.
Kein Mensch braucht mehr als 640k RAM.

Mr. Lolman
2011-05-04, 17:23:22
Aber die größte Ironie ist: Sich 2006 darüber beschweren, dass nVidia's ansiotrope Filterung zum Flimmern und Banding neigt und das dies überhaupt nicht gehen würde, aber sich jetzt hinstellen und Flimmern und Banding als vollkommen in Ordnung zu bezeichnen, weil man ja auf die Umwelt achten müsste. Lächerlicher kann sich eine Person eigentlich nicht mehr machen. Glückwunsch.

Zwischen dem NV40 (und dem G70 vorm Fixed TReiber überhaupt) und dem was ATi produziert, liegen Welten. Frag Raff.

Zum Rest:

- Deine Logik versteh ich nicht. Die Auflösung hat nix mit dem Thema Green IT zu tun. Die Inkaufnahme doppelter Verlustleistung für SSAA schon.
- Du schimpfst andauernd über mein biased Review. Warum eigentlich? Weil ich hohe Auflösungen/SSAA/Downsampling getestet hab?

Raff
2011-05-04, 17:30:33
Zwischen dem NV40 (und dem G70 vorm Fixed TReiber überhaupt) und dem was ATi produziert, liegen Welten. Frag Raff.

Jo – solange wir von Q sprechen. Die totale Flimmerhölle. HQ ist ruhig, aber eben winkelabhängig.

MfG,
Raff

LovesuckZ
2011-05-04, 17:50:36
Zwischen dem NV40 (und dem G70 vorm Fixed TReiber überhaupt) und dem was ATi produziert, liegen Welten. Frag Raff.

Natürlich - also wenn du es sagst. Was ich gesehen habe, reicht, um es nicht akzeptabel zu finden. Da du es - immerhin produziert AMD seit annährend 5 Jahren den Rotz - nicht für nötig empfunden hast, einen Artikel darüber zu schreiben, zeigt schon, wie wenig wert dir BQ ist. Es ging bei dem Artikel einzig und allein um Propaganda.


Zum Rest:
- Deine Logik versteh ich nicht. Die Auflösung hat nix mit dem Thema Green IT zu tun. Die Inkaufnahme doppelter Verlustleistung für SSAA schon.

Natürlich. je höher die Auflösung, um höher die Auslastung der GPU. Das führt dazu, dass mehr Transistoren deutlich schneller schalten müssen, was den Stromverbrauch erhöht. Also genau das, was du hier als "dekadenz" anprangerst. Es ist dabei vollkommen egal, ob man die Auflösung erhöht oder SSAA dazuschaltet.
Nur für dich: Der Mehrverbrauch einer GTX580 gegenüber einer GTX460 ist genauso hoch wie beim Einbau einer zweiten GTX580. Beide Szenarium bringen auch den selben Framezuwachs.
Es sollte wohl klar sein, dass, wenn man gegen ein GTX580x2 System wettert, es gleich auch gegen ein Einzelkartensystem mit der selben Karte machen darf.


- Du schimpfst andauernd über mein biased Review. Warum eigentlich? Weil ich hohe Auflösungen/SSAA/Downsampling getestet hab?

Checkst du nicht, dass ich nicht über die Settings schimpfe, sondern darüber, dass du hier eine Pseudomoral an den Tag legst? Einerseits bestimmte Einstellungen verwenden, die angeblich "wichtig" bzw. ausschlaggebend wären, andererseits die selben Einstellungen als "unnötig" und "dekadent" deklarieren. Das ekelt einen an.

Mr. Lolman
2011-05-04, 18:12:54
Natürlich - also wenn du es sagst. Was ich gesehen habe, reicht, um es nicht akzeptabel zu finden. Da du es - immerhin produziert AMD seit annährend 5 Jahren den Rotz - nicht für nötig empfunden hast, einen Artikel darüber zu schreiben, zeigt schon, wie wenig wert dir BQ ist. Es ging bei dem Artikel einzig und allein um Propaganda.

Damals wars viel übler und außerdem war das NV CP buggy und man konnte, wenn man die Reihenfolge nicht einhielt, nichtmal HQ aktivieren. Frag Raff. Heute ist zumindest Q zumindest ungefähr gleich (im Vgl zu damals). Außerdem cheatet AMD nicht in Form von absichtlicherer BQ-Absenkung über Treiber - die HW kanns schlichtweg nicht besser.


Natürlich. je höher die Auflösung, um höher die Auslastung der GPU. Das führt dazu, dass mehr Transistoren deutlich schneller schalten müssen, was den Stromverbrauch erhöht. Also genau das, was du hier als "dekadenz" anprangerst. Es ist dabei vollkommen egal, ob man die Auflösung erhöht oder SSAA dazuschaltet.

Das ist aber nur, wenn du die fps begrenzt und die vorhandenen Reservern verpuffen lässt. Wenn man das macht, kann man sich aber auch gleich eine schwächere GraKa kaufen.


Nur für dich: Der Mehrverbrauch einer GTX580 gegenüber einer GTX460 ist genauso hoch wie beim Einbau einer zweiten GTX580. Beide Szenarium bringen auch den selben Framezuwachs.

Wobei SingleGPU für alle Spiele reicht und Dual-GPU nur für SSAA gebraucht wird => wir drehen uns schon wieder im Kreis.


Es sollte wohl klar sein, dass, wenn man gegen ein GTX580x2 System wettert, es gleich auch gegen ein Einzelkartensystem mit der selben Karte machen darf.

Darf man. Wenn man aber seinen plötzlich ausgebrochenen SSAA Wahn hinterfragt, wir man merken, dass man eigentlich mit einer einzelnen 580 auch gut bedient wäre.



Checkst du nicht, dass ich nicht über die Settings schimpfe, sondern darüber, dass du hier eine Pseudomoral an den Tag legst? Einerseits bestimmte Einstellungen verwenden, die angeblich "wichtig" bzw. ausschlaggebend wären, andererseits die selben Einstellungen als "unnötig" und "dekadent" deklarieren. Das ekelt einen an.

Ja dann ekelts dich halt an. Ist mir ehrlich gesagt sowas von egal. :cool:

LovesuckZ
2011-05-04, 18:27:23
Damals wars viel übler und außerdem war das NV CP buggy und man konnte, wenn man die Reihenfolge nicht einhielt, nichtmal HQ aktivieren. Frag Raff. Heute ist zumindest Q zumindest ungefähr gleich (im Vgl zu damals). Außerdem cheatet AMD nicht in Form von absichtlicherer BQ-Absenkung über Treiber - die HW kanns schlichtweg nicht besser.

NV40 hat nicht annährend die miserable Qualität gehabt wie G70. Dafür konnte man bei nVidia - bis auf dem Bug - mit HQ vieles verbessern. Das ging bei AMD nie.
Du machst hier weiter, was du 2006 gestartet hast: BQ interessiert dich Null. Bei nVidia ist alles doof, häßlich, extremen und schlecht. Bei AMD ist alles nicht so schlimm, kaum sichtbar, besser und gut.


Das ist aber nur, wenn du die fps begrenzt und die vorhandenen Reservern verpuffen lässt. Wenn man das macht, kann man sich aber auch gleich eine schwächere GraKa kaufen.

Das propagierst du doch hier - verzicht. Vergisst du schon, was du hier schreibst? :confused:


Wobei SingleGPU für alle Spiele reicht und Dual-GPU nur für SSAA gebraucht wird => wir drehen uns schon wieder im Kreis.

Wenn man verzichtet, reicht auch eine Konsole mit 100 Watt unter Last. Das SingleGPU eben nicht für allesreicht*, zeigt die Einführung von SLI seit 2004 und Crossfire seit 2005.

Darf man. Wenn man aber seinen plötzlich ausgebrochenen SSAA Wahn hinterfragt, wir man merken, dass man eigentlich mit einer einzelnen 580 auch gut bedient wäre.

Und wenn man denn - ich muss mit allen an in mindesten 1080p spielen - Wahn hinterfragt, "wir[d] man merken, dass man eigentlich mit einer einzelnen [460] auch gut bedient wäre."

Ja dann ekelts dich halt an. Ist mir ehrlich gesagt sowas von egal. :cool:
Dann hoffe ich, dass du auch akzeptierst, dass man deine Reviews und deine Aussagen bzgl. BQ in Zukunft getrost ignorieren darf bzw. eigentlich muss. Irgendwie schade.

*Schonmal Dragon Age 2 mit 4xSGSSAA mit einer GTX580 unter DX11 gezockt? Bestimmt nicht. Soll ich dir mal was verraten: Das Spiel flimmert ohne SSAA wie die Hölle. Wer also früher gegen das AF-flimmern wetterte, müsste eigentlich der erste sein, der dem SSAA Wahn verfallen wäre. Aber hier kommen wir wieder zum Punkt, dass dich nicht das AF-Flimmern störte, sondern es nur der Aufhänger für einen nVidia-Flame Artikel darstellte.

Mr. Lolman
2011-05-04, 18:39:08
NV40 hat nicht annährend die miserable Qualität gehabt wie G70. Dafür konnte man bei nVidia - bis auf dem Bug - mit HQ vieles verbessern. Das ging bei AMD nie.
Du machst hier weiter, was du 2006 gestartet hast: BQ interessiert dich Null. Bei nVidia ist alles doof, häßlich, extremen und schlecht. Bei AMD ist alles nicht so schlimm, kaum sichtbar, besser und gut.
Ich rede von Q (Treiberdefault). Aber ist ja gut. Beruhige dich wieder.


Das propagierst du doch hier - verzicht. Vergisst du schon, was du hier schreibst? :confused:
Verzicht. Ja eh. Verzicht auf SGSSAA aufgrund von Inkaufnahme der doppelten Verlustleistung. Genau. Das propagiere ich.


Wenn man verzichtet, reicht auch eine Konsole mit 100 Watt unter Last. Das SingleGPU eben nicht für allesreicht*, zeigt die Einführung von SLI seit 2004 und Crossfire seit 2005.
Ach komm. Die vergleiche sind lächerlich. Hol ein xbeliebiges Spiel und zeigs einmal mit 720p ohne AA/AF, dann mit 1080p und MSAA/2xSSAA/Downsampling und dann mit 1080p und min 4xSS wofür man SLI braucht.


Und wenn man denn - ich muss mit allen an in mindesten 1080p spielen - Wahn hinterfragt, "wir[d] man merken, dass man eigentlich mit einer einzelnen [460] auch gut bedient wäre."
Stimmt. Wenn man einen 1080p Monitor hat, sollte man aber schon in der nativen Auflösung spielen. Ein bisschen AA wär auch nicht schlecht. (wenn die fps nicht darunter leiden. DA reicht bei den aktuellen Spielen auch eine schwächere GraKa. Aber interpolierte Auflösungen sind ein Werk des Teufels!


Dann hoffe ich, dass du auch akzeptierst, dass man deine Reviews und deine Aussagen bzgl. BQ in Zukunft getrost ignorieren darf bzw. eigentlich muss. Irgendwie schade.
Ja mach das bitte. Dann kann ich mir auch solche sinnbefreiten Diskussionen mit dir sparen.


*Schonmal Dragon Age 2 mit 4xSGSSAA mit einer GTX580 unter DX11 gezockt? Bestimmt nicht. Soll ich dir mal was verraten: Das Spiel flimmert ohne SSAA wie die Hölle. Wer also früher gegen das AF-flimmern wetterte, müsste eigentlich der erste sein, der dem SSAA Wahn verfallen wäre. Aber hier kommen wir wieder zum Punkt, dass dich nicht das AF-Flimmern störte, sondern es nur der Aufhänger für einen nVidia-Flame Artikel darstellte.
Nein. Kann sein, dass du recht hast. Kann aber auch sein, dass du übertreibst. Du kannst ja mal ein Video mit und eins ohne SSAA machen (auch ohne SSAO, weil das magst du ja nicht).

LovesuckZ
2011-05-04, 18:47:32
Ich rede von Q (Treiberdefault). Aber ist ja gut. Beruhige dich wieder.

Das bei AMD genauso wenig "toll" aussieht. Dagegen hatte man bei nVidia die Möglichkeit es mit HQ zu ändern. Aber solche "Details" sind dir egal. Dieses Verhalten wird nur von denen angewendet, denen es nicht um das Thema, also hier AF-Flimmern, geht, sondern um reine Propaganda


Verzicht. Ja eh. Verzicht auf SGSSAA aufgrund von Inkaufnahme der doppelten Verlustleistung. Genau. Das propagiere ich.

Und wieso sollte man bei SGSSAA schon aufhören? Hohe Auflösungen, Spieledetails etc. SSAO kostet in Dragon Age 2 auf einer nVidia zwischen 50-60% an Leistung für eine "Nonsens-verbesserung" im Spiel, die man null wahrnimmt, weil man niemand dauernd an irgendwelchen Wänden langläuft.
Aber solche Details kann man ignorieren, stimmts?


Ach komm. Die vergleiche sind lächerlich. Hol ein xbeliebiges Spiel und zeigs einmal mit 720p ohne AA/AF, dann mit 1080p und MSAA/2xSSAA/Downsampling und dann mit 1080p und min 4xSS wofür man SLI braucht.

Schau dir meine Videos zu Dragon Age 2 an. Wenn dir die Unterschiede nicht auffallen, dann brauchst du weder alle Details noch hohe Auflösungen.


Nein. Kann sein, dass du recht hast. Kann aber auch sein, dass du übertreibst. Du kannst ja mal ein Video mit und eins ohne SSAA machen (auch ohne SSAO, weil das magst du ja nicht).

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8707753&postcount=331

Raff
2011-05-04, 19:05:32
Außerdem cheatet AMD nicht in Form von absichtlicherer BQ-Absenkung über Treiber - die HW kanns schlichtweg nicht besser.

Und das ist viel schlimmer als Treiber-"Optimierungen". Letztere kann man wenigstens mit Druck abschalten lassen, während Krüppel-Hardware Krüppel-Hardware bleibt. Hoffentlich hat Ati die seit 2005 bestehende und immer lauter werdende Kritik schon bei Southern Islands beherzigt. :)

MfG,
Raff

Coda
2011-05-04, 20:54:18
Die nächste Hardware dürfte nach meinen Infos gefixt sein. Der Tapeout war danach ;)

Tesseract
2011-05-04, 21:13:30
Outofthebox funktioniert AA bei ATI besser als bei NV. (zB.Bioshock2 DX9, MoH, Arma2 SSAA,...).Wenn man mit externen Tools herumtweaken (böse Zungen würden „ herumfrickeln“ sagen) will, ist man wohl mit NV besser bedient ;)
also ich hab auf der 5870 mehr als nur ein spiel in die ecke gelegt um es irgendwann später auf einer nvidia karte zu spielen wegen diversen profil-problemen obwohl die karte theoretisch 3 mal schnell genug gewesen wäre.
nicht nur was AA sondern z.B. auch v-sync und solche dinge angeht.
da ist mir 2 minuten gefrickel im treiber lieber als 20 minuten gefrickel in den configfiles des spiels um vielleicht doch (auch auch nicht) irgendwie an die einstellungen zu kommen.

Nakai
2011-05-04, 22:23:58
Die nächste Hardware dürfte nach meinen Infos gefixt sein. Der Tapeout war danach ;)

Naja hoffen wir.

also ich hab auf der 5870 mehr als nur ein spiel in die ecke gelegt um es irgendwann später auf einer nvidia karte zu spielen wegen diversen profil-problemen obwohl die karte theoretisch 3 mal schnell genug gewesen wäre.
nicht nur was AA sondern z.B. auch v-sync und solche dinge angeht.
da ist mir 2 minuten gefrickel im treiber lieber als 20 minuten gefrickel in den configfiles des spiels um vielleicht doch (auch auch nicht) irgendwie an die einstellungen zu kommen.

Mhh, ich hatte noch nie Probleme mit ner ATI. Aber auch noch nie Probleme mit ner Nvidia. Hab derzeit ne GTS450 im PC.
Ich bin eh kein Poweruser, nimm aber gerne die Features der Nvidiakarten mit. ;)
Leider werden die Sachen, für die Nvidia frühers sehr prädestiniert war, von Nvidia nicht mehr so unterstützt, wie es frühers war. Siehe hierbei 3DStereo.


mfg

Coda
2011-05-05, 02:43:53
Naja hoffen wir.
Um es kurz zu machen:

Ich habe AMD dabei geholfen, das Problem zu beheben und habe hier eine E-Mail, die besagt, das es in der nächsten HW-Gen (die noch nicht beim Tapeout war) gefixt ist. Ich denke das 32nm-Zeug ist damit sauber.

Können wir das Thema damit beenden?

Angiesan
2011-05-05, 10:11:33
Und wieder mal ein Thread der geschreddert ist herzlichen Glückwunsch,
was die letzten Beiträge wirklich mit dem Thema Multi GPU zu tun haben entzieht sich meiner Wahrnehmung, dass ein oder mehrere Mods dabei beteiligt sind macht es auch nicht richtiger.
Ich finde es zum Kot... das fast jeder Thread der von Interesse sein könnte zur Spielwiese von bestimmten Personen verkommt die mit alle Mitteln versuchen Ihren persönlichen Meinungsdifferenzen öffentlich auszutragen und dabei das eigentliche Thema oft verfehlt wird.

mik
2011-05-05, 10:22:06
OT:

@Angiesan:
Ich stimme dir voll und ganz zu, mir ist beim lesen der letzten Seiten immer wieder die Frage gekommen "Was hat das jetzt mit SLI vs. Crossfire zu tun?"

Es ist mehr ein Spiel nach dem Motto:

A: Ich finde deine Argumente/Meinung ekelhaft, blah blah
B: Nein ich deine
...

Angefangen hat der ganze Müll ja mit


...
Man muss schon sagen, wenn man keine Argumente mehr für seine Lieblingsfirma hat, muss man mit Nonsens kommen. Zum Glück schreibst du keine Reviews, sonst müsste man die ja aufgrund des Bias mal so richtig ignorieren.
...
Wow, sowas nennt man das verarschen oder? Blah, blah ....

Das manche Typen immer gleich persönlich werden, nur weil ihnen die Meinung anderer nicht passt, echt arm!

Bitte wieder back to topic oder close!

EDIT:
@Coda: Ich dachte immer das wäre eine Limitierung im Hardware-Design von AMD (Einsparung), wie hast du da helfen können?

Mr. Lolman
2011-05-05, 13:29:28
topic oder close!

EDIT:
@Coda: Ich dachte immer das wäre eine Limitierung im Hardware-Design von AMD (Einsparung), wie hast du da helfen können?

Kurz gesagt. Er hat Ihnen erklärt, worans bei der aktuellen Berechnung der 'AF-Blume' scheitert - sodass Sie die optimale Variante im neuen Design berücksichtigen können. Das war zwar noch vorm Release der Cayman, aber der hatte zu dem Zeitpunkt sein Tapeout schon hinter sich. Leider hatten sie beim Cayman bezügl. AF ein bisschen in die falsche Richtung entwickelt und sich primär darauf konzentriert (das ohnehin selten auftretende) Banding zu fixen. Mit dem eben bekannten Ergebnis, dass die Flimmerneigung nun höher ist, als beim Cypress*, und sich in gewissen Situationen doch noch Banding provozieren lässt.

*(und auch da, hat man im Rahmen der Möglichkeiten, die Treiber so optimiert, dass der Performance Modus mittlerweile der flimmerfreiste Modus ist - halt zu Lasten des LODs - und HQ der Modus ist, der zeigt, wie die HW unter Berücksichtigung des max. möglichen LODs generell filtern kann).

Letztes Wort zum 3DC-Test und meiner fehlenden Kritik gegen ATI: Ich hab kein einziges Wort verfasst, sondern nur die Benchmarks gemacht (-deren Settings übrigens von Leo gewählt wurden). Der gesamte Text stammt auch von Leo. Kritik daran also bitte künftig an Ihn richten und alles Weitere am Besten auch In dem dafür vorgesehen Thread posten. Danke.

Coda
2011-05-05, 23:52:26
@Coda: Ich dachte immer das wäre eine Limitierung im Hardware-Design von AMD (Einsparung), wie hast du da helfen können?
Es ist keine Einsparung, sondern ein Bug.

fondness
2011-05-06, 11:38:12
Es ist keine Einsparung, sondern ein Bug.

Bedeutet das auch, dass das fixen keine Performance kosten sollte, bzw. im Umkehrschluss das flimmern keine Performance bringt?

mik
2011-05-06, 12:18:29
Bedeutet das auch, dass das fixen keine Performance kosten sollte, bzw. im Umkehrschluss das flimmern keine Performance bringt?

Hoffen wirs!

EDIT: Gibts zu dem Thema eigentlich eine genauere Beschreibung des Sachverhalts?

Spasstiger
2011-05-06, 12:20:41
Bedeutet das auch, dass das fixen keine Performance kosten sollte, bzw. im Umkehrschluss das flimmern keine Performance bringt?
Korrekt, AMD spart keine Füllrate ein.

G 80
2011-05-15, 13:39:34
DH sie waren jetzt jetzt ziemlich genau 4 Jahre (und weiter laufend!), und ebensoviele Nachfolgegenerationen, nicht in der Lage oder Willens es zu fixen. :freak: ;D

Ich weis nicht, da wäre mir fast der konstante Cheat lieber. :uhippie:

Lowkey
2011-05-16, 10:15:44
Das SLI und CF auf der Sandy dermaßen gut ist hätte ich nicht gedacht. Die x8/x8 unterscheidet sich nicht von x16/x16.

http://www.tomshardware.de/p67-gaming-3-way-sli-Triple-crossfire-X,testberichte-240780.html

PHuV
2011-05-16, 14:41:28
Das SLI und CF auf der Sandy dermaßen gut ist hätte ich nicht gedacht. Die x8/x8 unterscheidet sich nicht von x16/x16.

http://www.tomshardware.de/p67-gaming-3-way-sli-Triple-crossfire-X,testberichte-240780.html

Das ist mal ein übersichtlicher und schöner Test. Interessant ist die Tatsache, daß der NF200-Chip nicht so viel bringt, wie ich dachte. Dann kann ich doch mal auf ein P67 umsteigen. :tongue: Oder doch warten, bis Ivy Brigde rauskommt. :uponder:

Das blöde bei diesen Boards sind die mangelnde PCIe-Plätze. 3 GKs + Soundkarte benötigen 3 (2x) breite PCIe 16x und einen schmalen PCIe 1/4x. Ansonsten muß man auf die ungünstigeren Onboardsound zugreifen.

Falls es jemanden interessiert:
System

Core i7-950 3,07Ghz @ 4,2 GHz
3 x GTX 580
12 GB Ram
EVga 4-Way-SLI
Win7 Ultimate 64
Die Höchstgrenze von 1071 W Verbrauch habe ich bisher nur mit Unigene 2.1 geschafft. Ansonsten dümpelt das System bei mir so bei 700-800 W im Spielebetrieb rum. Zudem sollte man auch bedenken, daß nicht nur die verbesserten Filter und diverse AA-Modi interessant für ein SLI/CF-System sind, sondern auch 3D-Darstellung, was bei diversen Spielen für eine gute FPS-Rate enorme Zusatzleistung benötigt

LovesuckZ
2011-05-16, 14:44:52
Das blöde bei diesen Boards sind die mangelnde PCIe-Plätze. 3 GKs + Soundkarte benötigen 3 (2x) breite PCIe 16x und einen schmalen PCIe 1/4x. Ansonsten muß man auf die ungünstigeren Onboardsound zugreifen.


Was unweigerlich aber auch zu einer Tortur bei der Suche nach einem passenden Gehäuse führt. Ich brauchte ein Gehäuse mit 8x PCI-Slots und habe das übersehen...

PHuV
2011-05-16, 14:51:21
Was unweigerlich aber auch zu einer Tortur bei der Suche nach einem passenden Gehäuse führt. Ich brauchte ein Gehäuse mit 8x PCI-Slots und habe das übersehen...

Mittlerweile gibt es glücklicherweise genügend Gehäuse, und als Berliner bin ich in der glücklichen Lage, caseking vor Ort mit dem Werksverkauf zu haben. Versuch mal ein 1200 W Netzteil von einem PC-Laden auf Lager zu kaufen, da wird man schon große Schwierigkeiten haben. :usad: Von einem 3-way oder 4-way-SLI-Board mal ganz zu schweigen.

Aber selbst mit einem HAF-X hätte man Probleme 4 2-Slot Karten zu verbauen, weil man unten nur einen Slot verbauen kann, und die Mainboard-Lage und Löcher keine Verschiebung zulässt.

Cubitus
2011-05-16, 15:40:32
Das ist mal ein übersichtlicher und schöner Test. Interessant ist die Tatsache, daß der NF200-Chip nicht so viel bringt, wie ich dachte. Dann kann ich doch mal auf ein P67 umsteigen. :tongue: Oder doch warten, bis Ivy Brigde rauskommt. :uponder:

Ich selber warte auf den Sockel 2011 (X79 Patsburg Chipsatz) mit dem Sandy Bridge E, sollte spätestens im Herbst erscheinen.

http://semiaccurate.com/assets/uploads/2011/03/x79-617x459.jpg

PHuV
2011-05-16, 16:47:47
Hm, dann warten wir gemeinsam. ;)

Dann wäre eine TSLI-Anbindung was? 16x 8x 8x, oder gleich alle 3 8x? Da müssen wir wohl bis zum Erscheinen abwarten.

dildo4u
2011-05-30, 19:39:59
4-way GPU Battle 2011: 2 x GTX 590, 2 x HD 6990, 4 x HD 6970, 4 x GTX 580

http://lab501.ro/placi-video/4-way-gpu-battle-2011-2-x-gtx-590-2-x-hd-6990-4-x-hd-6970-4-x-gtx-580

tombman
2011-05-30, 19:59:03
4-way GPU Battle 2011: 2 x GTX 590, 2 x HD 6990, 4 x HD 6970, 4 x GTX 580

http://lab501.ro/placi-video/4-way-gpu-battle-2011-2-x-gtx-590-2-x-hd-6990-4-x-hd-6970-4-x-gtx-580
:eek: :massa:

DAS nenn ich mal einen oldschool Test nach meinem Geschmack :D

Die 590er schlagen sich gar ned schlecht, und mit 4 580ern könnte ich noch +50% auf mein Sys rausholen- wenns nur nicht so sinnlos teuer wäre :ulol:

Raff
2011-05-30, 20:01:26
Du meinst: Du könntest die angezeigten Fps-Raten um 50 Prozent erhöhen. In Spielen killt's dir durch das 4-way-Gelagge und Mega-Mikr... äh, Makroruckeln jedes Gefühl von "Smoothness".

MfG,
Raff

tombman
2011-05-30, 20:16:01
del- hier stand Müll

Gouvernator
2011-05-30, 22:01:53
Also zb 50 fps mit 3 Gpus oder 75 fps mit 4 Gpus...hmm ;)

Worst Case (@100fps Cpu speed limit):

50fps -> 20ms -> 60ms für 3 -> 10-10-40 -> 40ms -> 25fps feel
75fps -> 13.3ms -> 53.2ms für 4 -> 10-10-10-23.2 -> 23.2ms -> 43fps feel ;)

4 Gpus gewinnen ;)
Was Mickroruckler angeht musst mal den neusten BETA Treiber probieren. Dort versuche mit den SLI Bits zu experementieren. Ich hab nämlich entdeckt das die bits die auf eine 6 enden die Mickroruckler komplett eliminieren. Das sind die Profile für Dirt1 und TOCA3.

boxleitnerb
2011-05-30, 23:02:19
Klingt interessant! Frametimes gemessen oder gefühlt?

Blaire
2011-05-30, 23:43:04
Was Mickroruckler angeht musst mal den neusten BETA Treiber probieren. Dort versuche mit den SLI Bits zu experementieren. Ich hab nämlich entdeckt das die bits die auf eine 6 enden die Mickroruckler komplett eliminieren. Das sind die Profile für Dirt1 und TOCA3.

Die "6" am Ende steuert nur die Anzahl der GPUs.

"5" 4-Way AFR
"6" 3-Way AFR
"4" SLI deaktiviert
"3" AFR of SFR
"2" SFR
"1" 2-Way AFR

G 80
2011-05-31, 00:38:08
"3" AFR of SFR



:confused:


links von rechts? :freak:;D ;)

Blaire
2011-05-31, 00:41:38
http://www.computerbase.de/artikel/grafikkarten/2006/test-nvidia-geforce-7950-gx2-quad-sli/23/

Ein "Hybride" wenn man so will. :wink:

Gouvernator
2011-05-31, 15:41:11
Klingt interessant! Frametimes gemessen oder gefühlt?
Erst gefühlt und dann auch gemessen! 30ms rockstable. Ist so ein Anti-Mikroruckler-Profil. Hab ich bei RIFT so entdeckt. Hab einfach was verzweifelt ausprobiert und dann zack alles flüssig. :eek: Ich dachte erst die eine Karte ist hops gegangen und SLI ist nicht mehr an... War wie ein Wunder fast 100% Auslastung und Null Mikroruckler. Übrigens Crysis DX10 ist auch total Mikroruckel-Free geworden! Zumindest bei Postprocessing auf High. Mit VeryHigh oder 8xAA gibts die immer noch.

DeadMeat
2011-05-31, 17:03:10
30ms? Wieviel ist das bei den anderen Profilen?

Gouvernator
2011-05-31, 21:36:27
30ms? Wieviel ist das bei den anderen Profilen?
Typische 10-50ms

boxleitnerb
2012-03-30, 04:36:33
Hier mal ein aktueller Test von HardOCP:
http://www.hardocp.com/article/2012/03/28/nvidia_kepler_geforce_gtx_680_sli_video_card_review

Auszug aus dem Fazit:

SLI smoothness vs. CrossFireX smoothness

We don't know what other descriptive word to use, other than "smoothness" to describe the difference we feel between SLI and CrossFireX when we play games. We've expressed this difference in gameplay feeling between SLI and CrossFireX in the past, in other evaluations, and we have to bring it up again because it was very apparent during our testing of 680 SLI versus 7970 CFX.

We can't communicate to you "smoothness" in raw framerates and graphs. Smoothness, frame transition, and game responsiveness is the experience that is provided to you as you play. Perhaps it has more to do with "frametime" than it does with "framerate." To us it seems like SLI is "more playable" at lower framerates than CrossFireX is. For example, where we might find a game playable at 40 FPS average with SLI, when we test CrossFireX we find that 40 FPS doesn't feel as smooth and we have to target a higher average framerate, maybe 50 FPS, maybe 60 FPS for CrossFireX to feel like NVIDIA's SLI framerate of 40 FPS. Only real-world hands on gameplay can show you this, although we can communicate it in words to you. Even though this is a very subjective realm of reviewing GPUs, it is one we surely need to discuss with you.

The result of SLI feeling smoother than CrossFireX is that in real-world gameplay, we can get away with a bit lower FPS with SLI, whereas with CFX we have to aim a little higher for it to feel smooth. We do know that SLI performs some kind of driver algorithm to help smooth SLI framerates, and this could be why it feels so much better. Whatever the reason, to us, SLI feels smoother than CrossFireX.

Es ist nicht das erste Mal, dass ich das lese, sowohl von HardOCP in diversen früheren Tests als auch von Nutzern, die schonmal CF und SLI gehabt haben. Was ich an HardOCP schätze ist, dass sie nicht nur stumpf ihre Benchmarks durchmachen und dem Leser ein paar Zahlen ohne Kommentar oder mit kurzer kalter Analyse vorklatschen, sondern sie spielen tatsächlich und versuchen, ihre Erlebnisse dabei in Worte zu fassen.

Im Endeffekt frisst dieses Phänomen etwaige bessere Grundperformance bzw. bessere Skalierung von CF wieder auf und kann u.U. gar einen Nachteil bei der Spielbarkeit bedeuten. Frametimemessungen mit fraps sind problematisch, weil die Messungen (zumindest auf Nvidia-Seite aufgrund der Frame-Metering Technologie, die Nvidia implementiert hat) zu früh im "Bildlieferungsprozess" stattfinden, um das Nutzererlebnis akkurat wiederzugeben, wie techreport hier schreibt:

http://www.abload.de/thumb/nv-slideiqjul.gif (http://www.abload.de/image.php?img=nv-slideiqjul.gif)
http://techreport.com/articles.x/21516/11

Things begin with the game engine, which has its own internal timing and tracks a host of variables, from its internal physics simulation to graphics and user input. When a frame is ready for rendering, the graphics engine hands it off to the DirectX API. According to Petersen, it's at this point that Fraps records a timestamp for each frame.

(...)

Now, take note of the implications here. Because the metering delay is presumably inserted between T_render and T_display, Fraps would miss it entirely. That means all of our SLI data on the preceding pages might not track with how frames are presented to the user. Rather than perceive an alternating series of long and short frame times, the user would see a more even flow of frames at an average latency between the two.

Im Grunde heißt das, dass man die Flüssigkeit von SLI und CF mit Fraps-Messungen gar nicht unbedingt vergleichen kann, sondern man muss wirklich beide Systeme da haben und selbst spielen, am besten gleichzeitig und nebeneinander, sonst ist die Vergleichbarkeit natürlich eingeschränkt.

Knuddelbearli
2012-03-30, 04:57:09
Jap da hat er sicher absolut recht. Problem ist halt das sowas immer sehr subjektiv ist und für den Leser nicht nachvollziehbar. Ein Kollege von mir zB ist gegen Mikroruckler recht immune dafür empfindet erden Inputlag als ein absolutes nogo.

Bei Bildqualität hat man zumindest noch Vergleichscreenshots und Videos.

Aber wie gesagt Recht haben sie absolut ist aber auch nichts neues. 40 vs 60FPS fürs selbe gefühl finde ich aber zugegebenermaßen recht heftig, das ist ja fats der ganze zugewinn durch CF. Oder ist das ein reines Zahlenbeispiel?

boxleitnerb
2012-03-30, 05:05:11
Da sie selbst gespielt haben, eher ersteres. Wobei der "Subjektivfaktor" sicherlich sehr hoch ist.

-=Popeye=-
2012-03-30, 18:03:54
Wer findet den Fehler?

Keep in mind, the memory capacity on GTX 580 SLI is 1.5GB per GPU, and on GTX 680 SLI it is 2GB per GPU and on 7970 CFX it is 3GB per GPU. In SLI and CFX this is not combined, as each GPU must have a copy of the framebuffer, so only the total capacity of one GPU is your max VRAM capacity for SLI and CFX.

http://www.hardocp.com/images/articles/1332910830lxuqiwXcM0_5_3.gif

boxleitnerb
2012-03-30, 18:13:56
Auslesefehler. Ist bei Afterburner+Radeon soweit ich weiß nicht ungewöhnlich. Oder es wird der Wert eines virtuellen Speichers zurückgegeben? Die tatsächliche Belegung ist das natürlich nicht.

-=Popeye=-
2012-03-30, 18:20:32
Naja ich würde sagen die Anzeige ist schon korrekt, die müssen den Wert halt nur durch 2 teilen.

boxleitnerb
2012-03-30, 18:22:13
Wird der VRAM bei CF immer doppelt angezeigt? Bei SLI ist es einfach, da muss man nichts halbieren.

-=Popeye=-
2012-03-30, 18:28:00
Würde ich schon so sehen, der virtuelle Speicher kann es ja nicht sein der steigt doch auch nicht mit den höheren Grafikanforderungen.

boxleitnerb
2013-02-21, 21:50:00
In ihrem aktuellen Titan-Test hat PC Perspective erstmals Resultate ihrer Frame-Rating Methode präsentiert. Dabei greifen sie mit einer DVI-Capture-Karte direkt am Ausgang der Grafikkarte den Datenstrom ab, umgehen damit Fraps und können das, was dem Anwender auch wirklich angezeigt wird, analysieren. Hier wird die Methodik recht ausführlich vorgestellt:
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric

Es wurden schon recht viele Messungen gemacht laut PCPER, aber vorerst haben sie nur BF3 präsentiert, der Rest soll bald folgen.
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Performance-Review-and-Frame-Rating-Update/Frame-Rat

Kurz und knapp: Es bestätigt sich zumindest in diesem Fall das, was viele andere Seiten schon längst aufgrund ihrer subjektiven Eindrücke schildern: SLI ist flüssiger als Crossfire - der Unterschied ist extrem, anders kann man das nicht ausdrücken. Vor allem sieht man hier, dass Nvidia anscheinend wirklich ein Frame Metering implementiert hat, das von Fraps nicht gemessen werden kann, denn die Fraps-Resultate sehen schlechter aus als das, was nachher bei SLI wirklich am Monitor ankommt.

Links Fraps zum Vergleich und rechts das abgegriffene Datenmaterial:
http://www.abload.de/thumb/fr-5_08adt5.png (http://www.abload.de/image.php?img=fr-5_08adt5.png) http://www.abload.de/thumb/fr-2_0tpdjj.png (http://www.abload.de/image.php?img=fr-2_0tpdjj.png)

Es treten auch Frames auf, die von Fraps mitgezählt werden, aber laut PCPER gar nicht wirklich zur Performance beitragen, denn sie werden viel zu kurz angezeigt, als dass auf dem Monitor davon viel zu sehen wäre. Links CF, rechts SLI. Bei CF sieht man den ganz dünnen Streifen, der ein Frame darstellen soll:
http://www.abload.de/thumb/fr_cf_2m8q22.jpg (http://www.abload.de/image.php?img=fr_cf_2m8q22.jpg) http://www.abload.de/thumb/fr_sli_2yhrr2.jpg (http://www.abload.de/image.php?img=fr_sli_2yhrr2.jpg)

Wenn man diese sehr kurzen Frames, anders als Fraps es tut, nicht mitzählt, sieht die Skalierung für CF gelinge gesagt mies aus:
http://www.abload.de/thumb/fr-1_0xuo7a.png (http://www.abload.de/image.php?img=fr-1_0xuo7a.png)

Ich finde diese Methode sehr interessant und hoffe, dass es bald noch viel mehr Datenmaterial gibt. Vor allem fällt damit endlich der subjektive Faktor raus, den viele immer kritisiert haben.

G 80
2013-02-21, 22:26:51
Endlich, wobei man sagen muss CF ist ja viiiiiiiiiiiiiiieeeeeeel schlimmer als irgendwer vermutet hätte.


Va bei der bereinigten CF Skalierung bin ich erschüttert. Streichen die zu rigoros Frames raus oder ist CF wirklich so unendlich scheiße.

Da muss ich vorläufig bei mir ein ? stehen lassen. So schlecht kann ich selbst bei CF nicht einfach so glauben ....

fondness
2013-02-21, 22:32:24
Es bleibt dabei das es Framelimiter ausreicht um perfekte Frametimes zu bekommen.

RoughNeck
2013-02-21, 22:44:21
Wobei, wer spielt schon ohne Framelimiter?!
Wer Multi GPU hat und ohne fixe FPS zockt, der ist hart im nehmen. Bei der 690 hat es mich auch gestört wenn die FPS von 100 plötzlich auf 70 vielen.

Mein CrossFire läuft geschmeidig und das ist dass was für mich zählt.

boxleitnerb
2013-02-22, 07:24:14
Nur dass man eben je nach Spiel mit Framelimiter sich die zweite Karte fast sparen kann, weil die Skalierung deutlich einbricht. Bei SLI ist das nicht wirklich nötig, solange man (bei Fermi, bei Kepler kann es anders sein) bei 50+ fps bleibt. Da gibt es jetzt absolut nichts mehr schönzureden. Wer das tut, verschließt die Augen vor der Realität.

Dass die fps generell schwanken wie in deinem Beispiel hat ja nichts mit MultiGPU zu tun, das kann genauso bei einer GPU passieren. Läufste in Skyrim rum, schaust auf einen Berg, drehst dich um zum dichten Wald und die fps halbieren sich.

-=Popeye=-
2013-02-22, 08:32:34
Wobei, wer spielt schon ohne Framelimiter?!
Wer Multi GPU hat und ohne fixe FPS zockt, der ist hart im nehmen. Bei der 690 hat es mich auch gestört wenn die FPS von 100 plötzlich auf 70 vielen.

Mein CrossFire läuft geschmeidig und das ist dass was für mich zählt.

:facepalm:

Jaja Hauptsache nV dissen, bei der 690 hätteste die Frames auch limitieren können.

Gouvernator
2013-02-22, 10:34:52
Naja mit dem Framelimiter es stimmt schon. Ab einem bestimmten Punkt kann man auf den kaum verzichten. Bei Quad-SLI ist es der Wahnsinn 1.5kW für ~100 FPS zu verbraten, allein wegen Heizwirkung im Zimmer...

Tesseract
2013-02-22, 12:38:31
Wobei, wer spielt schon ohne Framelimiter?!
wer spielt mit framelimiter? ein statischer framelimiter macht doch den bildwechsel noch kaputter als microruckler.
eine synchonisierte halbierung der drittelung der monitorfrequenz lasse ich mir ja noch irgendwie einreden...

L233
2013-02-23, 12:57:03
Ich glaube, PC Perspective haben gerade Crossfire getötet. Interessant ist allenfalls noch, wie es mit Vsync aussieht.

aufkrawall
2013-02-23, 13:02:57
wer spielt mit framelimiter? ein statischer framelimiter macht doch den bildwechsel noch kaputter als microruckler.
eine synchonisierte halbierung der drittelung der monitorfrequenz lasse ich mir ja noch irgendwie einreden...
Kommt ja auch auf die fps-Rate an. Ein Limit von 60fps bei 60Hz ist wirklich der Tearing-Alptraum schlechthin, völlig unbrauchbar.
63fps sind aber schon deutlich besser und 70fps auch nochmal.
Wobei 70fps etwa bei Crysis 3 natürlich völlig illusorisch sind.
Da brauchts echtes Vsync, damit etwa bei Cutszenes oder Lichtflackern einem nicht die ganze Immersion gekillt wird.
Hoffe deshalb ganz stark, dass Nvidia's AFR-Vsync auch ohne adaptiv bei 2-Way bald mal richtig funktioniert.

Tesseract
2013-02-24, 13:08:42
Kommt ja auch auf die fps-Rate an. Ein Limit von 60fps bei 60Hz ist wirklich der Tearing-Alptraum schlechthin, völlig unbrauchbar.
63fps sind aber schon deutlich besser und 70fps auch nochmal.
Wobei 70fps etwa bei Crysis 3 natürlich völlig illusorisch sind.
Da brauchts echtes Vsync, damit etwa bei Cutszenes oder Lichtflackern einem nicht die ganze Immersion gekillt wird.
Hoffe deshalb ganz stark, dass Nvidia's AFR-Vsync auch ohne adaptiv bei 2-Way bald mal richtig funktioniert.

mit 60@60 ist das tearing halt (relativ) lokal in einem bestimmten bereich vom bild. mit raten die davon abweichen wandert das tearing je nach relation verschieden schnell durchs bild. ist beides absolut grausam.

Godmode
2013-02-24, 13:31:57
In ihrem aktuellen Titan-Test hat PC Perspective erstmals Resultate ihrer Frame-Rating Methode präsentiert. ....

Wow, ich hätte nicht gedacht, dass es wirklich so schlimm ist. :freak:
Hab ja schon mit dem Gedanken gespielt auf Radeons umzusteigen.

boxleitnerb
2013-02-24, 13:35:53
Man muss fairerweise aber auch anmerken, dass diese Methode sich wohl das Tearing zunutze macht. D.h. diese Ergebnisse sind nur relevant wenn kein VSync zum Einsatz kommt oder wenn man weniger fps hat als VSync vorgegeben.
Allerdings empfinde ich gerade Letzteres als besonders kritisch (zumindest bei 60 Hz), weil die Mikroruckler schlimmer werden, je geringer die fps sind. Deutlich unter 60 (so 50 abwärts) ist schon bei SLI gelegentlich unschön, bei CF wohl erst recht.

Wobei ich bislang nicht pauschal sagen könnte, ob VSync die Sache nun besser oder schlechter macht. Beides konnte ich beobachten, systematische Untersuchungen habe ich allerdings nicht durchgeführt.

G 80
2013-02-24, 14:57:36
VSync kommt auf Programm und individuelle Vorliebe an.


Aber CF hat damit (Bestätigung der Annahmen durch die Vorabinfo vorrausgesetzt - bin da immernoch in ungläubigen Staunen) jede Berechtigung verloren .....

Situation 1: 25 FPS - unspielbar. 45 CF FPS - Unspielbar. Evtl 30 FPS Vsync. lol. :freak:

Situation 2: 40 FPS - geht wohl je nach Engine und MR auf SGPU. 70 FPS MGPU die hoffentlich geradso vielleicht brauchbar für 60 FPS Sync/limit sind. Zusammen mit VSync Nachteilen evtl aber nicht besser als SGPU. -> Toll. :freak:

Ich frag mich bei sowas wo die Quad CF Leute sind, möchte die Mal Versuchsweise mit ner dünnen Nadel stechen ob die überhaupt noch Schmerzen spüren. :eek::freak:;D



Hab ja schon mit dem Gedanken gespielt auf Radeons umzusteigen.


#2 weil NVs mit-dem-Arsch-ins-Gesicht-springen möchte ich nicht Unterstützen, aber ATIs ATI-kann-die Gesundheit-ihrer-Frames-gefährden-Schocktherapie ist auch nicht ohne. :freak:

Godmode
2013-02-24, 15:56:53
#2 weil NVs mit-dem-Arsch-ins-Gesicht-springen möchte ich nicht Unterstützen, aber ATIs ATI-kann-die Gesundheit-ihrer-Frames-gefährden-Schocktherapie ist auch nicht ohne. :freak:

Schön ausgedrückt. ;D

Wollte ich vor drei Tagen auch noch machen dann kam Crysis 3. :facepalm:

Finch
2013-02-24, 20:43:08
Ich frag mich bei sowas wo die Quad CF Leute sind, möchte die Mal Versuchsweise mit ner dünnen Nadel stechen ob die überhaupt noch Schmerzen spüren. :eek::freak:;D







Kandidat für den Satz des Jahres;D

Butterfly
2013-03-01, 15:25:20
Wow, ich hätte nicht gedacht, dass es wirklich so schlimm ist. :freak:
Hab ja schon mit dem Gedanken gespielt auf Radeons umzusteigen.
Naja, wenn man es genau nimmt, ist es nur mit einem Intel Unterbau so schlimm.
So üble Frametimes wie pcper ermittelt hat, hab ich noch nicht mal provozieren können.

:tongue:

Godmode
2013-03-01, 17:36:58
Naja, wenn man es genau nimmt, ist es nur mit einem Intel Unterbau so schlimm.
So üble Frametimes wie pcper ermittelt hat, hab ich noch nicht mal provozieren können.

:tongue:

Hast du dir den Artikel gelesen? Ich denke nicht das du so messen kannst wie die. Die haben extra Hardware dafür angeschafft und messen am Displayausgang und nicht nur mit Fraps. Man muss den gesamten Artikel abwarten, bevor man ein Urteil ziehen kann. VSync, Framelimiter etc...

pest
2013-03-02, 17:47:19
Ich finde das Verfahren irgendwie seltsam?! Warum lassen die Frametimes weg? Die Messungen sind von so vielen zusätzlichen Timingverhalten abhängig...ich weiß nicht :>

Allgemein muss ich sagen, auch weil ich mir mit Frappo einige CF, SLI, 3-SLI, 4-SLI Sachen anschauen konnte.

Es hängt immer vom Game und der Szene ab wie man das Ganze bewertet. Je älter das Game desto besser das Verhalten. Kritisch sind z.B. zur Zeit Valley-Bench und Crysis3

Manche Ergebnisse von 3-SLI und 4-SLI haben mich erstaunt, das steht Single-GPU in Nichts nach!

Würde mich freuen, wenn mir jemand mal Werte eines CF-Gespanns schicken würde. Vorzugsweise BF3, Crysis1/2/3, Farcry3 usw. - Frameratenbereich ist egal.

Godmode
2013-03-02, 20:04:23
Ich finde das Verfahren irgendwie seltsam?! Warum lassen die Frametimes weg? Die Messungen sind von so vielen zusätzlichen Timingverhalten abhängig...ich weiß nicht :>

Allgemein muss ich sagen, auch weil ich mir mit Frappo einige CF, SLI, 3-SLI, 4-SLI Sachen anschauen konnte.

Es hängt immer vom Game und der Szene ab wie man das Ganze bewertet. Je älter das Game desto besser das Verhalten. Kritisch sind z.B. zur Zeit Valley-Bench und Crysis3

Manche Ergebnisse von 3-SLI und 4-SLI haben mich erstaunt, das steht Single-GPU in Nichts nach!

Würde mich freuen, wenn mir jemand mal Werte eines CF-Gespanns schicken würde. Vorzugsweise BF3, Crysis1/2/3, Farcry3 usw. - Frameratenbereich ist egal.

Im ersten Test haben sie ohne VSync getestet und wenn ein Frame nicht auf dem Schirm zu sehen ist, haben sie es auch nicht gemessen. Der ganze Test kommt erst später online, da wird man dann auch Werte mit VSync etc. sehen.

Also wenn ich ohne VSync spiele und 5 Bilder auf dem Schirm habe, wo aber 3 davon nur 2-5 Pixel hoch sind, dann verstehe ich das durchaus, warum die nicht gezählt werden.

Butterfly
2013-03-03, 17:22:25
@Godmode
Ich beziehe mich auf die beiden Grafiken:

Links Fraps zum Vergleich und rechts das abgegriffene Datenmaterial:
http://www.abload.de/thumb/fr-5_08adt5.png (http://www.abload.de/image.php?img=fr-5_08adt5.png) http://www.abload.de/thumb/fr-2_0tpdjj.png (http://www.abload.de/image.php?img=fr-2_0tpdjj.png)

Die Abgreifkarte arbeitet nur mit 60Hz, wie sollen da Framtimes von 0ms bzw. von unter 16.66 ms gemessen werden? ;D

pest
2013-03-03, 18:21:07
Ich hatte jetzt Gelegenheit mir auch ein paar neuere CF Sachen anzuschauen.

Mein kurzes Fazit: Kein Vergleich zu den Benches die ich von einer 3870X2 gesehen habe.

Also BF3 kann man z.B. getrost auf 2/3/4-SLI oder CF spielen.

Godmode
2013-03-03, 20:38:39
@Godmode
Ich beziehe mich auf die beiden Grafiken:

Die Abgreifkarte arbeitet nur mit 60Hz, wie sollen da Framtimes von 0ms bzw. von unter 16.66 ms gemessen werden? ;D

Keine Ahnung.

Godmode
2013-03-06, 00:08:52
Hab jetzt mal ausgiebig Crysis 3 mit Titan und Titan SLI gespielt. Ich kann sagen das das Spielgefühl mit SLI deutlich besser ist. Wenn die GPUs voll ausgelastet werden und die FPS irgendwo bei 90-100 sind, ist die Steuerung direkter als mit nur einer Karte. Wenn die Frames einbrechen, bzw. man im CPU-Limit ist, kommt es mir mit zwei Karten aber ruckliger vor.

Ich bin jetzt über das Ergebnis sehr erstaunt, wo doch immer ziemlich hergezogen wird über AFR. In den nächsten Tagen werde ich das noch mit 3-Way und 4-Way testen.

Tests:
Multi GPU mit Adaptive VSync und Smooth AFR Flag
Single GPU mit Adaptive VSync und Smooth AFR Flag On und Off

Fazit: Titan SLI in Crysis3 besser als Single Titan. Ich sage das ohne SLI oder sonstiges Nvidia Zeugs pushen zu wollen. Hersteller sind mir schnuppe, solange sie für mich gutes Zeug liefern.

Mich würde eine Meinung von Raff oder Tobi dazu interessieren, die ja immer eine sGPU einer mGPU Lösung vorziehen. Ich kann mir nicht vorstellen, dass meine Wahrnehmung so dermaßen verkackt ist.

pest
2013-03-06, 05:11:41
Crysis3 hat aber imo noch erkennbares Mikroruckeln mit dem aktuellen Treiber

ob man es merkt, ist eine andere Geschichte

G 80
2013-03-06, 14:20:12
Man möge mir kurzes OT vergeben: Sag mal GM kannst du mir dieses AFR Smooth erklären?

Ich weis wo die Option ist und wie ich sie benutze. Ich weis auch das die Wirkung hauptsächlich besteht schnell VSync 30/60 Wechsel zu verhindern und das nur bei Leistungspolster/Mangel zu tun.

Nun hab ichs in Metro ausprobiert. Meistens 60 FPS und etwas Reserve .... kann natürlich auch in die 5x droppen. Nervt dann wenns gradso 60, nciht 60, 60, nicht 60 Stelle ist. Vsync, generell, brauch ich in Metro weil das sonnst teart ...

Mit AFR Smooth hab ich dann fast ständig 30 FPS, die Karten roderln bei 3x-4x % herum UND der Übergang wenns mal auf 60 und zurück geht nervt immer noch. :freak:

Ich glaub, besser ich hoffe, ich benutzes mur falsch ....... ?

Godmode
2013-03-06, 14:38:57
Man möge mir kurzes OT vergeben: Sag mal GM kannst du mir dieses AFR Smooth erklären?

Ich weis wo die Option ist und wie ich sie benutze. Ich weis auch das die Wirkung hauptsächlich besteht schnell VSync 30/60 Wechsel zu verhindern und das nur bei Leistungspolster/Mangel zu tun.

Nun hab ichs in Metro ausprobiert. Meistens 60 FPS und etwas Reserve .... kann natürlich auch in die 5x droppen. Nervt dann wenns gradso 60, nciht 60, 60, nicht 60 Stelle ist. Vsync, generell, brauch ich in Metro weil das sonnst teart ...

Mit AFR Smooth hab ich dann fast ständig 30 FPS, die Karten roderln bei 3x-4x % herum UND der Übergang wenns mal auf 60 und zurück geht nervt immer noch. :freak:

Ich glaub, besser ich hoffe, ich benutzes mur falsch ....... ?

Also es gibt Spiele da funktioniert das nicht gut, zb. Diablo3. Ich kann jetzt nur von C3 reden, da hab ich das ergiebig getestet. Ich weiß auch nicht genau wie es funktioniert, nur das es sich gut anfühlt.

Ich verwende diese Einstellungen:
http://www.abload.de/img/desktop_2013_03_06_140uuof.png

G 80
2013-03-06, 14:55:36
Oh, ich hatte zwischen den beiden Punkten im Profil die Tear Control nicht auf adaptive gestellt ....


Mal heute Abend ausprobieren - oder halt Pech gehabt bei Metro.


Danke dir aufjedenfall für die Hilfe.:up:

Godmode
2013-03-06, 15:08:27
Oh, ich hatte zwischen den beiden Punkten im Profil die Tear Control nicht auf adaptive gestellt ....


Mal heute Abend ausprobieren - oder halt Pech gehabt bei Metro.


Danke dir aufjedenfall für die Hilfe.:up:

Das ist wichtig, ohne dem funktioniert es nämlich nicht.

Nightspider
2013-03-06, 16:23:39
Und, wie nah kommt das T-SLI Gespann deinem alten 690-SLI Gespann von der Leistung her gefühlt?

Godmode
2013-03-06, 16:54:27
Und, wie nah kommt das T-SLI Gespann deinem alten 690-SLI Gespann von der Leistung her gefühlt?

Es laufen erst zwei Karten, da das neue Netzteil erst morgen kommt.

Blaire
2013-03-06, 17:55:35
Oh, ich hatte zwischen den beiden Punkten im Profil die Tear Control nicht auf adaptive gestellt ....


Mal heute Abend ausprobieren - oder halt Pech gehabt bei Metro.


Danke dir aufjedenfall für die Hilfe.:up:

Metro ist auch ein Sonderfall dort sind möglichst viel FPS Pflicht, Vsync Smooth funktioniert gefühlt am Besten meiner Meinung nach , Treiber-FPS Limiter oder Standard-Vsync helfen nur bedingt bzw. die Steuerung ist dann zu schwammig.
http://www.abload.de/img/frappo1leard.png
Mit 4xSGSSAA zusätzlich braucht man schon ~60-70fps für optimales Gaming.

Das ist wichtig, ohne dem funktioniert es nämlich nicht.

Doch tut es. :)

PHuV
2013-03-06, 18:22:22
In ihrem aktuellen Titan-Test hat PC Perspective erstmals Resultate ihrer Frame-Rating Methode präsentiert. Dabei greifen sie mit einer DVI-Capture-Karte direkt am Ausgang der Grafikkarte den Datenstrom ab, umgehen damit Fraps und können das, was dem Anwender auch wirklich angezeigt wird, analysieren.


Die Karte ist wirklich nicht billig, schlappe 1895 $

http://www.rsnmedical.com/Datapath-VisionDVI-DL.html

Ich verstehe aber ganz den Weg nicht, haben die beim Spiele-PC dann einfach den Ausgang auf 2 DVIs geklont?

Godmode
2013-03-06, 19:12:29
Doch tut es. :)

Ok dann bin ich da nicht auf dem Laufenden. Dachte immer das funkt nur mit Adaptive VSync.

G 80
2013-03-07, 17:13:24
Was für eine Drecksengine ist den das? Ich dachte ich könnte allmählich mal Flüssig spielen aber nö. Ok es läuft besser als auf der MR Hölle der ATI Karten, die ich letztens bestaunen durfte, aber das wars dann auch:

Vync: Nicht ganz Smooth. Zwar meistens auf 60 FPS manchmal/(oft genug) aber wien drop. -> Leistungsreserve vorhanden.
VSync + AFR Smooth: Meistens nur 30 FPS UND nicht Smooth. :freak: -> Karten frierts.
VSync + AFR Smooth + Adaptive: Meistens 60 FPS ABER sichtbare Drops (tw 4xer!) trotz massig Reserve.
Nichts: Frames wie ein Balkentraum aber Tearing.

http://www.abload.de/thumb/metro2033-nichtspmyww.png (http://www.abload.de/image.php?img=metro2033-nichtspmyww.png)


Das einzige was mir jetzt noch einfällt ist mit SGSSA (die Glättung ist so eh Dreck) die Framrate zu keulen und mit hoffentlich wenig Tearing zu spielen.
Alternativ ne 120 hz Röhre/Monitor hinstellen. :freak:;D


http://www.abload.de/thumb/metro2033-esgssam8ape.png (http://www.abload.de/image.php?img=metro2033-esgssam8ape.png)

Und so toll ist die enhanced SG-Glättung in Bewegung nicht. Muss wenn Zeit ist mal schauen was ist wenn ich das behavior flag raushaue und override .... wobei dann ganz sicher wieder die Leistung nicht reicht, ist ja jetzt schonwieder ne Zitterpartie ohne Reserve .....



Man vergebe mir erneut das OT und nochmal Danke im Voraus an Blaire und GM.

Godmode
2013-03-09, 00:05:28
Nach vielen Tests kann ich jetzt ein paar Dinge berichten:

4-Way-SLI:
- Sehr einfaches Setup: Karten rein, Bridge drauf, Treiber installiert, SLI aktiviert, fertig
- Bringt sehr hohe Scores beim Benchmarken, etwas OCing und schon Platz 3 in der 3DMark2011 Extreme Hall of Fame (http://www.3dmark.com/hall-of-fame-2/3dmark+11+3dmark+score+extreme+preset/version+1.0.4)
- Skalierung ist in den üblichen Benchmarks gut und auch in Crysis 3 hervorragend. Andere Spiele hab ich jetzt nicht getestet.
- Macht unglaublich viel Hitze, Kiste braucht mit OCing unter Volllast 1350W
- Also ohne Wakü wird das auf Dauer nichts, ich hätte Angst das irgendwas abbrennt, obwohl der Rechner in einem 12°C Raum steht, wo das Fenster offen ist.
- Um den Karte die ganze Leistung zu entlocken, muss man sie fast unter Wasser setzen, IMO
- Zum Spielen ist es eher nicht zu gebrauchen, da man sehr hohe Frameraten braucht um ein flüssiges Spielgefühl zu erhalten
- Man kann zwar sehr hohe Settings fahren und die FPS sind gut, aber durch das Micro Stuttering fühlt sich das Ganze dann nicht so toll an
- 120Hz Monitor ist IMO Pflicht


Ich hatte ja vorher mit zwei Titan gespielt, da das Netzteil noch nicht da war und insgesamt hat mich das mehr überzeugt.

edit: Das ist ein Crosspost, ausm Luxx.

Godmode
2013-03-10, 00:47:40
Einen Pluspunkt für SLI habe ich gerade entdeckt:
Wenn man mit 3D-Vision spielt, ist eine GPU mit Crysis 3 deutlich überfordert. Mit 2-Way-SLI geht das ohne Probleme. Habe den Verdacht das da kein AFR verwendet wird, sondern so etwas wie schon bei den SLI-AA Modi. Dh. eine GPU rechnet für das linke Auge die andere für das Rechte.

Mit 3 oder 4 GPUs und 3D-Vision habe ich hingegen arges Bildflackern.

Angiesan
2013-03-10, 01:12:30
Das wundert mich jetzt aber, da C3 eigentlich gar nichts verliert wenn man das 3D Vision zuschaltet, zumindest nicht hier mit einer GTX 690.
Aber ja ich hatte ja schon mal geschrieben, dass ich das 3D Zeugs schon fast an den Nagel gehängt hatte da es mit einer Karte einfach keinen Spaß macht mit SLI fühlt es sich irgendwie immer besser an, das kann ich bestätigen auch mit dem kleinen SLI.

Godmode
2013-03-10, 01:31:59
Das wundert mich jetzt aber, da C3 eigentlich gar nichts verliert wenn man das 3D Vision zuschaltet, zumindest nicht hier mit einer GTX 690.
Aber ja ich hatte ja schon mal geschrieben, dass ich das 3D Zeugs schon fast an den Nagel gehängt hatte da es mit einer Karte einfach keinen Spaß macht mit SLI fühlt es sich irgendwie immer besser an, das kann ich bestätigen auch mit dem kleinen SLI.

Kann es sein das du ohne 3D Vision im CPU-Limit hängst? Mit welchen Settings spielst du, wenn ich fragen darf?

Angiesan
2013-03-10, 02:08:32
Ich spiele alles auf voll und mit 3D Vision mit MGPUSMAA ansonsten gefällt mir 4xMSAA besser ja ich hänge oft gerade in den ersten beiden Level im CPU Limit, aber in späteren Level eher nicht, das war aber auch bei Crysis 2 schon so, das ingame 3D Zeugs kostet kaum Leistung zumindest nicht auf 1920x1080

Edit: habe eben noch mal getestet bei dem Level mit dem Damm, dort hänge ich auf jeden Fall nicht im CPU Limit hier habe ich wenn ich aus der Höhle rauskommt 43 FPS mit 3D Vision und ohne habe ich knapp über 50 FPS also an der Stelle runde 20 % mehr ohne 3D. Ist aber im Vergleich zu vielen anderen Spielen wenig. In beiden Einstellungen hängen die GPU´s bei ca. 97% und 94% Auslastung.

Godmode
2013-03-10, 14:59:26
Ok das wundert mich dass das nicht mehr kostet.

Hab gerade eine weiteren Pluspunkt von 4-Way-Titan gefunden:
Diablo3 ist jetzt in 3840x2160 mit 8xMSAA+8xSGSSAA+SweetFX Lumasharpen+16xHQAF+HQAO mit 60 Fps spielbar. ;D

Alle 4 GPUs sind da bei 99%

Wirkt zwar auch etwas laggiger, aber bei weit nicht so problematisch wie bei Crysis 3.

derguru
2013-03-10, 15:06:12
das als pluspunkt zubenennen,naja.wenn ein spiel nichts dergleichen braucht dann diablo3,das hat man davon wenn man versucht auf biegen und brechen die 4 gpu´s in action zubringen.:tongue:

Godmode
2013-03-10, 15:09:51
das als pluspunkt zubenennen,naja.wenn ein spiel nichts dergleichen braucht dann diablo3,das hat man davon wenn man versucht auf biegen und brechen die 4 gpu´s in action zubringen.:tongue:

Naja es ist halt nett das man 4-GPUs total auslasten kann. Wieviel AA entspricht das wenn ich 8xMS+8xSGSS mit 2x2 DS kombiniere? 16x?

G 80
2013-03-10, 20:35:33
Diablo 3 @ 4 Titan:

http://3.bp.blogspot.com/-MB5ebaOgTfk/UB8g2fZASFI/AAAAAAAACig/_pytFHPth4c/s1600/Total-Recall-1990-vs.-Total-Recall-2012-filmaria-3.jpg

Aber jetzt mal im ernst: Pix, plz!

8 x SGSSA läuft bei mir auch (bleibts noch schön leise) .... der Rest öhm nicht.

Va mit diesen SweetFX Shadern hab ich mich noch gar nicht beschäftigt.

Godmode
2013-03-10, 21:15:06
Diablo 3 @ 4 Titan:

http://3.bp.blogspot.com/-MB5ebaOgTfk/UB8g2fZASFI/AAAAAAAACig/_pytFHPth4c/s1600/Total-Recall-1990-vs.-Total-Recall-2012-filmaria-3.jpg

Aber jetzt mal im ernst: Pix, plz!

8 x SGSSA läuft bei mir auch (bleibts noch schön leise) .... der Rest öhm nicht.

Va mit diesen SweetFX Shadern hab ich mich noch gar nicht beschäftigt.

Ist halt nur Diablo ;)

http://www.abload.de/thumb/screenshot0005fut1.png (http://www.abload.de/image.php?img=screenshot0005fut1.png) http://www.abload.de/thumb/screenshot001jpuda.png (http://www.abload.de/image.php?img=screenshot001jpuda.png) http://www.abload.de/thumb/screenshot002t6u9y.png (http://www.abload.de/image.php?img=screenshot002t6u9y.png) http://www.abload.de/thumb/screenshot003juu07.png (http://www.abload.de/image.php?img=screenshot003juu07.png) http://www.abload.de/thumb/screenshot004puuas.png (http://www.abload.de/image.php?img=screenshot004puuas.png) http://www.abload.de/thumb/screenshot005sxu3m.png (http://www.abload.de/image.php?img=screenshot005sxu3m.png) http://www.abload.de/thumb/screenshot006csutr.png (http://www.abload.de/image.php?img=screenshot006csutr.png) http://www.abload.de/thumb/screenshot007f5uec.png (http://www.abload.de/image.php?img=screenshot007f5uec.png) http://www.abload.de/thumb/screenshot008a5uyc.png (http://www.abload.de/image.php?img=screenshot008a5uyc.png) http://www.abload.de/thumb/screenshot009w8ult.png (http://www.abload.de/image.php?img=screenshot009w8ult.png)

Match-Maker
2013-03-10, 21:36:43
@ Godmode: Nein, 8xSGSSAA + 2x2DS entspricht 32xSSAA. Do könntest also auch diesen einen Hybrid-AA-Modus nehmen, der aus 4xOGSSAA + 8xMSAA besteht. Das MSAA erweiterst du dann einfach noch zu SGSSAA. So würdest du ebenfalls 32xSSAA erhalten.
Aber ich muss schon sagen, Diablo 3 sieht damit ja wirklich extrem glatt aus.

Godmode
2013-03-10, 21:50:09
@ Godmode: Nein, 8xSGSSAA + 2x2DS entspricht 32xSSAA. Do könntest also auch diesen einen Hybrid-AA-Modus nehmen, der aus 4xOGSSAA + 8xMSAA besteht. Das MSAA erweiterst du dann einfach noch zu SGSSAA. So würdest du ebenfalls 32xSSAA erhalten.
Aber ich muss schon sagen, Diablo 3 sieht damit ja wirklich extrem glatt aus.

Die Hybriden verursachen leider Grafikfehler. Finde das echt schade das die heutzutage nicht mehr funktionieren. Der größte Nachteil am Downsampling sind ja die 60hz, das nervt mich extrem.

Match-Maker
2013-03-10, 21:55:17
Wobei Blaire ja auch meinte, dass zumindest 2880x1620@120Hz laufen würde. Wäre also auch eine Option. Und bei 3840x2160 sind doch auch immerhin 72Hz möglich.
Ist aber natürlich schon blöd mit den Hybriden, dass die nur noch eingeschränkt funktionieren.

G 80
2013-03-10, 22:06:25
Danke für die Pix ( :up: ), und fesch, fesch kann man da nur sagen.

Falls du Schocktherapie brauchst setz das Profil auf Standard zurück und hau das Ingame-"AA" rein.:freak:

Habe jem. als Dauerleihgabe meine 88 GTX gegeben, trotz Konsolenvorschädigung sollten es dann doch lieber 4x MSAA + TSAA statt nur 2x MSAA + TSAA und dafür 60 FPS sein. :lol:

Godmode
2013-03-11, 21:33:28
Wobei Blaire ja auch meinte, dass zumindest 2880x1620@120Hz laufen würde. Wäre also auch eine Option. Und bei 3840x2160 sind doch auch immerhin 72Hz möglich.
Ist aber natürlich schon blöd mit den Hybriden, dass die nur noch eingeschränkt funktionieren.

Achso? Das wäre ja nett. Hab einen Benq XT2420T.

Ein weiteres Spiel für 4-Way-Titan hab ich gefunden und zwar Hitman Absolution.
3840x2160 + 8xMS(SGSS)AA @ 60 FPS = Geil

boxleitnerb
2013-03-14, 13:15:49
Geht Crossfire inzwischen eigentlich im Fenstermodus? Das war ja soweit ich das im Netz so lese immer ein Problem. Bei SLI funktioniert das hervorragend und ist gerade bei solchen Anwendungen nützlich, die mit Alt-Tab ein Problem haben - und davon gibt es nicht wenige. Der Vollbildfenstermodus ist, soweit er denn funktioniert, eine sehr praktische Sache. Blitzschneller Wechsel, keine Neuinitialisierung der Grafikengine, keine Glitches oder Abstürze etc. Wenn man dann aber auf 50% GPU-Power verzichten muss, ist das nicht grad toll.

(del676)
2013-03-14, 13:28:27
Crossfire im Fenstermodus funktioniert imho nicht.

dildo4u
2013-03-14, 16:47:58
NVIDIA GTX TITAN vs. SLI & Crossfire


From time to time, the HD 7970 GHz Edition’s massive well of horsepower masks the effect quite well from prying eyes, but the HD 7950 Boost becomes nearly unplayable in some titles. Compare this with the TITAN’s relative tranquility both visually and in the frame rate charts and the difference between the two solutions couldn’t be greater, regardless of associated costs.

http://images.hardwarecanucks.com/image//skymtl/GPU/TITAN-VS-SLI/TITAN-VS-SLI-3.jpg


http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/60166-nvidia-gtx-titan-vs-sli-crossfire-15.html

Godmode
2013-03-14, 20:08:07
So Gerade Hitman Absolution fertig gespielt. Läuft toll mit 1,5 DS auf 1080p mit 8xSGSSAA. 2xDS war dann doch zu viel. Ich glaub ich mach mal einen neuen Thread auf, wo ich das festhalte was alles gut und schlecht geht mit 3-4-Way-SLI.

Thomas Gräf
2013-03-18, 18:49:21
Einen Pluspunkt für SLI habe ich gerade entdeckt:
Wenn man mit 3D-Vision spielt, ist eine GPU mit Crysis 3 deutlich überfordert. Mit 2-Way-SLI geht das ohne Probleme. Habe den Verdacht das da kein AFR verwendet wird, sondern so etwas wie schon bei den SLI-AA Modi. Dh. eine GPU rechnet für das linke Auge die andere für das Rechte.

Mit 3 oder 4 GPUs und 3D-Vision habe ich hingegen arges Bildflackern.

Sagt mal soll die O.Rift nicht auch im steroeoskopischen-3D arbeiten?
Dann hätte SLI ja eine "killeraplikation" gefunden?

...sagt was bitte ;)

Godmode
2013-03-18, 19:43:30
Mit O.Rift hab ich mich eigentlich nicht auseinandergesetzt, aber ja normalerweise müsste man damit super 3D zocken können. Die Treiberentwickler bei Nvidia müssen aber auch mitspielen.

Thomas Gräf
2013-03-18, 20:10:40
Wenn das so klappt hätte die dualGPU Technik einen Fang für die Ewigkeit gemacht.
Im AFR fast versagt, aber an einer Cyberbrille das non plus ultra...

pest
2013-03-19, 10:21:32
NVIDIA GTX TITAN vs. SLI & Crossfire



http://images.hardwarecanucks.com/image//skymtl/GPU/TITAN-VS-SLI/TITAN-VS-SLI-3.jpg


http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/60166-nvidia-gtx-titan-vs-sli-crossfire-15.html

nicht brauchbar, üblicherweise haben längere Frametimes auch eine höhere Standardabweichung zur Folge, eine Normierung ist da angebracht oder man vwerwendet einen Interquantilsabstand

Palpatin
2013-03-19, 14:03:32
Sagt mal soll die O.Rift nicht auch im steroeoskopischen-3D arbeiten?
Dann hätte SLI ja eine "killeraplikation" gefunden?

...sagt was bitte ;)
Hmm 1280x800 wird wohl troz 3d auch ohne SLI ganz gut rennen :D.

(del676)
2013-03-19, 19:25:11
@pest: hab mal wieder ein paar Frametimes. Diesmal ArmA3, Singleplayer Showcase Infantry. 1920x1200, alles Ultra ausser Postprocess auf Disabled, 8xAA + 2x SMAA High, Vsync aus und kein Framelimiter.

pest
2013-03-20, 05:29:28
Hallo, interessantes Beispiel.

Hier mal eine Zusammenfassung von Frappo (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=537679) (ArmA3, 2xHD7950):
Avg: 51 fps, 90% der Frames in [36 fps, 66 fps], 90% der Zeit in [33 fps; 67 fps], Standardabweichung: 5,03ms, Variationskoeffizient: 25%, Interframe-Variationskoeffizient: 18%

Persönlich würde ich, obgleich man sich in vergleichsweise niedrigen Gefilden befindet, sagen, dass man das gut spielen kann. Was sagst du subjektiv?

Zum Vergleich (BF3 PCGH-SP-Testsequenz@High, Q9xxx@3Ghz, 1xHD5870):
Avg: 50 fps, 90% der Frames in [35 fps, 75 fps], 90% der Zeit in [20 fps; 66 fps], Standardabweichung: 6,90 ms, Variationskoeffizient: 35%, Interframe-Variationskoeffizient: 43% :freak:


=> Das heißt, Avg-Werte und Quantile die sich auf die Frames beziehen sind nicht brauchbar um die Qualität des Spielerlebnisses objektiv zu beurteilen,
da die beiden Beispiele hier annähernd gleiches Verhalten zeigen!

Erst die Quantile über die Zeit und normierte Streuungsmaße lassen eine Beurteilung zu.


Der Variationskoeffizient beschreibt die Schwankung der Gesamtverteilung (ist einfach eine normierte Standardabweichung, kann aber auch größer als 100% sein, kleiner=besser).
Der Interframe-Variationskoeffizient beschreibt analog die Schwankung zwischen den Frames.

Die Verteilungen 10-15-10-15-10-15... und 10-10-10-15-15-15 haben den selben Variationskoeffizienten aber Letztere einen niedrigeren Interframe-Variationskoeffizient!



Zum Vergleich, dass die Standardabweichung nicht sinnvoll ist.
Ein Crysis3 Beispiel von Godmode:
1x-Titan: Standardabweichung: 8,11 ms, Variationskoeffizient: 15%, Interframe-Variationskoeffizient: 8%
2x-Titan: Standardabweichung: 8,39 ms, Variationskoeffizient: 23%, Interframe-Variationskoeffizient: 29%
3x-Titan: Standardabweichung: 7,28 ms, Variationskoeffizient: 30%, Interframe-Variationskoeffizient: 40%
4x-Titan: Standardabweichung: 8,89 ms, Variationskoeffizient: 45%, Interframe-Variationskoeffizient: 55%

NOFX
2013-03-20, 09:03:43
Der Interframe-Variationskoeffizient ist schon sehr hilfreich. Wechselt man z.B. von einer Innen-Szene in den Außenbereich, kann die Framerate sich halbieren und in der Standardabweichung sähe es katastrophal aus.

Z.B. bei 60fps innen und 30 fps draußen gäbe es einen winzigen Interframe-Variationskoeffizienten aber riesigen Variationskoeffizienten.

Am besten wäre der Variationskoeffizient wohl am besten zu einem gleitenden Mittelwert.

PHuV
2013-03-20, 09:16:19
Zum Vergleich, dass die Standardabweichung nicht sinnvoll ist.
Ein Crysis3 Beispiel von Godmode:
1x-Titan: Standardabweichung: 8,11 ms, Variationskoeffizient: 15%, Interframe-Variationskoeffizient: 8%
2x-Titan: Standardabweichung: 8,39 ms, Variationskoeffizient: 23%, Interframe-Variationskoeffizient: 29%
3x-Titan: Standardabweichung: 7,28 ms, Variationskoeffizient: 30%, Interframe-Variationskoeffizient: 40%
4x-Titan: Standardabweichung: 8,89 ms, Variationskoeffizient: 45%, Interframe-Variationskoeffizient: 55%

@Godmode, heißt das jetzt, daß QSLI bei Dir in C3 am deutlichsten ruckelt, oder was siehst Du hier?

TSLI zu QSLI ist ja mit 15% die deutlichste Abweichung (wenn man mal den Variationskoeffizient von Single zu SLI ausläßt).

NOFX
2013-03-20, 09:25:49
@Godmode, heißt das jetzt, daß QSLI bei Dir in C3 am deutlichsten ruckelt, oder was siehst Du hier?

TSLI zu QSLI ist ja mit 15% die deutlichste Abweichung (wenn man mal den Variationskoeffizient von Single zu SLI ausläßt).Im Endeffekt heißt das, das Q-SLI die unkonstanteste Framerate generiert und die absoluten Sprünge immer noch so groß sind wie bei einer GPU.

boxleitnerb
2013-03-20, 09:26:20
Vergesst ihr nicht bei der ganzen Geschichte, dass das Framemetering NACH der Messung der Frametimes kommt?

pest
2013-03-20, 09:27:03
Am besten wäre der Variationskoeffizient wohl am besten zu einem gleitenden Mittelwert.

Um die generelle Spielfähigkeit bei Single-GPU Lösungen zu bewerten sicherlich. Das Ganze geht aber schnell in die Hose, weil es uns ja um Mikroruckler geht.
Also Ruckler die entstehen weil die Latenzen zwischen den Frames schwanken.

Nehmen wir z.b. ein Tri-SLI System mit folgender Frametime-Kaskade
10-15-5-10-15-5-10-15-5...

ein gleitender Mittelwert mit 3 Frames hätte dann
(10+15+5)/3 + (5+15+10)/3 ...
immer eine perfekte Verteilung

@Godmode, heißt das jetzt, daß QSLI bei Dir in C3 am deutlichsten ruckelt, oder was siehst Du hier?

TSLI zu QSLI ist ja mit 15% die deutlichste Abweichung (wenn man mal den Variationskoeffizient von Single zu SLI ausläßt).

Ich habe hier die Werte für die 90% Zeit aus dem Frappo-Thread unterschlagen. Die Frameverteilung ist def. schlechter als bei T-SLI, egal ob man 10fps mehr Avg hat.

Vergesst ihr nicht bei der ganzen Geschichte, dass das Framemetering NACH der Messung der Frametimes kommt?
?

NOFX
2013-03-20, 09:29:23
Um die generelle Spielfähigkeit bei Single-GPU Lösungen zu bewerten sicherlich. Das Ganze geht aber schnell in die Hose, weil es uns ja um Mikroruckler geht.
Also Ruckler die entstehen weil die Latenzen zwischen den Frames schwanken.

Nehmen wir z.b. ein Tri-SLI System mit folgender Frametime-Kaskade
10-15-5-10-15-5-10-15-5...

ein gleitender Mittelwert mit 3 Frames hätte dann
(10+15+5)/3 + (5+15+10)/3 ...
immer eine perfekte Verteilung?Ich meinte die Varianz/Standardabweichung bezogen auf den gleitenden Mittelwert (dann als Erwartungswert), nicht ausschließlich den MW.

Der wäre in deinem Beispiel immer 10, und die Standardabweichung wäre ~3,5.

boxleitnerb
2013-03-20, 09:32:49
http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking/11

In fact, in a bit of a shocking revelation, Petersen told us Nvidia has "lots of hardware" in its GPUs aimed at trying to fix multi-GPU stuttering. The basic technology, known as frame metering, dynamically tracks the average interval between frames. Those frames that show up "early" are delayed slightly—in other words, the GPU doesn't flip to a new buffer immediately—in order to ensure a more even pace of frames presented for display. The lengths of those delays are adapted depending on the frame rate at any particular time. Petersen told us this frame-metering capability has been present in Nvidia's GPUs since at least the G80 generation, if not earlier. (He offered to find out exactly when it was added, but we haven't heard back yet.)

Poof. Mind blown.

Now, take note of the implications here. Because the metering delay is presumably inserted between T_render and T_display, Fraps would miss it entirely.

Die ersten Ergebnisse von pcper bestätigen das ja auch. Die Fraps-Werte spiegeln bei SLI nicht unbedingt die Realität wieder.

pest
2013-03-20, 09:38:52
Ich meinte die Varianz/Standardabweichung bezogen auf den gleitenden Mittelwert (dann als Erwartungswert), nicht ausschließlich den MW.

Der wäre in deinem Beispiel immer 10, und die Standardabweichung wäre ~3,5.

Ich verstehe das schon, aber da sich (klassische) Standardabweichung und Standardabweichung im Bezug zum gleitenden Mittel bei diesem Beispiel nicht unterschieden, die Interframe-Varianz aber dennoch vorhanden ist, halte ich den Ansatz für nicht so brauchbar. Testen kann man es natürlich.

http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking/11



Die ersten Ergebnisse von pcper bestätigen das ja auch. Die Fraps-Werte spiegeln bei SLI nicht unbedingt die Realität wieder.

Ja, soweit mein Gehirn das zu dieser Stunde zulässt, wären die Ergebnisse noch schlechter, vor allem bei schnellen Bewegungen. Eine andere Möglichkeit der Messung haben wir nicht.

NOFX
2013-03-20, 09:51:47
Wird die Interframe-Variation auf die Dauer der Frames bezogen?

Nehmen wir jetzt mal als Beispiel eine Szene die mit 9s mit 100fps läuft und mitttendrin einen 1s-Hänger hat...

boxleitnerb
2013-03-20, 09:57:02
Was meinst du jetzt genau? Das, was am Monitor letztlich ankommt, ist gleich gut oder besser als das, was Fraps misst - je nachdem, wie gut das Framemetering da gerade funktioniert.

pest
2013-03-20, 09:57:38
Dann ist die Interframevariation entsprechend schlecht, auch weil der Abstand quadratisch eingeht (wie soll ich eine Variation berechnen ohne das die Dauer des Frames=Variation eingeht?). Die Interframevariation ist nichts anderes als die Variation der 1. Differenzen.

Persönlich finde ich das 90% Zeit-Interquantil am Aussagekräftigsten.

Von (weiteren) Homebrew-Lösungen halte ich nicht viel, aber die Menschen wollen halt eine Zahl die die gesamte Information beinhaltet :>

Meine Erfahrung ist, dass eine übereifrige Mittelung die Analyse der Mikroruckler zunichte macht. Ich habe da schon viel experimentiert.

Am Besten wäre es man schaut sich die CDF für jede GPU einzeln an, das ist robuster als die Standardabeichung. Ich überlege mir da gerade was.

Was meinst du jetzt genau? Das, was am Monitor letztlich ankommt, ist gleich gut oder besser als das, was Fraps misst - je nachdem, wie gut das Framemetering da gerade funktioniert.

was misst denn Fraps?
T-Render? Dann passt das imo schon. Wenn ein Frame was zu einem bestimmten Systemzeitpunkt berechnet wurde (und sich in seiner Darstellung entsprechnd auch auf diesen bezieht), aber an einem Anderen ausgegeben wird, ändert das nicht viel an der Empfindung, dass dieses Frame zu einem anderen Zeitpunkt gehört, außer man kuckt eine Wand an.

T-Display? Dann werden werden wir konsequent veralbert und die Realität sieht düsterer aus.

boxleitnerb
2013-03-20, 10:09:06
Warum zeigt dann Fraps bei pcper Mikroruckler bei SLI, die aber beim Capturen direkt am DVI-Ausgang nicht auftreten?

pest
2013-03-20, 10:16:15
Beantworte doch erst einmal meine Frage bzgl. der Messung.

Und es ist klar, dass wenn die Frames gleichmäßiger dargestellt werden man am DVI kaum Unterschiede misst. Relevant ist doch aber zu welcher Systemzeit die Frames gehören.

boxleitnerb
2013-03-20, 10:17:44
Fraps misst T_ready, so ist es zumindest im Diagramm eingezeichnet. Kommt mir allerdings etwas Spanisch vor, weil die Performance ja erst danach ermittelbar ist, beim Rendern nämlich.

pest
2013-03-20, 10:24:25
Ich zitiere mal aus dem Artikel, der das wiedergibt was ich beschrieben habe

After all, the frames have important content, reflecting the motion of the underlying geometry in the game world. If the game engine tracks time finely enough, inserting a delay for every other frame would only exacerbate the perceived stuttering. The effect would be strange, like having a video camera that captures frames in an odd sequence, 12--34--56--78, and a projector that displays them in an even 1-2-3-4-5-6-7-8 fashion. Motion would not be smooth.


Letztere Reihe wird am DVI gemessen. Es könnte also durchaus sein das NVidias System kontraproduktiv wirkt auch wenn man am DVI Perfektion misst.

Man könnte zusätzlich argumentieren das T_display-T_ready annähernd konstant ist.

pest
2013-03-20, 12:02:25
@Godmode, heißt das jetzt, daß QSLI bei Dir in C3 am deutlichsten ruckelt, oder was siehst Du hier?

TSLI zu QSLI ist ja mit 15% die deutlichste Abweichung (wenn man mal den Variationskoeffizient von Single zu SLI ausläßt).

Noch kurz hierzu. Statistik muss man immer interpretieren.

Wie schon geschrieben wurde ist die mittlere Varianz bei allen 4 Varianten annähernd gleich (in ihrer Größenordnung).

Der Variationskoeffizient macht nun nichts anderes als diese absolute Größe relativ zur mittleren Framedauer zu setzen. Das heißt kleinere Framedauern erlauben nur eine kleinere Streuuung für gleiche Koeffizienten.

Diese Herangehensweise kann man blöd finden, weil mich die selbe Streuung bei hohen Frameraten ja weniger stören könnte. Allerdings bestätigen die Werte meine Beobachtungen am Graphen.

NOFX
2013-03-20, 12:11:16
Die werten also das Video nur auf unterschiedliche Frames aus und nicht, was wirklich auf den gezeigt wird?

Schlammsau
2013-04-24, 06:27:02
Passt evtl hier rein.

AMD im Interview zur Radeon HD 7990 und zu Mikrorucklern (http://www.computerbase.de/artikel/grafikkarten/2013/amd-im-interview-zur-radeon-hd-7990-und-zu-mikrorucklern/)

AMD Alpha-Treiber: Mikroruckler gelöst? (http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/13/)

Tesseract
2013-05-06, 22:36:47
AMD im Interview zur Radeon HD 7990 und zu Mikrorucklern (http://www.computerbase.de/artikel/grafikkarten/2013/amd-im-interview-zur-radeon-hd-7990-und-zu-mikrorucklern/)

dieses interview zeigt mal wieder eindrucksvoll, dass man sich ein gespäch mit jemandem der "marketing" in der postenbeschreibung stehen hat gleich sparen kann.
informationsgehalt: null.

Hübie
2013-05-11, 13:17:27
Ähm, ich hoffe das ich den Thread jetzt nicht hijacke, aber ich habe keinen SLi-Laberthread gefunden - also stelle ich einfach mal hier meine Fragen:

1.) Was steht hinter "vertical sync smooth AFR behaviour" im Inspector und wie genau arbeitet adaptive V-Sync im Gegensatz zu einem Begrenzer? Ich konnte kaum Infos darüber finden. Nur das üblich Marketing-Blubb-Blah.
2.) Wo ist der Unterschied der Optionen "Number of GPUs to use on SLI rendering mode" und "NVIDIA predefined number of GPUs to use on SLI rendering mode"? :|:confused:
3.) What is SLI-AA? :eek:
4.) Was sind VSync - Behavior Flags?? (VSYNC_BEHAVIOR_FLAGS_IGNORE_FLIPINTERVAL_MULTIPLE).

Ich spiele mal mit den ganzen Optionen herum um mit SLi die optimalen Einstellungen zu finden (Spagat aus inputlag und smoothness). Bisher empfinde ich prerendering 2, V-Sync standard (1/2 refresh-rate) und limiter auf 118 bzw. 58 (je nach Spiel) am besten.

Was sind eure Erfahrungen?

aufkrawall
2013-05-11, 13:54:02
1.) Was steht hinter "vertical sync smooth AFR behaviour" im Inspector und wie genau arbeitet adaptive V-Sync im Gegensatz zu einem Begrenzer?

Dieses AFR-Vsync verschlechtert die Skalierung etwas (als ich letztes Mal getestet hab um ~15%, wobei die min-fps wohl weniger betroffen sind), dafür eliminiert es AFR-Mikroruckler komplett und verringert den Input Lag deutlich (imho sogar unter Single GPU-Niveau).
Mit adaptiv funktioniert es unterhalb der Refreshrate halt wie ein dynamischer fps-Limiter. Ein normaler Limiter funktioniert ja nur bei fps über dem festgelegten Wert, das AFR-Vsync funktioniert immer.
Ohne adaptiv verhält sich dieses Vsync bei 2-Way leider wie double buffered Vsync mit single-gpu. Ab 3-Way soll das anders sein.


2.) Wo ist der Unterschied der Optionen "Number of GPUs to use on SLI rendering mode" und "NVIDIA predefined number of GPUs to use on SLI rendering mode"? :|:confused:

Predefined ist das, was für die einzelnen Anwendungen von NV festgelegt ist. Der andere Wert steht dann halt auf autoselect, was dem predefined Wert entspricht.
Ist mit 2-Way aber alles egal, da ist nur die Option rendering mode entscheidend (außer SLI geht gar nicht wie z.B. bei Rage).


3.) What is SLI-AA? :eek:

AA-Samples werden mit Anzahl der GPUs multipliziert, leider mit schlechter Sampleverteilung.
Macht bei 2-Way also nur dann Sinn, wenn AFR gar nicht richtig geht (etwa bei Tropico 3).


4.) Was sind VSync - Behavior Flags?? (VSYNC_BEHAVIOR_FLAGS_IGNORE_FLIPINTERVAL_MULTIPLE).

Keine Ahnung, ist wohl für den Consumer uninteressant.


Ich spiele mal mit den ganzen Optionen herum um mit SLi die optimalen Einstellungen zu finden (Spagat aus inputlag und smoothness). Bisher empfinde ich prerendering 2, V-Sync standard (1/2 refresh-rate) und limiter auf 118 bzw. 58 (je nach Spiel) am besten.

Was sind eure Erfahrungen?
58/59fps bei gesyncten 60Hz gehen imho gar nicht, das gibt halt Judder. Bei 120Hz fällt der natürlich weniger auf.

Ich nutze eigentlich nur noch adaptives Vsync + AFR-Flag (BF3, Crysis 3, Just Cause 2, Crysis etc.), fps-Limiter bei hohen fps (etwa TF2) oder normales Vsync, wenn adaptiv + AFR nicht richtig geht (etwa UE3 DX9 + Custom AA Bit, da schalt ich dann noch 1 frame lag in der Config ab).
Prerendered frames immer 1.

Hübie
2013-05-11, 15:21:42
Mit adaptiv funktioniert es unterhalb der Refreshrate halt wie ein dynamischer fps-Limiter. Ein normaler Limiter funktioniert ja nur bei fps über dem festgelegten Wert, das AFR-Vsync funktioniert immer.

Verstehe den Unterschied gerade nicht :redface:

Predefined ist das, was für die einzelnen Anwendungen von NV festgelegt ist. Der andere Wert steht dann halt auf autoselect, was dem predefined Wert entspricht.

Ja aber wenn ich autoselect änder hat das welchen Sinn :confused:

AA-Samples werden mit Anzahl der GPUs multipliziert, leider mit schlechter Sampleverteilung.

Okay. Check. Kann ich also ignorieren.

58/59fps bei gesyncten 60Hz gehen imho gar nicht, das gibt halt Judder. Bei 120Hz fällt der natürlich weniger auf.

Mein Monitor läuft mit 120 Hz, aber es wird nur 60 mal pro Sekunde der Bildpuffer geleert. Wobei der Limiter nur 58 Zugriffe gestattet.

Ich nutze eigentlich nur noch adaptives Vsync + AFR-Flag (BF3, Crysis 3, Just Cause 2, Crysis etc.), fps-Limiter bei hohen fps (etwa TF2) oder normales Vsync, wenn adaptiv + AFR nicht richtig geht (etwa UE3 DX9 + Custom AA Bit, da schalt ich dann noch 1 frame lag in der Config ab).
Prerendered frames immer 1.

Was ist nun AFR-Flag und 1 frame lag?? :confused: :smile:

aufkrawall
2013-05-11, 15:39:05
Verstehe den Unterschied gerade nicht :redface:

Man könnte sagen, die Framerate wird immer um 15% limitiert.



Ja aber wenn ich autoselect änder hat das welchen Sinn :confused:

Du kannst bei Problemen rausfinden, obs mit weniger GPUs besser läuft.


Was ist nun AFR-Flag und 1 frame lag?? :confused: :smile:
Meinte "Vertical Sync smooth AFR behavior".
1 frame lag ist so eine Eigenheit der UE3:
http://abload.de/thumb/1vburj.jpg (http://abload.de/image.php?img=1vburj.jpg)
Mit aus sollte der Input Lag geringer sein, wobei man vielleicht eher ins CPU-Limit läuft.
So find ichs mit dem bei Vsync spürbaren zusätzlichen AFR-Lag auch mit TB noch akzeptabel, zumindest bei so etwas wie Mirror's Edge oder Borderlands 2.

Hübie
2013-05-12, 10:30:42
Guten Morgen.

Wieder ein wenig schlauer, dank dir. Ich habe heute morgen mal etwas mit den Settings herumgespielt und frametimes gemessen. Nun möchte mal eben die Ergebnisse präsentieren:

Standard
http://abload.de/thumb/000out_off_the_box50uq8.png (http://abload.de/image.php?img=000out_off_the_box50uq8.png)

Prerenderlimit 1
http://abload.de/thumb/001prerenderlimit1upujt.png (http://abload.de/image.php?img=001prerenderlimit1upujt.png)

Prerenderlimit 3
http://abload.de/thumb/002prerenderlimit3bwu6s.png (http://abload.de/image.php?img=002prerenderlimit3bwu6s.png)

Prerenderlimit 8
http://abload.de/thumb/003prerenderlimit8oau5r.png (http://abload.de/image.php?img=003prerenderlimit8oau5r.png)

Prerenderlimit 8 + triple Buffer
http://abload.de/thumb/004prerenderlimit8_tryduod.png (http://abload.de/image.php?img=004prerenderlimit8_tryduod.png)

Prerenderlimit 1 + smooth AFR
http://abload.de/thumb/005prerenderlimit1_smr2ue5.png (http://abload.de/image.php?img=005prerenderlimit1_smr2ue5.png)

Prerenderlimit 1 + vSync <120 Hz
http://abload.de/thumb/006prerenderlimit1_vseyuyt.png (http://abload.de/image.php?img=006prerenderlimit1_vseyuyt.png)

Prerenderlimit 1 + vSync 1/2 refreshrate
http://abload.de/thumb/007prerenderlimit1_vstkuw0.png (http://abload.de/image.php?img=007prerenderlimit1_vstkuw0.png)

Prerenderlimit 1 + vSync 1/2 refreshrate + fps Limit = 58
http://abload.de/thumb/008prerenderlimit1_vsxuu1t.png (http://abload.de/image.php?img=008prerenderlimit1_vsxuu1t.png)

Prerenderlimit 8 + vSync 1/2 refreshrate + fps Limit = 58
http://abload.de/thumb/009prerenderlimit8_vsodu8g.png (http://abload.de/image.php?img=009prerenderlimit8_vsodu8g.png)

Monitor ist ein BenQ XL2410T@120 Hz (Sofortmodus: AN, AMA: AUS). Restliches System: i5 2500k @4,6 GHz, 8 GB DDR-1600, GTX 580 1,5GB SLi @770 MHz (GeForce 320.00), Win7 x64 auf SSD, Games auf HDD. Fraps 3.5.1ä

Was würdet ihr rein von den Daten her als bestes Spielerlebnis bewerten?

Ich stelle auch gerne die *.xls zur Verfügung falls interesse besteht.

Die Auflösung verrate ich euch später. Wenn gewünscht erstelle ich noch mehr Benchmarks mit frametimes.

aufkrawall
2013-05-12, 10:47:29
War mit Smooth AFR Flag adaptiv an?
Die Leistung wirkt etwas gekeult. Bei bestimmten Anwendungen funktioniert es auch nicht so gut, etwa bei Metro 2033 oder Far Cry 3, frisst zu viel Performance.
Bei Skyrim würd ichs auch nicht nutzen, lief ohne Mods mit konstanten gesyncten 60fps in 1080p mit 8xSGSSAA mit einer ~690.

Blaire
2013-05-12, 19:37:15
Auch der Einsatz von AA-Bits oder SSAA kann für zusätzliche Schwankungen sorgen. Man kann nie pauschal sagen, diese oder jene Funktion ist am Besten geeignet, das kommt ganz aufs Game/Engine und die jeweiligen Einstellungen an.

Ein Beispiel: Max Payne3 DX11 mit aktiven Ingame-MSAA vs. Downsampling ohne Ingame-MSAA trotz gleicher Framerate ist letzte Option deutlich smoother. Bei ersterem, bräuchte man also mehr FPS für gleiche Smoothness usw. Da hat man jetzt also die Wahl... während ein FPS-Limiter oder Vsync-Smooth da auch nichts mehr raus reißt, helfen in dem Fall nur hohe FPS d.h. Einstellungen anpassen... erst dann kann man hier über Vsync Smooth etc. nachdenken
Ob SingleGPU oder SLI ist dabei völlig Schnuppe, auch mit SingleGPU wirkt das Aiming sehr schwammig, wenn die FPS nicht hoch genug liegen (<40fps).


War mit Smooth AFR Flag adaptiv an?
Die Leistung wirkt etwas gekeult. Bei bestimmten Anwendungen funktioniert es auch nicht so gut, etwa bei Metro 2033 oder Far Cry 3, frisst zu viel Performance.
Bei Skyrim würd ichs auch nicht nutzen, lief ohne Mods mit konstanten gesyncten 60fps in 1080p mit 8xSGSSAA mit einer ~690.

In Metro2033 helfen nur hohe FPS, dann funktioniert Vsync Smooth ziemlich gut muss ich sagen, im Gegensatz zum Treibereigenen FPS-Limiter.

aufkrawall
2013-05-12, 20:05:42
In Metro2033 helfen nur hohe FPS, dann funktioniert Vsync Smooth ziemlich gut muss ich sagen, im Gegensatz zum Treibereigenen FPS-Limiter.
Ich hatte es vorhin mal ausprobiert und es lief bei über 40fps eigentlich auch ohne zusätzliche Frametime-Glättung recht mikrorucklerfrei.
(Ohne MSAA und Compute-DoF brauchts auch kaum noch Leistung.)

Hübie
2013-05-13, 09:13:18
Das beste Spielerlebnis kommt mit Prerenderlimit 1 + vSync 1/2 refreshrate + fps Limit = 58 zu stande. Das schlimmste war mit smooth AFR. Adaptiv änderte daran nichts - im Gegenteil - extremes stottern. Triple Buffer - egal in welcher Konstellation - sorgte für extremes nachziehen. Adaptive Sync lässt flüssige Bewegung total abgehackt aussehen. Das tat mir sogar in den Augen weh :eek: Prerenderlimit änderte ein wenig das Gefühl von inputlag. Präzise konnte man nicht mehr agieren wenn man das auf 8 erhöht.

Diese Erkenntnisse beziehen sich aktuell nur auf die Creation Engine! Hier fallen <40 fps sofort auf und es kommt zu dem Effekt der "Mikroruckler" welche wahrnehmbar sind. Ich werde mal sehen ob ich die Tage noch intensiver BF3 oder ähnliches testen kann. Far Cry 3 ist bestimmt auch ein guter Kandidat.

samm
2013-05-13, 22:24:20
Prerenderlimit änderte ein wenig das Gefühl von inputlag. Präzise konnte man nicht mehr agieren wenn man das auf 8 erhöht.Zumindest das dürfte definitiv nicht überraschen ;)

dildo4u
2013-06-20, 23:13:19
Big news for CrossFire! We plan to release our driver that delivers improved multi-GPU frame pacing on July 31.

https://twitter.com/AMDRadeon/status/347803712930070529

Hübie
2013-06-20, 23:22:27
Oh ha. Ende Juli will ich aufrüsten. Dann bin ich aber gespannt.

john carmack
2013-06-21, 11:08:41
Seit Kepler geht Nvidia einen dualen Weg um MR zu verhindern.
Sprich - Hardware-Seitig und Software-Seitig!


In wie weit gehen denn MR im SLI-Verbund zurück?
Wohl kaum zu 100% ?!? ?!

boxleitnerb
2013-06-21, 11:12:07
Ich spüre Mikroruckler mit SLI unter ca. 50 fps; der genaue Wert variiert natürlich von Spiel zu Spiel, von Szene zu Szene. "Die" Lösung ist es also nicht, aber man kann wunderbar damit leben, zumal ich sowieso nicht unter 50 fps spielen wollte wegen Input-Lag, auch mit einer GPU.

boxleitnerb
2013-09-05, 11:55:24
Doppelpost, da es interessante Neuigkeiten gibt. Einen Blindtest bei THG 690 vs 7990, einmal mit Framepacing bei AMD (1600p) und einmal ohne (5760x1080). Ohne ist das Resultat deutlich zugunsten Nvidias. Selbst mit Framepacing gibt es noch eine Tendenz für Nvidia, und das obwohl die 7990 ja sogar etwas schneller ist als die 690 und es dadurch beim Framepacing etwas leichter haben sollte.
http://www.tomshardware.com/reviews/radeon-hd-7990-geforce-gtx-690-frame-pacing,3599.html

fondness
2013-09-05, 12:49:40
Doppelpost, da es interessante Neuigkeiten gibt. Einen Blindtest bei THG 690 vs 7990, einmal mit Framepacing bei AMD (1600p) und einmal ohne (5760x1080). Ohne ist das Resultat deutlich zugunsten Nvidias. Selbst mit Framepacing gibt es noch eine Tendenz für Nvidia, und das obwohl die 7990 ja sogar etwas schneller ist als die 690 und es dadurch beim Framepacing etwas leichter haben sollte.
http://www.tomshardware.com/reviews/radeon-hd-7990-geforce-gtx-690-frame-pacing,3599.html

Hm, die Ergebnisse sind teilweise seltsam, wenn AMD mit deaktiviertem Frame Pacing besser abschneidet als mit aktiviertem. Aber insgesamt wenig neues.

boxleitnerb
2013-09-05, 12:56:40
Wundert mich nicht unbedingt. Bei 5760x1080 dürfte die 7990 ihre Rohleistung besser ausspielen können und der 690 könnte hier und da der Speicher ausgehen. Das würde beides dem negativen Eindruck durch fehlendes Framepacing wieder etwas entgegenwirken, je nach Fall womöglich deutlich. Zudem ist das Framepacing ja noch nicht final, das spielt sicher auch mit rein.

fondness
2013-09-05, 13:03:55
Wundert mich nicht unbedingt. Bei 5760x1080 dürfte die 7990 ihre Rohleistung besser ausspielen können und der 690 könnte hier und da der Speicher ausgehen. Das würde beides dem negativen Eindruck durch fehlendes Framepacing wieder etwas entgegenwirken, je nach Fall womöglich deutlich. Zudem ist das Framepacing ja noch nicht final, das spielt sicher auch mit rein.

Warum testet man das in unterschiedlichen Auflösungen? Damit ist der Vergleich aktiviert vs. deaktiviert für die Katz. Außerdem geht bei 5760x1080 noch gar kein Frame Pacing, da aktuell nur ein Display unterstützt wird und auch keine so hohen Auflösungen.

boxleitnerb
2013-09-05, 13:26:44
Natürlich geht bei Multimonitor kein FP, hat auch niemand was anderes behauptet. Deshalb wurde ja so getestet. Vielleicht haben sie den Haken nicht gefunden, um es unter 1600p auszuschalten :D
So oder so, der Hauptaspekt ist der Vergleich SLI/CF.

fondness
2013-09-05, 14:15:42
So oder so, der Hauptaspekt ist der Vergleich SLI/CF.

Ja, dabei ist es bis auf Metro:LL eigentlich ausgeglichen, darauf weißt der Autor auch hin:

Keep in mind, though, that we discovered a significant issue with Metro: Last Light, which gave Nvidia six votes to AMD’s zero. If Metro ran properly, the two dual-GPU cards might have come close to tying!

In Metro hat AMD also offensichtlich noch ein Problem. Wenn es funktioniert scheint es allerdings keine merkbaren Unterschiede zu geben.

Mr. Lolman
2013-09-05, 15:51:12
Hat noch wer den Link zu der einen HW-Seite die festgestellt hat, dass das Mikroruckeln auch stark vom verwendeten System abhängt? (Bspw, dass ein i5 unregelmäßigere Frametimes produziert, als ein i7)

boxleitnerb
2013-09-05, 16:04:11
Wurde das von einer zweiten Seite verifiziert? Klingt nach Unsinn für mich. Im GPU-Limit, wo Mikroruckler hauptsächlich das Problem sind, sollte es da keine Unterschiede geben.

Mr. Lolman
2013-09-05, 16:38:10
Keine Ahnung. Aber iirc haben die auch festgestellt, dass das Hyperthreading je nach CPU, ordentlich Einfluß auf die Frametimes hat.

Grestorn
2013-09-05, 18:17:36
Allgemein würde ich vermuten, dass mehr Kerne (auch HT) ungleichmäßige Frametimes eher begünstigt, größere Nähe zum CPU Limit die Frames automatisch gleichmäßiger verteilt.

In so fern kann das schon sein.

boxleitnerb
2013-09-05, 18:20:30
Letzteres ist klar, das wurde auch oft genug festgestellt. Aber für Erstes gibt es halt keine konkreten Beweise, es bleibt nur eine Vermutung.
Wenn du jetzt allerdings meinst, dass ein Spiel, das 3 Kerne nutzt, bei einem 6-Kerner vom CPU-Limit weiter weg ist als bei einem 4-Kerner, irrst du dich. Man kann ein CPU-Limit auch bei der Nutzung eines Kerns haben.

Knuddelbearli
2013-09-05, 18:27:56
würde aber zumindest erklären wieso das subjektive empfinden so unterschiedlich ist.
Und so unlogisch ist das nichtmal. NV ist bei nur 2 Threads @4Ghz ja auch bei GPU Limit deutlich langsamer als bei 4 Threads @2GHz

aufkrawall
2013-09-05, 18:29:37
Letzteres ist klar, das wurde auch oft genug festgestellt.
Das Crysis 3-Gras mikroruckelt im CPU-Limit wie die Pest. Kann die Frametimes also auch verschlechtern, 2-Way SLI im GPU-Limit läuft bei gleicher Stelle xmal flüssiger.

boxleitnerb
2013-09-05, 18:39:10
würde aber zumindest erklären wieso das subjektive empfinden so unterschiedlich ist.
Und so unlogisch ist das nichtmal. NV ist bei nur 2 Threads @4Ghz ja auch bei GPU Limit deutlich langsamer als bei 4 Threads @2GHz

Quelle? Ich kenne dargos benches im CPU-Limit.

Das Crysis 3-Gras mikroruckelt im CPU-Limit wie die Pest. Kann die Frametimes also auch verschlechtern, 2-Way SLI im GPU-Limit läuft bei gleicher Stelle xmal flüssiger.

Gut, Ausnahmen gibt es immer. idR hilft CPU-Limit aber schon, das hab ich in mehreren Spielen getestet damals mit 580 SLI.

Knuddelbearli
2013-09-05, 18:43:01
Quelle? Ich kenne dargos benches im CPU-Limit.



Müsste im Luxx gewesen sein, aber ok eventuell trügt mich die Erinnerung nehme sicherheitshalber mal das deutlich zurück, aber einen Unterschied gabs sicher auch im GPU Limit. Bevor ich jetzt aber den Thread durchsuche warte ich lieber auf dargo.