PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MultiGPU Update: Two-GPU Options in Depth


nagus
2009-02-23, 20:34:30
MultiGPU Update: Two-GPU Options in Depth (http://www.anandtech.com/video/showdoc.aspx?i=3517)

interessant zu sehen wie gut CF inzwischen geworden ist. Die Skalierung ist fast immer ÜBER der von SLI.... und das mit dem alten 8.12er Treiber :tongue:

Gast
2009-02-23, 21:44:16
Wahnsinn, eine HD4 mit 1024MiB ist deutlich schneller als eine mit 512MiB.

Gibts noch weitere Erkenntnisse, außer das alle MGPU Probleme, besonders die von CF verschwiegen werden? :rolleyes:

Hvoralek
2009-02-24, 22:45:37
interessant zu sehen wie gut CF inzwischen geworden ist. Die Skalierung ist fast immer ÜBER der von SLI.... und das mit dem alten 8.12er Treiber :tongue:Hast Du einen anderen Test gelesen als ich? Klare Vorteile für CF sehe ich nur bei L4D, knappe noch bei CoD. Im Gegenzug skaliert SLI bei Fallout 3 und GRID jeweils ganz erheblich besser. Der Rest ist ungefähr Patt.

Auch Anandtech selbst bewertet (http://www.anandtech.com/video/showdoc.aspx?i=3517&p=3) die Ergebnisse anders als Du. Die verreißen die Skalierung bei zwei von drei AMD- Karten:
When looking at games that scale overall, we end up seeing both Radeon HD 4870 configurations (512MB and 1GB) performing worse than we expected. Granted, the 4870 1GB looks better if we only take 2560x1600 into account, but even then the Radeon HD 4850, GeForce GTX 260 and GTX 280 beat out the 4870 1GB in terms of average performance improvement (when performance improves). When we add in CPU limited cases, the 4870 cards look even worse.

tombman
2009-02-24, 22:58:49
SLI enjoys much better support from NVIDIA than CrossFire does from AMD.

Punkt :cool:

Raff
2009-02-24, 23:17:46
interessant zu sehen wie gut CF inzwischen geworden ist.

Buahahaaaa! Made my evening. ;) Sorry, aber "gut" ist da nur die Fps-Skalierung in bekannten Spielen und Benchmarks. Das Mikroruckeln ist ganz gemein und auch beim Support neuer oder weniger "mainstreamiger" Spiele tut Ati/AMD leider wenig bis gar nichts.

MfG,
Raff

_DrillSarge]I[
2009-02-24, 23:28:26
die haben noch den 8.12 hotfix genutzt. gerade bei cf muss man immer die neusten treiber sich anschauen, auch wenns oft nix bringt :biggrin:

LovesuckZ
2009-02-24, 23:30:12
I[;7128299']die haben noch den 8.12 hotfix genutzt. gerade bei cf muss man immer die neusten treiber sich anschauen, auch wenns oft nix bringt :biggrin:

Die Spiele dort sind alle älter als der Treiber. Demnach ist es egal, dass es nichtmal der neuste ist.

_DrillSarge]I[
2009-02-24, 23:32:03
man bräuchte mal eine art "multi-gpu detect" api, welche in die spiele und treiber eingebaut wird, woran es dann erkannt wird.
*zusammengedacht aus halbwissen* :D

Raff
2009-02-24, 23:34:37
Hehe, immer dieser Dünnpfiff wegen "alter" Treiber. Jeder Test ist eine Momentaufnahme. Komisch, dass bei diesen meist Nvidia die Nase vorn hat. Dann schiebt Ati einen Treiber nach, der soo viel besser sein soll als der alte. Das bedeutet anders formuliert nur, dass der andere Treiber Mist bzw. die Treiberabteilung zu langsam war. Nvidia hat übrigens auch schon einen neueren Treiber auf dem Strich, ergo passt der Test so, wie er ist.

Viele Leute sollten endlich mit dem unangebrachten Verständnis aufhören. Verständnis für Mist resultiert nur im Bestand des Mists, anstatt dass sich etwas für den zahlenden Kunden ändert.

MfG,
Raff

=Floi=
2009-02-24, 23:37:28
das würde dann bestimmt etwas bringen, weil EA ja ihre spiele super supportet ;D
nene das passt so schon und bei ati wird sich in nächster zeit auch nicht viel tun. Die haben schlicht das geld nicht für besseren support einer solchen technologie. Auf der anderen seite ist es geradezu erstaunlich welch guten support sich NV leisten kann. (treiber, SLI, TWIMTBP etc.)

edit
das post ist auf drillsarge bezogen!

_DrillSarge]I[
2009-02-24, 23:38:16
Viele Leute sollten endlich mit dem unangebrachten Verständnis aufhören. Verständnis für Mist resultiert nur im Bestand des Mists, anstatt dass sich etwas für den zahlenden Kunden ändert.
genau deswegen hab ich mich von cf abgewendet.

ich könnte verstehen, wenn man nur single-gpu karten hat und cf als "nice to have" anbieten würde (verstehen ist hier vielleicht der falsche begriff ;)). aber es wird ja vermarktet und man hat ja als flagschiff die x2. da ist es für mich unverständlich, dass es nicht zufriedenstellend funktioniert.

y33H@
2009-02-24, 23:55:08
Die Spiele dort sind alle älter als der Treiber. Demnach ist es egal, dass es nichtmal der neuste ist.Neuer Treiber = oft mehr Leistung [ja auch für ältere Titel] = falsche Aussage deinerseits ;D Oder habe ich dich etwas falsch verstanden? *g*

cYa

Gast
2009-02-25, 02:53:46
interessant zu sehen wie gut CF inzwischen geworden ist. Die Skalierung ist fast immer ÜBER der von SLI.... und das mit dem alten 8.12er Treiber :tongue:Das ist gut, denn von einem neueren Catalyst kann man soweiso nur dringend abraten.

nagus
2009-02-25, 07:52:19
Hast Du einen anderen Test gelesen als ich? Klare Vorteile für CF sehe ich nur bei L4D, knappe noch bei CoD. Im Gegenzug skaliert SLI bei Fallout 3 und GRID jeweils ganz erheblich besser. Der Rest ist ungefähr Patt.

Auch Anandtech selbst bewertet (http://www.anandtech.com/video/showdoc.aspx?i=3517&p=3) die Ergebnisse anders als Du. Die verreißen die Skalierung bei zwei von drei AMD- Karten:


ja genau, bererten ja TOTAL schnlecht, hast vollkommen recht:

"The cheaper Radeon HD 4870 X2 often does better than the GTX 295, and often multiGPU AMD options have better value than the highest end single GPU options from NVIDIA. But the real stand out has to be the Sapphire Radeon HD 4850 X2 2GB. This unique card really shined and held it's own all the way up to 2560x1600. While a 1GB 4850 might not make much sense (the extra RAM only really helps at resolutions where the 4850 can't keep up in terms of processing power), the 1GB of RAM per GPU on the 4850 X2 2GB really helps make this single card multiGPU option high end.

The Sapphire 4850 X2 costs less than a single NVIDIA GTX 280 or 285, and performs better than these as well. While the Radeon HD 4870 X2 is viable as high end single card multiGPU option, it competes at a price point beyond NVIDIA's high end. the 4850 X2 really puts pressure on anything that costs between $300 and $400 from the competition. It's very surprising to us that AMD hasn't pushed this configuration and that Sapphire are the only manufacturer to have put one of these out there."

wirklich total schlecht..... und das obwohl noch nicht die 9.2er cats getestet wurden die bei 2 von den getesteten spielen sogar eine SINGLE 4870er auf fast Geforce 285er niveau bringen.

Gast
2009-02-25, 08:28:11
I[;7128299']die haben noch den 8.12 hotfix genutzt.
Ach deshalb performen die AMD Karten mit 16x 1x AF vs Nvidias 16xHQ AF so gut.


wirklich total schlecht..... und das obwohl noch nicht die 9.2er cats getestet wurden
Yeah, immer nur den neuesten Treiber für AMD fordern.

wurden die bei 2 von den getesteten spielen sogar eine SINGLE 4870er auf fast Geforce 285er niveau bringen.
Ja und teils ist eine GTX 285 schneller als eine 4870 X2.

Neuer Treiber = oft mehr Leistung [ja auch für ältere Titel] = falsche Aussage deinerseits ;D Oder habe ich dich etwas falsch verstanden? *g*

cYaWenn der Treiber jünger als das Spiel ist, müssen CF Profile drin sein. Punkt. Es sei denn AMD lässt seine Kunden mal wieder im Stich.
Demnach ist es völlig egal, ob noch neuere mehr Performance rauskitzeln, machen sie bei Nvidia ebenfalls.

reunion
2009-02-25, 08:35:09
Hehe, immer dieser Dünnpfiff wegen "alter" Treiber. Jeder Test ist eine Momentaufnahme. Komisch, dass bei diesen meist Nvidia die Nase vorn hat. Dann schiebt Ati einen Treiber nach, der soo viel besser sein soll als der alte. Das bedeutet anders formuliert nur, dass der andere Treiber Mist bzw. die Treiberabteilung zu langsam war. Nvidia hat übrigens auch schon einen neueren Treiber auf dem Strich, ergo passt der Test so, wie er ist.

Hast du dir die Tests überhaupt angesehen? Ich sehe hier beileibe keine schlechtere Skalierung von CF.

Buahahaaaa! Made my evening. ;) Sorry, aber "gut" ist da nur die Fps-Skalierung in bekannten Spielen und Benchmarks. Das Mikroruckeln ist ganz gemein und auch beim Support neuer oder weniger "mainstreamiger" Spiele tut Ati/AMD leider wenig bis gar nichts.

MfG,
Raff

Das bekannte Spiele bevorzugt behandelt werden sollte auf der Hand liegen (und das ganz sicher auch bei NV). NV steckt hier vielleicht insgesamt etwas mehr Ressourcen hinein (haben ja auch wesentlich mehr), aber im Grunde kämpfen beide Technologien mit den selben Problemen.

Schlammsau
2009-02-25, 09:21:20
Ach deshalb performen die AMD Karten mit 16x 1x AF vs Nvidias 16xHQ AF so gut.
Beide Hersteller wurden mit identischen Settings gegeneinander getestet! Wie kommst du auf den Quatsch?
Der 8.12 stellt AF uneingeschränkt dar.

Yeah, immer nur den neuesten Treiber für AMD fordern.
Warum nicht, dass gleiche gilt ja auch für nVidia!

Ja und teils ist eine GTX 285 schneller als eine 4870 X2.
Wirklich? Ich wusste gar nicht, dass manche Spiele nVidia bevorzugen. *ironieende* :rolleyes:

Wenn der Treiber jünger als das Spiel ist, müssen CF Profile drin sein. Punkt. Es sei denn AMD lässt seine Kunden mal wieder im Stich.
Demnach ist es völlig egal, ob noch neuere mehr Performance rauskitzeln, machen sie bei Nvidia ebenfalls.
Natürlich, genauso wie bei nVidia werden bei ATi die Profile ständig verbessert.
Was spricht dagegen, bei beiden Herstellern immer den neusten Treiber zu nutzen? Gerade ATi ist bekannt dafür, wesentlich langlebiger zu sein.

Zum Thema:
Die Skalierung ist Teils wirklich besser als bei SLi. Natürlich gibt es Ausnahmen, aber die bestätigen die Regel.
Es ist wirklich so, dass man bei ATi momentan mehr FPS für den €uro bekommt als bei nV.

Raff
2009-02-25, 09:44:34
"The Sapphire 4850 X2 costs less than a single NVIDIA GTX 280 or 285, and performs better than these as well."

Das ist einfach Flitzekacke. Eine Multi-GPU-Karte ist nicht gleichwertig zu einer Single-GPU-Karte. Die GTX 28x ist klar besser als eine HD 4850 X2. Und bevor wieder einer heult, was für ein pöser Fanpoy ich doch bin: Auch zwei 9800 GTX+, sogar mit 1.024 MiB, sind schlechter als eine GTX 28x.

Hast du dir die Tests überhaupt angesehen? Ich sehe hier beileibe keine schlechtere Skalierung von CF.

Ich hab's überflogen, brauche aber nichts zu lesen, da ich das Grauen jeden Tag selbst erlebe. Die angezeigten Fps meinte ich auch nicht. Die gehen durchaus hoch. Dass sich diese aber scheiße anfühlen, wird wieder unter den Teppich gekehrt. Spätestens bei Quad-Crossfire haut's einen aus den Latschen, wie unspielbar "50 Fps" sein können: http://www.pcgameshardware.de/aid,675191/Grafikkarten-Test-Crossfire-X-gegen-Quad-SLI-und-3-Way-SLI/Grafikkarte/Test/?page=3 (Video ansehen!)

Das bekannte Spiele bevorzugt behandelt werden sollte auf der Hand liegen (und das ganz sicher auch bei NV). NV steckt hier vielleicht insgesamt etwas mehr Ressourcen hinein (haben ja auch wesentlich mehr), aber im Grunde kämpfen beide Technologien mit den selben Problemen.

Jo, beide kämpfen mit AFR. Nvidia schlägt aber schneller (früher Profile im Treiber) und eleganter (weniger Mikroruckeln oberhalb von 30 Fps). Das sind Fakten. Meiner bescheidenen Meinung nach ist "besser" aber noch nicht gut genug.

Es ist wirklich so, dass man bei ATi momentan mehr FPS für den €uro bekommt als bei nV.

Aaaaaaahhhh! Angezeigte Fps != gefühlte Fps.

MfG,
Raff

Gast
2009-02-25, 09:46:13
Der 8.12 stellt AF uneingeschränkt dar.
Es geht um den 8.12 Hotfix.

Warum nicht, dass gleiche gilt ja auch für nVidia!Scheinbar nicht. Bisher wurde nur bemängelt, das nicht der neueste AMD Treiber verwendet wurde.

Wirklich? Ich wusste gar nicht, dass manche Spiele nVidia bevorzugen. *ironieende* CF läuft eben nicht immer perfekt, im Zweifelsfall rechne ich eine 20% schnellere MGPU Lösung als langsamer als eine Single Lösung.

Mit AI-off hätten die CF Lösungen eh das nachsehen, sowohl BQ mässig, als auch FPS mässig.

Gerade ATi ist bekannt dafür, wesentlich langlebiger zu sein.
Gerücht ohne Fakten, gelle?
So wie die 3870 jetzt so langsam der 9800 GT, achne, 9600 GT das fürchten beibringt?
Oder die 2900 XT an der 8800 GTX, achne 8800 GTS vorbeizieht?

Es ist wirklich so, dass man bei ATi momentan mehr FPS für den €uro bekommt als bei nV. Und bei Nvidia mehr BQ für den €uro.

robbitop@work
2009-02-25, 13:13:02
Ist das nicht nur eine Frage von Erstellung von Profilen? Dazu muß jeder IHV doch lediglich eine Person beschäftigen, die bei jedem neuen Spiel probiert, welches Profil notwendig ist und das an die Treiberabteilung weiterreicht. Besser noch sollten die ISVs die Spiele so auf den Markt bringen, dass das default-Profil sofort greift. An sich sollten doch die ISVs seit Jahren Rücksicht auf AFR nehmen bei der Spieleerstellung.

Demirug
2009-02-25, 13:22:21
Ist das nicht nur eine Frage von Erstellung von Profilen? Dazu muß jeder IHV doch lediglich eine Person beschäftigen, die bei jedem neuen Spiel probiert, welches Profil notwendig ist und das an die Treiberabteilung weiterreicht. Besser noch sollten die ISVs die Spiele so auf den Markt bringen, dass das default-Profil sofort greift. An sich sollten doch die ISVs seit Jahren Rücksicht auf AFR nehmen bei der Spieleerstellung.

Wegen den paar MGPU Systemen Rücksicht nehmen? Im Endeffekt zahlt sich das eigentlich nicht aus. Entsprechend gehört schon einiges an Goodwill dazu wenn man sich die Mühe macht.

Hvoralek
2009-02-25, 14:06:26
ja genau, bererten ja TOTAL schnlecht, hast vollkommen recht:[...]

wirklich total schlecht.....Der von Dir zitierte Abschnitt beschäftigt sich mit der absoluten Geschwindigkeit der Karten, nicht mit der MGPU- Skalierung.

Blaire
2009-02-25, 17:30:31
Es ist wirklich so, dass man bei ATi momentan mehr FPS für den €uro bekommt als bei nV.

Man sollte nie am falschen Ende sparen. ;)

Schlammsau
2009-02-26, 08:17:06
Man sollte nie am falschen Ende sparen. ;)
Es gibt kein falsches Ende, nur andere Prioritäten! ;)

Gast
2009-02-26, 10:05:54
Es gibt kein falsches Ende, nur andere Prioritäten! ;)
Achso, du kaufst Grafikkarten um in Benchmarks gut dazustehen, nicht damit sie in Spielen eine bessere Grafik ausgeben als ihre Vorgänger. ;)

Schlammsau
2009-02-26, 10:43:45
Achso, du kaufst Grafikkarten um in Benchmarks gut dazustehen, nicht damit sie in Spielen eine bessere Grafik ausgeben als ihre Vorgänger. ;)

Ich will Games flüssig zocken, alles andere kommt an zweiter Stelle!

Raff
2009-02-26, 10:46:32
(Bild-)Qualität ist bei vielen nur auf Platz 2 (oder weiter hinten) – genau das ist das Problem. ;)

MfG,
Raff

Mr. Lolman
2009-02-26, 10:53:17
Ich will Games flüssig zocken, alles andere kommt an zweiter Stelle!

Das stimmt zwar einerseits, aber bedenklich find ich andererseits, dass schon die ein oder andere Meldung über flimmrigeres AF beim 9.2 kam. (Hab ich persönlich noch nicht feststellen können, aber liegt wohl eher daran, dass ich noch kaum gezockt hab, seitdem ich den Catalyst 9.2 installiert hab).

Jedenfalls sollte ATI tunlichst vermeiden die AF-Qualität noch weiter abzusenken - da sie ohnehin schon recht grenzwertig ist!

Sonyfreak
2009-02-26, 10:56:28
Ich will Games flüssig zocken, alles andere kommt an zweiter Stelle!Das nenne ich mal eine Ansage. :ucrazy3: :uup:

Wenn du die etwas früher gebracht hättest, wären uns seitenlange Diskussionen zu dem Thema erspart geblieben. ;)

mfg.

Sonyfreak

Gast
2009-02-26, 11:06:24
Jedenfalls sollte ATI tunlichst vermeiden die AF-Qualität noch weiter abzusenken - da sie ohnehin schon recht grenzwertig ist!
Ich bete, das sie die AF Qualität noch deutlich senken.
Mit etwas Glück gibts dann einen Aufschrei und die Qualität wird weit übers jetztige Niveau gehieft.

Naja kann auch Wunschdenken sein.

Ich will Games flüssig zocken, alles andere kommt an zweiter Stelle!
Wozu dann eine 4870?
Flüssig geht auch mit einer X1900 XT, musst halt auf Qualität verzichten.

Gast
2009-02-26, 11:36:18
Jedenfalls sollte ATI tunlichst vermeiden die AF-Qualität noch weiter abzusenken - da sie ohnehin schon recht grenzwertig ist!

Solange selbst Review-Seiten, die als kompetent gelten, offenbar an einer Sehschwäche leiden wird sich ATI da nicht viel drum scheren:

http://www.guru3d.com/article/radeon-hd-4750-rv740-review-preview-test/5

Ich sehe hier deutliche Unterschiede am Boden rund um die Figur, vermeintlich schärfer bei ATI (gut zu sehen an dem hellen Stein rechts neben der Figur etwa auf Hüfthöhe) aber vermutlich auch deutlich flimmernder in Bewegung.

Raff
2009-02-26, 11:48:53
Das stimmt zwar einerseits, aber bedenklich find ich andererseits, dass schon die ein oder andere Meldung über flimmrigeres AF beim 9.2 kam. (Hab ich persönlich noch nicht feststellen können, aber liegt wohl eher daran, dass ich noch kaum gezockt hab, seitdem ich den Catalyst 9.2 installiert hab).

Jedenfalls sollte ATI tunlichst vermeiden die AF-Qualität noch weiter abzusenken - da sie ohnehin schon recht grenzwertig ist!

Wo bemängelten deine Quellen denn die AF-Qualität? Würde mir das gerne ansehen. :)

MfG,
Raff

Coda
2009-02-26, 11:49:45
Mit etwas Glück gibts dann einen Aufschrei und die Qualität wird weit übers jetztige Niveau gehieft.
Bei NVIDIA gibt's nichts mehr zu heben. Zumindest nicht an der Abtastung. Höchstens die Line of Anisotropy könnte man noch einen Tick schöner berechnen.

Gast
2009-02-26, 11:50:33
Solange selbst Review-Seiten, die als kompetent gelten, offenbar an einer Sehschwäche leiden wird sich ATI da nicht viel drum scheren:

http://www.guru3d.com/article/radeon-hd-4750-rv740-review-preview-test/5

Ich sehe hier deutliche Unterschiede am Boden rund um die Figur, vermeintlich schärfer bei ATI (gut zu sehen an dem hellen Stein rechts neben der Figur etwa auf Hüfthöhe) aber vermutlich auch deutlich flimmernder in Bewegung.

Was hat ein PREview hier mit "Internal Beta" Treiber verloren?

Nix Multi GPU wie im Topic steht

Mr. Lolman
2009-02-26, 11:52:24
Solange selbst Review-Seiten, die als kompetent gelten, offenbar an einer Sehschwäche leiden wird sich ATI da nicht viel drum scheren:

http://www.guru3d.com/article/radeon-hd-4750-rv740-review-preview-test/5

Ich sehe hier deutliche Unterschiede am Boden rund um die Figur, vermeintlich schärfer bei ATI (gut zu sehen an dem hellen Stein rechts neben der Figur etwa auf Hüfthöhe) aber vermutlich auch deutlich flimmernder in Bewegung.

Wobei dieses Beispiel garnichtmal so toll ist um deine Aussagen zu untermauern. Der Radeonscreenshot ist imo nicht überscharf, sondern der NV Screenshot eher zu unscharf. (unabhängig davon ob das Ati Bild in Bewegung flimmert oder nicht, ist es imo locker möglich, die Schärfe vom linken Bild in Bewegung auch ohne Flimmern darzustellen. Dementpsrechend dürften da anscheinend beide IHVs nicht optimal rendern).
Außerdem sieht man hier auch die Unzulänglichkeiten beim NV-AF sehr gut. Der Weg links überm Alphatestgras ist bei NV zerstückelt, bei Ati hingegen ziemlich durchgehend...


Bei NVIDIA gibt's nichts mehr zu heben. Zumindest nicht an der Abtastung. Höchstens die Line of Anisotropy könnte man noch einen Tick schöner berechnen.

Die BQ bei Treiberdefault geht höher. HQ als Standard wäre aber angesichts des Ati-AFs taktisch unklug; das passt schon so, wie es gerade ist. Wenn, dann müssen beide nach oben gehen.

MfG,
Raff

Schaut euch mal den zerstückelten Weg bei NV an. Das ist das gleiche Problem wie bei den Begrenzungslinien von div Rennspielen.

Raff
2009-02-26, 11:52:31
Bei NVIDIA gibt's nichts mehr zu heben. Zumindest nicht an der Abtastung. Höchstens die Line of Anisotropy könnte man noch einen Tick schöner berechnen.

Die BQ bei Treiberdefault geht höher. HQ als Standard wäre aber angesichts des Ati-AFs taktisch unklug; das passt schon so, wie es gerade ist. Wenn, dann müssen beide nach oben gehen.

MfG,
Raff

Mr. Lolman
2009-02-26, 11:55:04
Wo bemängelten deine Quellen denn die AF-Qualität? Würde mir das gerne ansehen. :)

MfG,
Raff


NFS5, Grid, Warcraft 3 und Warhammer: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=448007&page=7

Gast
2009-02-26, 12:03:40
Bei NVIDIA gibt's nichts mehr zu heben. Zumindest nicht an der Abtastung. Höchstens die Line of Anisotropy könnte man noch einen Tick schöner berechnen.
Gut zu wissen.
Aber eigentlich meinte ich "weit über AMDs jetztiges Niveau zu heben"

Schlammsau
2009-02-26, 12:10:43
Immer das gleiche. :rolleyes:
Mich stört das "schlechtere" Filtern der Radeons nicht! *Punkt*
Als ob sich alles nur ums AF dreht.
Es gibt auch noch andere qualitätssteigernde Features wie AA, CFAA und AAA.

Und jetzt bin ich raus! :weg:

Coda
2009-02-26, 12:17:44
unabhängig davon ob das Ati Bild in Bewegung flimmert oder nicht, ist es imo locker möglich, die Schärfe vom linken Bild in Bewegung auch ohne Flimmern darzustellen.
Nein ist es nicht. Die LOD-Berechnung und Abtastung von NVIDIA ist auf HQ ohne LOD-Bias 100% korrekt.

ATI tastet bestimmte AF-Grade bei 16x nur mit 50% (!) der nötigen Samples ab - und das noch ohne A.I. Das Verhalten tritt auch erst ab 8x AF auf, bei 4x ist es noch halbwegs korrekt. Da gibt's einfach keine Ausreden mehr.

Schaut euch mal den zerstückelten Weg bei NV an. Das ist das gleiche Problem wie bei den Begrenzungslinien von div Rennspielen.
Behauptest du. Ich habe vergessen negatives LOD zu überprüfen als ich die GeForce drin hatte.

Mr. Lolman
2009-02-26, 12:23:41
Behauptest du. Ich habe vergessen negatives LOD zu überprüfen als ich die GeForce drin hatte.

Es liegt nicht nur am negativen LOD. Mit der richtigen Textur und der richtigen Verzerrung kann man das auch bei LOD 0.0 und XMas AF-Tester nachstellen (wengleich das Problem bei GF7 noch deutlich schlimmer war). Ich kann mir auch nicht vorstellen, dass BIA negatives LOD verwendet. Wenn doch, sollte man den verantwortlichen Artist erschiessen.

ATI tastet bestimmte AF-Grade bei 16x nur mit 50% (!) der nötigen Samples ab.


:eek: Ein Wunder, dass es noch halbwegs ordentlich aussieht. Trotzdem kann man das im Screenshot offensichtliche Problem nicht einfach wegdiskutieren. Womöglich ist auch die 'richtige' LOD Berechnung einfach zu ungenau für solche Sachen.

Gast
2009-02-26, 12:29:04
Highend-Einzelkarte gegen Mittelklasse-SLI/CF

http://www.pcgameshardware.de/aid,677162/Grafikkarten-Test-Highend-Einzelkarte-gegen-Mittelklasse-SLI/CF/Grafikkarte/Test/?page=1

Gast
2009-02-26, 12:32:38
Wobei dieses Beispiel garnichtmal so toll ist um deine Aussagen zu untermauern.

Es ging mir eher darum zu zeigen, daß selbst offensichtliche Unterschiede in der BQ selbst von renommierten Review-Seiten nicht wahrgenommen werden.

So the only difference I could spot is the roof of the shed in the back.

Ob jetzt ATI oder Nv hier richtiger filtert ist dabei nebensächlich.

Coda
2009-02-26, 12:42:17
:eek: Ein Wunder, dass es noch halbwegs ordentlich aussieht. Trotzdem kann man das im Screenshot offensichtliche Problem nicht einfach wegdiskutieren. Womöglich ist auch die 'richtige' LOD Berechnung einfach zu ungenau für solche Sachen.
Die richtige LOD-Berechnung ist nicht ungenau. Abgesehen davon hält sich ATI genauso daran.

Gast
2009-02-26, 12:42:34
ATI tastet bestimmte AF-Grade bei 16x nur mit 50% (!) der nötigen Samples ab - und das noch ohne A.I.
Doch so viel. Wie groß ist das weitere Einsparpotential für AMD?


Das Verhalten tritt auch erst ab 8x AF auf, bei 4x ist es noch halbwegs korrekt. Da gibt's einfach keine Ausreden mehr. Das ist doch mal ein Wort.
Konsequent könnte man ab sofort 4xAF als Standard für Benchmarks einführen. Nvidia Karten würden alleine die 16xAF Diagramme füllen.

y33H@
2009-02-26, 12:42:54
Mich stört das "schlechtere" Filtern der Radeons nicht! *Punkt*Ich will Games flüssig zocken, alles andere kommt an zweiter Stelle!Genau wegen solcher Denkweisen gibts Flimmer-AF und alle Welt freut sich, dass die Radeons mit 8x MSAA so toll sind ;( Und was ist mit gescheitem RGSSAA? Interessiert keinen, Hauptsache Balken lang ...

cYa

Coda
2009-02-26, 12:44:20
Doch so viel. Wie groß ist das weitere Einsparpotential für AMD?
Ich will es erst exakt nachstellen können bevor ich mich dazu äußere. Aber es werden schon über das Bild 25% der Samples sein was sie an Filtertakten und Bandbreite einsparen. Und das ist A.I. off.

Das ist doch mal ein Wort.
Konsequent könnte man ab sofort 4xAF als Standard für Benchmarks einführen. Nvidia Karten würden alleine die 16xAF Diagramme füllen.
Das Problem ist dabei, dass bei 4xAF die meiste Texturlast sowieso hinter ALU-Berechnungen versteckt werden kann.

Genau aus dem Grund aktiviert man die "Optimierung" ja auch erst bei höheren Modi.

Mr. Lolman
2009-02-26, 12:49:16
Genau aus dem Grund aktiviert man die "Optimierung" ja auch erst bei höheren Modi.

4xAF wirkt auf meiner 4870 aber nicht unbedingt ruhiger als 8xAF. Wird bei 8xAF generell optimiert, oder nur der Teil der mit 8xAF schärfer ist, als mit 4xAF?

Coda
2009-02-26, 12:49:34
Es liegt nicht nur am negativen LOD. Mit der richtigen Textur und der richtigen Verzerrung kann man das auch bei LOD 0.0 und XMas AF-Tester nachstellen (wengleich das Problem bei GF7 noch deutlich schlimmer war). Ich kann mir auch nicht vorstellen, dass BIA negatives LOD verwendet. Wenn doch, sollte man den verantwortlichen Artist erschiessen.
Dann zeig mir doch mal was du überhaupt meinst.

4xAF wirkt auf meiner 4870 aber nicht unbedingt ruhiger als 8xAF. Wird bei 8xAF generell optimiert, oder nur der Teil der mit 8xAF schärfer ist, als mit 4xAF?
Der Teil der eigentlich 6 Samples benötigt wird mit 4xAF noch halbwegs ruhig abgetastet (4 o. 6 Samples auf beiden Mips), bei 8xAF aber nur noch mit 2 auf zumindest einer Mip.

Wie gesagt gilt das aber nur für A.I. off. Mit A.I. on ist es bekanntlich ja noch schlimmer. Nur leider reagiert meine Applikation nicht auf A.I.

reunion
2009-02-26, 13:05:14
Ich will es erst exakt nachstellen können bevor ich mich dazu äußere. Aber es werden schon über das Bild 25% der Samples sein was sie an Filtertakten und Bandbreite einsparen. Und das ist A.I. off.


Das wird ja bei NV default auch nicht viel anders sein. Blöd ist halt nur das man es bei AMD nicht ausschalten kann.

Mr. Lolman
2009-02-26, 13:11:19
Dann zeig mir doch mal was du überhaupt meinst.

http://www.abload.de/img/afcpqs.gif (http://www.abload.de/image.php?img=afcpqs.gif)


Der Teil der eigentlich 6 Samples benötigt wird mit 4xAF noch halbwegs ruhig abgetastet (4 o. 6 Samples auf beiden Mips), bei 8xAF aber nur noch mit 2 auf zumindest einer Mip.

D.h. 8xAF müsste an den Stellen, die gleich scharf sind, wie bei 4xAF deutlich stärker flimmern, oder?

nagus
2009-02-26, 13:13:23
Highend-Einzelkarte gegen Mittelklasse-SLI/CF

http://www.pcgameshardware.de/aid,677162/Grafikkarten-Test-Highend-Einzelkarte-gegen-Mittelklasse-SLI/CF/Grafikkarte/Test/?page=1

wahnsinn was der 9.2er catalyst da ausrichtet... die 4870er is ja wirklich quasi auf 280er niveau im test. respekt ATI

Gast
2009-02-26, 13:13:38
Das wird ja bei NV default auch nicht viel anders sein. Blöd ist halt nur das man es bei AMD nicht ausschalten kann.
Dann findest du AI-off und Q Vergleiche gut?

Gast
2009-02-26, 13:24:03
wahnsinn was der 9.2er catalyst da ausrichtet... die 4870er is ja wirklich quasi auf 280er niveau im test. respekt ATI
Das CoD4 sogut geht hätte ich nicht gedacht

Coda
2009-02-26, 13:29:01
http://www.abload.de/img/afcpqs.gif (http://www.abload.de/image.php?img=afcpqs.gif)
Sorry, damit kann ich absolut nichts anfangen. Ich kenne die Szene nicht und die Stelle ist viel zu klein. Stell es synthetisch nach meinte ich.

Was ich bemerkt habe, ist dass die NVIDIA-TMUs den Filterpunkt nicht ganz so genau nehmen wie ATI und das evtl. die Derivate-Bestimmung ein wenig ungenauer ist. Könnte eine Erklärung dafür sein. Falls das wirklich diese Auswirkungen zeigt könnte man das wirklich noch ändern.

D.h. 8xAF müsste an den Stellen, die gleich scharf sind, wie bei 4xAF deutlich stärker flimmern, oder?
Es müsste nicht nur, es ist so.

Das wird ja bei NV default auch nicht viel anders sein.
Doch, es ist wesentlich besser.

Gast
2009-02-26, 15:58:20
http://www.abload.de/img/afcpqs.gif (http://www.abload.de/image.php?img=afcpqs.gif)



Eine leicht unterschiedliche Färbung sehe ich da, aber sonst keinen Unterschied.

LovesuckZ
2009-02-26, 20:35:57
Highend-Einzelkarte gegen Mittelklasse-SLI/CF

http://www.pcgameshardware.de/aid,677162/Grafikkarten-Test-Highend-Einzelkarte-gegen-Mittelklasse-SLI/CF/Grafikkarte/Test/?page=1

Da kann man nur den Kopf schütteln: Wieso testet man 512mb Karten mit Spielen, die so modifizert wurden, dass sie selbst in normalen Settings schon mindesten 1024mb Speicher benötigen? Ziemlich einseitig und sehr meinungsbildend. Man könnte auch sagen: Hier wird das Ergebnis klar in Richtung 1024mb Karten gelenkt.

_DrillSarge]I[
2009-02-26, 20:41:33
wahnsinn was der 9.2er catalyst da ausrichtet... die 4870er is ja wirklich quasi auf 280er niveau im test. respekt ATI
finde ich auch überraschend. eher erschreckend ist jedoch, dass eine 4870/1g oft schneller/unwesentlich lahmer als das crossfire-gespann ist. :eek:

Gast
2009-02-26, 21:10:03
Es gibt kein falsches Ende, nur andere Prioritäten! ;)

Bildqualität,Treiber,Gamessupport, da zahlt man gerne etwas mehr. Wer nicht anspruchsvoll ist kauft eben billig, ist jedem selbst überlassen. :-)

Schlammsau
2009-02-26, 21:21:14
I[;7132478']finde ich auch überraschend. eher erschreckend ist jedoch, dass eine 4870/1g oft schneller/unwesentlich lahmer als das crossfire-gespann ist. :eek:

Was mich auch wundert....warum hat man ein 4830 CrossFire, gegen ein 9800GTX+ Sli gebencht? :|
Die spielen doch preis- und leistungsmässig in ganz verschiedenen Ligen!
Wenn dann hätte man zwei 4850, gegen zwei 9800GTX+ gegeneinander stellen sollen.
Obwohl in den Benches, ist sogar das Crossfire Gespann, meist deutlich schneller als das SLi Gespann.

CF scheint wirklich wesentlich besser zu skalieren!

Coda
2009-02-26, 21:29:17
Dir ist aber schon klar, dass ein CPU-Limit mit kleineren Karten weniger zum tragen kommt?

Ob SLI oder Crossfire besser skaliert ist eine reine Treiberfrage und kein fixer Sachverhalt.

Schlammsau
2009-02-26, 21:32:58
Ob SLI oder Crossfire besser skaliert ist eine reine Treiberfrage und kein fixer Sachverhalt.

Wie auch immer, in den von PCGH getesteten Games und Settings ist meist das eigentlich deutlich langsamere Gespann (2x HD4830 ab 170€), dem eigentlich deutlich schnelleren und teureren Gespann (2x 9800GTX+ ab 260€) überlegen!
Und das bereits bei nichtmal so Grafikkartenfordernden Auflösungen von 1280x1024 und 2xAA!

http://www.abload.de/img/unbenannt8vow.jpg

http://www.abload.de/img/unbenannt2oha.jpg

http://www.abload.de/img/unbenannttpr3.jpg

LovesuckZ
2009-02-26, 21:43:29
Und das bereits bei nichtmal so Grafikkartenfordernden Auflösungen von 1280x1024 und 2xAA!

Und es bleibt trotzdem nicht spielbar. Aber den Teil hast du wahrscheinlich überlesen, gell? :rolleyes:

Raff
2009-02-26, 21:44:17
Hehe, ja, da basht der Catalyst 9.2 ganz hübsch. Es ist fast unglaublich, was für abartige Leistungssteigerungen damit rauskommen.

Und äh, das ist spielbar. Ich hab' Crysis auch mit 15 bis 30 Fps durchgezockt. ;)

MfG,
Raff

LovesuckZ
2009-02-26, 21:47:05
Hehe, ja, da basht der Catalyst 9.2 ganz hübsch. Es ist fast unglaublich, was für abartige Leistungssteigerungen damit rauskommen.

Und äh, das ist spielbar. Ich hab' Crysis auch mit 15 bis 30 Fps durchgezockt. ;)

MfG,
Raff

Das freut mich für jemanden, der hier dauernd gegen Multi-GPU Systeme basht. :|

Raff
2009-02-26, 21:48:55
Zu Recht – denn während 20 Fps auf einer Solokarte "angenehm ruckeln" (regelmäßig), stocken alle MGPU-Lösungen da übel. Und zwar unvermindert und ungeschönt. Die ganzen tollen Balancer im Treiber greifen erst oberhalb von 30 Fps gescheit.

MfG,
Raff

Gast
2009-02-26, 21:49:32
Dir ist aber schon klar, dass ein CPU-Limit mit kleineren Karten weniger zum tragen kommt?


Ein Core i7 würde ich nicht als limitierenden CPU bezeichnen ;)

LovesuckZ
2009-02-26, 21:49:38
Zu Recht – denn während 20 Fps auf einer Solokarte "angenehm ruckeln" (regelmäßig), stocken alle MGPU-Lösungen da übel. Und zwar unvermindert und ungeschönt. Die ganzen tollen Balancer im Treiber greifen erst oberhalb von 30 Fps gescheit.

MfG,
Raff

Also doch unspielbar?! :confused:

Schlammsau
2009-02-26, 21:49:41
Und es bleibt trotzdem nicht spielbar. Aber den Teil hast du wahrscheinlich überlesen, gell? :rolleyes:

Hä :|, die sind alle bis auf Stalker spielbar!

Und es geht hier um den Vergleich von MGPU Systemen. Und nicht um den Vergleich mit einer Single GPU Karte!

LovesuckZ
2009-02-26, 21:51:28
Hä :|, die sind alle bis auf Stalker spielbar!

Ja, wenn man nur nach den Zahlen geht. Aber so einen Test liest man ja heute nicht mehr komplett durch. :|


Und es geht hier um den Vergleich von MGPU Systemen. Und nicht um den Vergleich mit einer Single GPU Karte!

Nö, hier wird nur gezeigt, wie Karten mit 512mb im SLI Verbund mit extremen Situationen abschneiden. Und man sieht daran, dass 512mb bei AMD reichen würden, wenn die Probleme von MGPU nicht vorhanden wären. Ergo benötigt man auch bei AMD höhrere Zahlen. Und dann verringert sich auch wieder der Speicherverbrauch.

Raff
2009-02-26, 21:53:05
Also doch unspielbar?! :confused:

31 minimal, ~37 average. Das lief/läuft akzeptabel. Natürlich werden die Fps einer einzelnen GPU trotzdem hochwertiger ausgegeben.

Und es geht hier um den Vergleich von MGPU Systemen. Und nicht um den Vergleich mit einer Single GPU Karte!

Dem Vergleich mit einer Singlekarte muss sich jede MGPU-Konstellation stellen.

BTW: Blog: Appell - Qualität anstatt Quantität! (http://www.pcgameshardware.de/aid,677321/Blog-Appell-Qualitaet-anstatt-Quantitaet/Grafikkarte/News/)

MfG,
Raff

Schlammsau
2009-02-26, 21:53:51
Ja, wenn man nur nach den Zahlen geht. Aber so einen Test liest man ja heute nicht mehr komplett durch. :|

Hallo....vergleich von SLi und CF! Mehr nicht!
Und wenn SLi jetzt schon die Puste ausgeht, wie wird es dann Morgen aussehen? ;)


Dem Vergleich mit einer Singlekarte muss sich jede MGPU-Konstellation stellen.

MfG,
Raff

Natürlich....nur wollte ich gerade auf die Unterschiede von CF und SLi eingehen, ohne auf die GTX280 zu achten.

Gast
2009-02-26, 21:56:15
PC Games Hardware testet die Worstcase-Stellen immer, daher hat man bei 95% des Games deutlich höhere Framerates und kann gut zocken.

LovesuckZ
2009-02-26, 21:58:03
31 minimal, ~37 average. Das lief/läuft akzeptabel. Natürlich werden die Fps einer einzelnen GPU trotzdem hochwertiger ausgegeben.


"Input-Lag: unter 45 Fps sehr schwammig".
Was soll mir das sagen? Das es trotz einer nicht mehr eindeutigen Steuerung keine Probleme gibt? :rolleyes:
Ergo benötigt man mindesten 45fps, um eine vernünftige Steuerung zu erhalten.

Coda
2009-02-26, 21:59:01
Wie auch immer, in den von PCGH getesteten Games und Settings ist meist das eigentlich deutlich langsamere Gespann (2x HD4830 ab 170€), dem eigentlich deutlich schnelleren und teureren Gespann (2x 9800GTX+ ab 260€) überlegen!
Es sieht so aus, als würde da die 9800er einfach gar nicht skalieren in den Benchmarks. KA was da schiefgegangen ist, aber normal sollte das nicht so sein.

Mir ist das eh egal, weil ich SLI und CF beides für nen großen Haufen Kot halte (genau wegen diesen Dingen). Ich verstehe nur nicht warum sich immer alle so dran aufgeilen müssen.

Schlammsau
2009-02-26, 22:00:35
Es sieht so aus, als würde da die 9800er einfach gar nicht skalieren in den Benchmarks. KA was da schiefgegangen ist, aber normal sollte das nicht so sein.

Mir ist das eh egal, weil ich CF und SLI für nen großen Haufen Kot halte (genau wegen diesen Dingen). Ich verstehe nur nicht warum sich immer alle so dran aufgeilen müssen.

Dann bitte den Redakteur um einen neuen Test.

Coda
2009-02-26, 22:01:08
Wieso sollte ich wenn es mir egal ist X-D

Ich werde profilbasierenden AFR-Dreck sowieso niemals besitzen. Die Nachteile werden von der Balkenlänge einfach nicht wiedergegeben.

Schlammsau
2009-02-26, 22:02:40
"Input-Lag: unter 45 Fps sehr schwammig".
Was soll mir das sagen? Das es trotz einer nicht mehr eindeutigen Steuerung keine Probleme gibt? :rolleyes:
Ergo benötigt man mindesten 45fps, um eine vernünftige Steuerung zu erhalten.

Naja, hab vor einem guten 3/4 Jahr Crysis selber im CF gezockt, und der Input-Lag war meiner Ansicht nach, bei über 30 FPS verschwunden!
Und das war mit einem 3870 Gespann.


Mir ist das eh egal, weil ich SLI und CF beides für nen großen Haufen Kot halte (genau wegen diesen Dingen). Ich verstehe nur nicht warum sich immer alle so dran aufgeilen müssen.
Weil es die Zukunft sein wird, zumindest laut ATi!

_DrillSarge]I[
2009-02-26, 22:35:27
Naja, hab vor einem guten 3/4 Jahr Crysis selber im CF gezockt, und der Input-Lag war meiner Ansicht nach, bei über 30 FPS verschwunden!
Und das war mit einem 3870 Gespann.
crysis ist auch ein eher langsames game.
input lag = no go :(

Coda
2009-02-26, 22:40:12
Weil es die Zukunft sein wird, zumindest laut ATi!
Die Zukunft können sie sich sonst wohin klemmen. Ich hoffe der Markt wird das auch so sehen.

Wenn sie ein transparentes Multi-GPU-System entwickeln das diese ganzen Probleme nicht hat ist es natürlich etwas anderes.

Gast
2009-02-26, 23:24:14
Weil es die Zukunft sein wird, zumindest laut ATi!
Warum tut AMD dann so wenig/gar nichts dafür?
Nein, die Werbetrommel anzuschmeissen zählt nicht als "tun"

So wie es jetzt ist und bleibt, da spüle ich mein Geld lieber gleich ins Klo.

Und es bleibt trotzdem nicht spielbar. Aber den Teil hast du wahrscheinlich überlesen, gell? :rolleyes:Schon geil, hier wird mit 30 MGPU FPS argumentiert.

Schlammsau hat es doch sonst gerne flüssig, also geil viele FPS, hm.

y33H@
2009-02-26, 23:45:44
@ SchlammsauUnd es geht hier um den Vergleich von MGPU Systemen. Und nicht um den Vergleich mit einer Single GPU Karte!Setzen, sechs - Intention des Tests nicht kapiert :rolleyes: Es geht eben darum ob ich für Betrag X mit SGPU oder MGPU besser fahre.Input-Lag war meiner Ansicht nach, bei über 30 FPS verschwunden! Und das war mit einem 3870 Gespann.So zockst du freiwillig? Gruslig was manche optisch wie spielerisch ertragen können :eek:
Es sieht so aus, als würde da die 9800er einfach gar nicht skalieren in den Benchmarks. KA was da schiefgegangen istBei HL2 skaliert SLI tatsächlich beschi**en, idR geht den beiden GTX+ aber schlicht der Speicher aus - und das mögen die sowas von gar nicht bzw. die skalieren dann übelst schei0e ;D

cYa

LovesuckZ
2009-02-26, 23:47:36
Und das ist euch missglückt, weil hier 512mb mit 1024mb verglichen wird, wobei jeweils die beiden 9800gtx+ sowie die 4830 Karten mit 1024mb nicht teurer sind.

y33H@
2009-02-26, 23:53:04
Wieso testet man 512mb Karten mit Spielen, die so modifizert wurden, dass sie selbst in normalen Settings schon mindesten 1024mb Speicher benötigen?Dies aufzuzeigen war auch ein Punkt. MGPU verdoppelt die Rechenpower, krankt aber an zu wenig Speicher. Ich kaufe mir ja wohl zwei Karten, eben damit ich die Optionen hochknallen kann - und genau daran scheiterts dann halt auch. Zumal es ein weit verbreiteter Irrglaube ist, MGPU mit 2x 512 sei gleichwertig wie SGPU mit 1G. Btw kosten die 1.024er-Modelle klar mehr, für ein Doppel legst du da schon 30-45€ drauf.


EDIT
2x GTX+/512 = 260€
2x GTX+/1G = 305€

2x 4830/512 = 170€
2x 4830/1G = 200€

Wie sich sowas schlägt kann man ja nach dem Launch der GTS 250 testen, die hat ja angeblich 1G :)

cYa

LovesuckZ
2009-02-26, 23:59:09
Dies aufzuzeigen war auch ein Punkt. MGPU verdoppelt die Rechenpower, krankt aber an zu wenig Speicher. Ich kaufe mir ja wohl zwei Karten, eben damit ich die Optionen hochknallen kann - und genau daran scheiterts dann halt auch. Zumal es ein weit verbreiteter Irrglaube ist, MGPU mit 2x 512 sei gleichwertig wie SGPU mit 1G. Btw kosten die 1.024er-Modelle klar mehr, für ein Doppel legst du da schon 30-45€ drauf.

Für diese Erkenntnis würde ich niemanden bezahlen...


EDIT
2x GTX+/512 = 260€
2x GTX+/1G = 305€

2x 4830/512 = 170€
2x 4830/1G = 200€

Wie sich sowas schlägt kann man ja nach dem Launch der GTS 250 testen, die hat ja angeblich 1G :)

cYa

1xGTX285 = 305€
1x4870 1G = 200€.

Es ist ersichtlich, dass die 512mb kaum von relevanz sind, wenn diese mit diesen Karten verglichen wird.

y33H@
2009-02-27, 00:02:32
Für diese Erkenntnis würde ich niemanden bezahlen.Musst du ja nicht ;D

Schön, dass du diese Erkenntnis bereits hast - es gibt aber genug, die haben die nicht. Sonst würden sich nicht so viele SLI/CF-Mythen halten. Und wie gesagt, 1G-Karten kann man nachtesten. Aktuell gibts eh kaum gescheite GTX+/1G.

cYa

_DrillSarge]I[
2009-02-27, 03:15:31
Been asked how to force on AFR for Crossfire. Simple. Put Catalyst AI to advanced.
http://twitter.com/CatalystMaker

wird nicht immer per afr ausgegeben???

y33H@
2009-02-27, 09:10:51
Meines Wissens schon. Nur bei SLI kann man SFR wählen.

cYa

_DrillSarge]I[
2009-03-10, 19:58:38
laut terry makedon auf twitter

Crossfire may get improved performance with this MSFT hotfix - i just got this info on email - http://budurl.com/quwy
:confused: