PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI/Crossfire – Un(Sinn)?


urfaust
2010-05-05, 22:41:56
eine kleine Kontroverse aus dem Thema (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480169&page=257)

Eure Meinung?

CONTRA

Beim Betrieb und Kauf von SLi ist aber vorwiegend Psychologie dabei

Mein "Vorwurf" an SLI ist nicht die Effizienz unterhalb von 100%, sondern der zusätzliche Inputlag und das Mikroruckeln. Wer den Unterschied nicht merkt, bräuchte auch nicht die nominal 70% höheren (real eher 40-50% besseren) Frameraten.

Ich für meinen Teil verabscheue Ineffizienz, besonders, wenn noch weitere Probleme hinzukommen. Multi-GPU widerspricht daher meiner persönlichen Philosophie. Wenn ich 100 Prozent mehr Geld investiere, dann will ich auch konstant 100 Prozent mehr Leistung dafür (oder zumindest 90 Prozent).


PRO

Ohne SLI müsste ich sowohl in Risen als auch in AC 2 auf die TRSSAA Stufe verzichten, die eine wirklich deutliche Verbesserung bringt (4xMS + 4x TRSSAA). Es ist einfach nicht konstant gut spielbar (z.B. im Sumpf bei Risen) wenn man nur eine GTX480 einsetzt.

Mit SLI geht das ohne Probleme. Und weder Microruckeln noch Inputlag sind für mich in einem der beiden Spiele spürbar.

MGPU ist nicht dazu da, games zu "beschleunigen", die es eh ned nötig haben, sondern die, die ohne MGPU maximiert nicht mehr gescheit spielbar wären...

Das Thema Microruckler wird absolut überbewertet. Jeder mit SLI hat die Wahl, ob er ein Spiel mit oder lieber ohne SLI spielt. Ich probier lange für jedes Spiel aus, mit welcher Qualitätseinstellung und mit oder ohne SLI die bessere Wahl ist.

Schlammsau
2010-05-05, 23:03:37
[x]...die negativen Erfahrungen mit SLI/CF überwogen

Hatte ne Zeit lang Crossfire, aber der Inputlag <25fps, war das schlimmste an der Geschichte. Die Mikroruckler haben mich dagegen gar nicht mal so gestört.
Noch dazu die untragbare Ineffizienz....doppelter Stromverbrauch, doppelter Preis und eine höhere Lautstärke bei im Schnitt 50% mehr fps.... :nono:

urfaust
2010-05-05, 23:05:53
[x] ...betreibe SLI/CF und bin hoch zufrieden

Bisher überwiegend positive Erfahrungen gemacht,
vom Mikrorucklern&Input-Lags keine Spur, und das obwohl ich
eine empfindliche Natur bin.
Den Performance-Boost nutze ich ausschließlich zur
Qualitätssteigerung. 8xSGSSAA rules! :freak:

Zatoichi
2010-05-05, 23:23:15
[x] ...betreibe SLI/CF und bin zufrieden

Das hoch ist zuviel. Es gibt definitiv Nachteile, aber die sind für mich vertretbar.

urfaust
2010-05-05, 23:24:36
Das hoch ist zuviel

stimmt, da habe ich wohl zu viel Enthusiasmus (im wahrsten Sinne)
mit einfließen lassen äähhm :redface:

y33H@
2010-05-05, 23:33:49
Ich zahle nicht das Doppelte für weniger als die doppelten Fps minus µRuckler, Input-Lag, Fps-Verlust im CPU-Limit, fehlende Profile (beim Release neuer Spiele) und nicht vorhandene geile AA-Masken [SLI-AA ist crap, Super-AA nur MSAA]. MGPU auf AFR-Basis ist nur für lange Balken gut, in allem anderen imo ein epic fail.

Daredevil
2010-05-05, 23:34:58
MultiGPU ist für mich nur dann sinnvoll, wenn die Leistung einer High-End Karte nicht mehr für die Settings, die man sich wünscht ausreicht, weil es ab da an keinen anderen Weg außer ob gibt, die FPS zu vermehren.

Jemand der sich 2x5770er holt, ist ein Idiot.
Jemand der sich eine zweite 5870 holt, um statt 70fps nun 115fps zu haben, ebenso.
Jemand der bei Metro mit einer GTX480 an der 30fps Ruckel Grenze ist und gerne noch mehr Kantenglättung dazuschalten will, für denjenigen wurde diese Technik entwickelt, da sie mit Nachteilen versehen ist und die sollte jeder schlaue Mensch nur in kauf nehmen, wenn es denn nicht anders geht.

tombman
2010-05-05, 23:43:38
Ich zahle nicht das Doppelte für weniger als die doppelten Fps
Doch, tust du, siehe deine QuadCore Cpu ;)

Daredevil
2010-05-05, 23:45:04
Kauft sich y33H@ einfach ne CPU mit HTT, doppelt soviel Kerne und *mehr als doppelt soviel Leistung! :eek::eek::eek::eek::eek:

(* Wenn der Single Core kein HTT hat... :D )

y33H@
2010-05-05, 23:47:33
@ Tombi

In massiv parallelisierter Software sind zwei Kerne mehr als doppelt so schnell wie einer :tongue:

Und im Übrigen µRuckelt eine CPU nicht ;D

tombman
2010-05-05, 23:54:33
In massiv parallelisierter Software
Was games zu 99% nicht sind :tongue:

Sag mir jetzt nicht, du hast die Cpu NUR für diese spezielle software gekauft, weil das glaub ich dir eh nicht...

Du hast 4 Cpu Kerne und bekommst nicht 4x soviel fps- Ende, Punkt, Aus :cool:

Sonyfreak
2010-05-05, 23:56:57
[x] ... derzeit finde ich SLI/CF absolut uninteressant


Inputlag
Mikroruckler
mäßiger Leistungszugewinn
hoher Stromverbrauch
funktioniert nicht immer


Ich kanns allerdings gut verstehen, dass sich jemand ein solches System aufbaut.

mfg.

Sonyfreak

Ronny145
2010-05-06, 00:03:17
Finde ich absolut uninteressant, weil es zu viele Nachteile mit sich bringt. Im Vergleich zu identischer Einzelkarte

- Mikroruckeln
- Input lag
- erhöhter Stromverbrauch (besonders Idle würde mich stören)
- erhöhte Geräuschkulisse (2 Lüfter lauter als einer)
- erhöhte Wärmeentwicklung im Gehäuse
- oftmals Treiberprobleme (nicht jedes neue Spiel profitiert anfangs von SLI/Crossfire, besonders bei Ati kann es länger dauern)

Das lehne ich aus Prinzip ab.

tombman
2010-05-06, 00:04:07
[x] ... derzeit finde ich SLI/CF absolut uninteressant


Inputlag
Mikroruckler
mäßiger Leistungszugewinn
hoher Stromverbrauch
funktioniert nicht immer


Ich kanns allerdings gut verstehen, dass sich jemand ein solches System aufbaut.

mfg.

Sonyfreak

zu 95% konsequenzlos
ab gewisser fps-Stufe nicht mehr spürbar
+80% ist "mäßig"? :ulol:
wayne, wir sind hier im high-end
mittlerweile zu 99%, besonders bei Nvidia

Daredevil
2010-05-06, 00:07:47
SLI/Crossfire != HighEnd

Es macht zwar nur in dem Bereich am meisten Sinn, aber es sind nicht wenige, die sich nen MultiGPU Mainboard kaufen um im Hinterkopf zu haben "Nehm ich halt jetzt eine 5770 für 120€ und in einem Jahr noch eine für 100€, dann bin ich so schnell wie eine 5850 für 249€!".

Zatoichi
2010-05-06, 00:08:39
Finde ich absolut uninteressant, weil es zu viele Nachteile mit sich bringt. Im Vergleich zu identischer Einzelkarte

- Mikroruckeln
- Input lag
- erhöhter Stromverbrauch (besonders Idle würde mich stören)
- erhöhte Geräuschkulisse (2 Lüfter lauter als einer)
- erhöhte Wärmeentwicklung im Gehäuse
- oftmals Treiberprobleme (nicht jedes neue Spiel profitiert anfangs von SLI/Crossfire, besonders bei Ati kann es länger dauern)

Das lehne ich aus Prinzip ab.

Im Idle wird bei CFX die 2te Karte in einen LPS versetzt. Auch ist gerade die CFX/SLi Unterstützung genau das was in den Hotfix Treibern kommt.

Ich will hier niemanden zu nahe treten, aber kann es sein das hier wieder nur auf Basis hab ich gehört/gelesen kommen?

tombman
2010-05-06, 00:09:06
Finde ich absolut uninteressant, weil es zu viele Nachteile mit sich bringt. Im Vergleich zu identischer Einzelkarte

Es gibt keine vergleichbare Einzelkarte. Und wer sich Mgpu mit non-high-end baut, hat sie nicht mehr alle.

Daredevil
2010-05-06, 00:10:40
Und wer sich Mgpu mit non-high-end baut, hat sie nicht mehr alle.


zu 95% konsequenzlos
ab gewisser fps-Stufe nicht mehr spürbar
+80% ist "mäßig"? :ulol:
wayne, wir sind hier im high-end
mittlerweile zu 99%, besonders bei Nvidia


Was denn nun?
Wenns es kaum Nachteile gibt, wie du sagst, kann ich mir ja endlich ne zweite 4830 in die Kiste stecken. ;)

Sonyfreak
2010-05-06, 00:13:23
zu 95% konsequenzlos
Naja, ich verwende aktuell nicht umsonst das niedrigste Prerenderlimit, das einstellbar ist.
ab gewisser fps-Stufe nicht mehr spürbar
Kann sein, aber dann bringt mir MGPU auch nicht mehr 80% Leistungsschub, sondern nur noch 30-40%.
+80% ist "mäßig"? :ulol:
Die 80% werden, wie oben erwähnt, teilweise von den Mikrorucklern wieder aufgefressen.
wayne, wir sind hier im high-end
Schon richtig, aber irgendwann wirds auch einem High-End Käufer zuviel. Und zwei GTX 480 - darunter ist MGPU ja sinnlos - sprengen meinen Rahmen eben.
mittlerweile zu 99%, besonders bei Nvidia
Aber nur wenn man bereit ist herumzubasteln. Einstellen und loslegen klappt jedenfalls nicht immer.

mfg.

Sonyfreak

Dante GTX
2010-05-06, 00:13:29
[x] ...betreibe SLI/CF und bin hoch zufrieden (oder sagen wir "sehr zufrieden")

Hab mal mit abgestimmt (Crossfire/SLI/Multichrome... technisch gesehen Jacke wie Hose ;) ). Kann Multi-GPU zwar nicht in jedem Spiel nutzen (kein exe-Renaming bei Steam-Spielen z.B.), aber ohne wäre so manches Spiel mit hohen Details in Widescreen-Auflösung nicht denkbar auf S3-Karten... (Und deutlich schnellere S3-Single-GPU-Systeme gibt es halt leider nicht).

Ergo: Spielen von Spielen oder Settings die ohne MGPU hier nicht möglich wären... durch Steigerung der Leistung über das Niveau was mit einer GPU (von S3) derzeit möglich ist...

Ronny145
2010-05-06, 00:15:35
Es gibt keine vergleichbare Einzelkarte. Und wer sich Mgpu mit non-high-end baut, hat sie nicht mehr alle.


Das hast du falsch verstanden. Ich bin in meinem Vergleich von identischen Karten ausgegangen, d.h. die einzelne Karte als Einzelkarte und noch eine exakt gleiche dazu für SLI/Crossfire. Weil das sonst mit dem Lüftervergleich nicht mehr unbedingt stimmen würde. Ein lauter Lüfter kann ja locker lauter als 2 leise Lüfter sein.

Im Idle wird bei CFX die 2te Karte in einen LPS versetzt. Auch ist gerade die CFX/SLi Unterstützung genau das was in den Hotfix Treibern kommt.


http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_ati_radeon_hd_5970_crossfire/7/#abschnitt_sonstige_messungen
http://www.computerbase.de/artikel/grafikkarten/2009/test_ati_radeon_hd_5770_crossfire/22/#abschnitt_leistungsaufnahme
http://www.computerbase.de/artikel/grafikkarten/2009/test_ati_radeon_hd_5850_crossfire/22/#abschnitt_leistungsaufnahme
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_SLI/26.html

Und weiter? Der Idle Modus steigt wie du siehst. Bei der HD5000 bliebe das sogar mal im Rahmen aufgrund des sehr guten Idle Modus. Ändert aber nichts an der Sache. Für manch einer ist das kein Negativpunkt, für mich wäre es einer.

Bucklew
2010-05-06, 00:30:14
Ich denke, man sollte zwischen SLI und Crossfire trennen, da beide Lösungen in letzter Zeit nicht mehr wirklich vergleichbar sind. SLI ist, was viele MGPU Nachteile angeht, inzwischen deutlich besser als Crossfire.

y33H@
2010-05-06, 00:37:43
@ Ronny145

Nimm nen aktuellen Artikel (http://www.pcgameshardware.de/aid,705002/).

http://www.abload.de/thumb/catalyst-10.3-powerhhpf.png (http://www.abload.de/image.php?img=catalyst-10.3-powerhhpf.png)

tombman
2010-05-06, 00:38:09
Was denn nun?
Wenns es kaum Nachteile gibt, wie du sagst, kann ich mir ja endlich ne zweite 4830 in die Kiste stecken. ;)
Keine Nachteile sind aber besser als wenig Nachteile. Mgpu fängt da an, wo Sgpu aufhört.
Erst wenn du mit einer HE-Gpu nicht mehr weiterkommst, DANN nimmst du Mgpu, nicht vorher :)
Ne 2. 4830 wäre also bullshit. Da würde ich GTX470 empfehlen für dich :)

Sonyfreak
2010-05-06, 00:40:50
Ich denke, man sollte zwischen SLI und Crossfire trennen, da beide Lösungen in letzter Zeit nicht mehr wirklich vergleichbar sind. SLI ist, was viele MGPU Nachteile angeht, inzwischen deutlich besser als Crossfire.Das war doch - soweit ich das mitbekommen habe - ohnehin von Anfang an so, oder?

mfg.

Sonyfreak

PHuV
2010-05-06, 00:43:11
[X] ...betreibe SLI/CF und bin hoch zufrieden

Ich hatte/habe auch beides, und mit einem 30" 2560x1600 kommt ohne SLI keine rechte Freude auf, nur ein potentes System schafft es hier, bei aktuellen Spielen spielbare Frameraten zu liefern. Das hat jetzt nichts mit hier unterstelltem Image oder Penisgehabe zu tun, es sind schlichtweg Fakten.

Daredevil
2010-05-06, 00:48:26
Keine Nachteile sind aber besser als wenig Nachteile. Mgpu fängt da an, wo Sgpu aufhört.
Erst wenn du mit einer HE-Gpu nicht mehr weiterkommst, DANN nimmst du Mgpu, nicht vorher :)
Ne 2. 4830 wäre also bullshit. Da würde ich GTX470 empfehlen für dich :)
Genau das gleiche, was du geschrieben hast, habe ich auch vorher schon geschrieben. Das war nur ne Anspielung darauf, das du einerseits MGPU bei kleinen Karten schwachsinnig findest, die Nebenwirkung, die es schwachsinnig machen aber verschönerst.

Meine 4830 kränkelt vorallem im VRAM @ FullHD, da bringt ne zweite Karte nun garnix mehr. :D

tombman
2010-05-06, 00:54:01
Genau das gleiche, was du geschrieben hast, habe ich auch vorher schon geschrieben. Das war nur ne Anspielung darauf, das du einerseits MGPU bei kleinen Karten schwachsinnig findest, die Nebenwirkung, die es schwachsinnig machen aber verschönerst.

Verschiedene Probleme <-> verschiedene Lösungen FTW ;)

Schrotti
2010-05-06, 00:54:16
[x] finde SLI/CF interessant, spiele mit dem Gedanken es auszuprobieren

Ich bin am überlegen eine zweite ATI 5850 dazu zu stecken.

tombman
2010-05-06, 00:56:58
[x] finde SLI/CF interessant, spiele mit dem Gedanken es auszuprobieren

Ich bin am überlegen eine zweite ATI 5850 dazu zu stecken.
Fail :) HD5850 verkaufen und GTX480 kaufen ;) Preislich das selbe, aber du bekommst 1.5Gb Ram (GTA4 max!) und Phys-X + Tess. power :)

Daredevil
2010-05-06, 01:06:13
Ist sogar, da du momentan 2 Karten drinne hast, auch vom Stromverbrauch sinnvoller und dank Wakü wird es auch nicht laut werden, go for it! :D

Gast
2010-05-06, 01:21:01
Doch, tust du, siehe deine QuadCore Cpu ;)

Dummer Vergleich. Für einen i5-750 zahlst du 50 € mehr als für einen i3-530 und hast real jetzt schon 40 % mehr Leistung in Spielen (siehe CB-Rating), ohne irgendwelche Nachteile. Das ist wohl etwas Anderes, als 2x / 3x / 4x High-End = 2x / 3x / 4x zusätzliche 300 bis 500 € auszugeben, die größte Verlustleistungsquelleneinheit zu vervielfachen und sonstige tausend Nachteile mitnehmen zu müssen, nur damit 6 Monate später die nächste Generation rauskommt, wo eine Karte schneller ist als SLI / CF der letzten Generation.

Gast
2010-05-06, 01:26:35
Absolut uninteressant, weil ich nicht mehr als 250 € max. für eine Grafikkarte ausgebe. Und dann behalte ich sie auch 2 - 3 Jahre.

tombman
2010-05-06, 01:27:10
Dummer Vergleich. Für einen i5-750 zahlst du 50 € mehr als für einen i3-530 und hast real jetzt schon 40 % mehr Leistung in Spielen (siehe CB-Rating), ohne irgendwelche Nachteile. Das ist wohl etwas Anderes, als 2x / 3x / 4x High-End = 2x / 3x / 4x zusätzliche 300 bis 500 € auszugeben, die größte Verlustleistungsquelleneinheit zu vervielfachen und sonstige tausend Nachteile mitnehmen zu müssen, nur damit 6 Monate später die nächste Generation rauskommt, wo eine Karte schneller ist als SLI / CF der letzten Generation.
Danke, darauf hab ich gewartet- geht also doch um den Preis und damit Neid ;)

Und das nächste Mal bitte nicht als "Gast", oder es könnte ein ignore von mir geben ;)

olegfch
2010-05-06, 02:51:53
[x]...betreibe SLI und bin hoch zufrieden.

Aus meiner Sicht werden damit verbundenen Probleme total überdramatisiert dargestellt.
(vor ein paar Jahren war ich auch ein mgpu-skeptiker)

tombman
2010-05-06, 04:09:06
[x]...betreibe SLI und bin hoch zufrieden.

Aus meiner Sicht werden damit verbundenen Probleme total überdramatisiert dargestellt.
(vor ein paar Jahren war ich auch ein mgpu-skeptiker)
Habe gerade deine "Windmaschine" aus der Sig gesehen- LOL :up:

Gehörst also auch zu den "Pussyfreunden" (From Dask till Dawn ;)) mit deinem Sys :D

Und du hast sogar den selben TV wie ich :eek: :up:

Blaire
2010-05-06, 05:45:30
Ich zahle nicht das Doppelte für weniger als die doppelten Fps minus µRuckler, Input-Lag, Fps-Verlust im CPU-Limit, fehlende Profile (beim Release neuer Spiele) und nicht vorhandene geile AA-Masken [SLI-AA ist crap, Super-AA nur MSAA].

Man hat bei SLI auch 64xAA incl. 16xSupersampling ohne Mikroruckler. Gut funktioniert halt nur unter DX10/11 :D

MGPU auf AFR-Basis ist nur für lange Balken gut, in allem anderen imo ein epic fail.

MGPU läuft nur so gut wie sein Profil...jüngstes Beispiel Metro2033 das von Nvidia mitgelieferte saugt, es gibt regelrechte Bildspringer/Stutterings...hab ca. 30Min gebraucht um ein vernünftiges Profil zu basteln was das Problem komplett behebt. Ich möchte nicht wissen, wieviele Leute das als Mikroruckler bezeichnen würden...derweil liegts nur am Profil.

Houwelhorst
2010-05-06, 07:10:39
Ich zahle nicht das Doppelte für weniger als die doppelten Fps [...]Das Argument versteh' ich nicht:
Man zahlt ~400 Euro für ein Topmodell und ~500-600 Euro für eine OC-Variante, die vielleicht 5-10 % schneller ist.
Nun könnte man aber auch für 2 x ~400 Euro 40-70 % mehr Leistung bekommen.
Weshalb sind OC-Varianten ok und Multi-GPU nicht? Der P/L-Faktor ist in dieser Region unschlagbar.

Grestorn
2010-05-06, 07:18:59
Ich zahle nicht das Doppelte für weniger als die doppelten Fps

Welche GraKa besitzt Du? Ich bin recht sicher, dass Du 50% des Kaufpreises hättest sparen können, ohne auf 50% der Leistung zu verzichten.

Preis/Leistung steigt bei Hardware eher selten 1:1.

Dass Du Mikroruckler so stark wertest wundert mich ein wenig, denn Du solltest ja in der Lage sein, dass aus erster Hand in Euerem Labor zu sehen. Dir mag der Mehrwert zu gering sein - das ist persönliche Meinung - aber es kommt bei Dir so rüber, als würde das Mikroruckeln jeden Vorteil auffressen.

Ich spiele nur mit VSync und Prerender 3, habe also prinzipbedingt immer ein wenig Microruckeln und auch Inputlag, das SLI macht keinen großen Unterschied mehr, speziell weil beides ja durch eine höhere Framerate insgesamt auch wieder verbessert wird!

Grestorn
2010-05-06, 07:22:00
Im Idle wird bei CFX die 2te Karte in einen LPS versetzt. Auch ist gerade die CFX/SLi Unterstützung genau das was in den Hotfix Treibern kommt.

Ich will hier niemanden zu nahe treten, aber kann es sein das hier wieder nur auf Basis hab ich gehört/gelesen kommen?

Es ist aber richtig, dass SLI mehr Strom braucht, auch im Idle.

Die zweite Karte wird zwar runtergefahren, dafür ist die erste immer auf Standardtakt. Bei mir spielt das keine so große Rolle, da ich eh Multimonitor habe und die erste Karte sowieso immer mit Standardtakt läuft, aber objektiv gesehen ist der Stromverbrauch auf jeden Fall ein großes Minus für SLI.

Grestorn
2010-05-06, 07:23:10
Aber nur wenn man bereit ist herumzubasteln. Einstellen und loslegen klappt jedenfalls nicht immer.

So gut wie immer. Wenn man die Treiber aktuell hält, sogar die allerneuesten Spiele, mit nur ganz ganz wenigen Ausnahmen, wo man dann tatsächlich mal selbst Hand anlegen muss.

desert
2010-05-06, 08:08:47
uninteressant, weil ich einfach keine 2te grafikkarte im rechner haben will. Eine Multi-gpu karte könnte ich mir vorstellen. Bisher haben mich die Modelle ala 295 noch nicht wirklich überzeugt.

V2.0
2010-05-06, 09:12:49
Ich habe proboert, aber Stromverbrauch und primär die Lautstärke waren nichts für mich, da ich das System eher sekundär zum Spielen nutze.

Die Kosten sind mir zu hoch. Weniger die Grafikkarten aber ein guter und entsprechend großer Monitor, der auch zur Bildbearbeitung taugt, ist mir zu teuer für den privaten Anwendungszweck. Da nehme ich lieber den kleineren Monitor (S-PVA) und ne Single-GPU.

SuperGast
2010-05-06, 09:29:15
Auch uninteressant für mich.

MGPU ist bei beiden Herstellern schlecht umgesetzt und die Nachteile sind für mich doch zu gravierend. Außerdem ist es doch zu teuer.

@tombman 2 x 5850 hat unterm Strich mit Sicherheit mehr Power als eine GTX 470. Machst du jetzt Werbung für NVidia in diesem Forum?

Matrix316
2010-05-06, 09:32:39
Ich hatte SLI (2x9800GT) und Quasi Crossfire (4870X2) und Beide Lösungen waren schon ziemlich schnell zu ihrer Zeit, aber was mich ein wenig störte war, wenn gerade beim allerneuesten Hardwarekracher MGPU net funktionierte...:( Aber Microruckler fand ich net so schlimm, ich spiel gerade Stalker COP mit einer 5870 und da ruckelts auch ab und zu.

_DrillSarge]I[
2010-05-06, 09:45:59
...die negativen Erfahrungen mit SLI/CF überwogen

zuletzt 2xHD2900XT. war imo irgendwo sinnlos. CF hatte da nur sporadisch gefunkt und die skalierung war auch nicht so prall. wenn man sich die benches ansieht, scheints heute besser zu sein. zu SLI aktuell kann ich aus eigener erfahrung nix sagen.

tombman
2010-05-06, 09:52:20
@tombman 2 x 5850 hat unterm Strich mit Sicherheit mehr Power als eine GTX 470. Machst du jetzt Werbung für NVidia in diesem Forum?
Lies noch mal nach, was ich genau gesagt habe. Tipp: es war keine 470er :rolleyes:

urfaust
2010-05-06, 09:55:28
Ich denke, man sollte zwischen SLI und Crossfire trennen, da beide Lösungen in letzter Zeit nicht mehr wirklich vergleichbar sind. SLI ist, was viele MGPU Nachteile angeht, inzwischen deutlich besser als Crossfire.

papperlapapp!
hast du bereits beides getestet?

Mag sein, dass SLI besser flutscht und nvidia wie bekannt
mal wieder die besseren Treiber hat. Mag sein.. Mag sein..
Aber Crossfire ist nicht so problembehaftet wie von der Presse
hochdramatisiert. Vielleicht mag das auf ältere Crossfire Verbünde ala
4870 x2 zutreffen, daher kommen wohl auch die meisten schlechten Erfahrungen
wie mir hier und da in Foren (Erfahrungsberichte) aufgefallen ist.

Die Kritik der PCGH 10/09 "Die Wahrheit über Multi-GPU" beispielsweise,
deckt sich in keinster Weise mit meinen Erfahrungen. Das ist schon irgendwie komisch..

dllfreak2001
2010-05-06, 09:56:11
Ist definitiv Unsinn.

Eine Grafikkarte sollte das Bild möglichst verzögerungsfrei ausgeben, dies ist bei SLI bzw. Crossfire nicht gegeben und somit sind diese Techniken vollkommen unbrauchbar.
Ich sehe in MGPU wie es heute betrieben wird nichts weiter als Geldmacherei auf Kosten der unbedarften "Highend"-Kundschaft.

Gast
2010-05-06, 10:11:11
Danke, darauf hab ich gewartet- geht also doch um den Preis und damit Neid ;)

Klar geht's um den Preis. Aber Neid? Keine Spur.

urfaust
2010-05-06, 10:14:14
Ist definitiv Unsinn.

Eine Grafikkarte sollte das Bild möglichst verzögerungsfrei ausgeben, dies ist bei SLI bzw. Crossfire nicht gegeben und somit sind diese Techniken vollkommen unbrauchbar.
Ich sehe in MGPU wie es heute betrieben wird nichts weiter als Geldmacherei auf Kosten der unbedarften "Highend"-Kundschaft.

das klingt auch wieder wie aus der Presse zitiert..

Wie oft noch muss gepredigt werden, dass wenn SLI/Crossfire
mit Spiel XY harmoniert und die FPS im grünen Bereich liegen, die
meisten MGPU-Besitzer keinerlei (subjektiven) Störungen feststellen können.

Ich persönlich habe bisher nur eine negative Erfahrung gemacht und zwar
mit The Witcher EE, massive FPS-Drops die das Spiel mit Crossfire echt
ungenießbar machen.

Cubitus
2010-05-06, 10:16:15
Benutze SLI aber nur mit High End Karten, bei mainstream Karten überwiegen eindeutig die Nachteile.

CF bietet auch mit der High End Lösung mehr nach - als Vorteile,
CF ist crap !

urfaust
2010-05-06, 10:17:10
CF bietet auch mit der High End Lösung mehr nach - als Vorteile,

und die wären?

Grestorn
2010-05-06, 10:30:54
Ist definitiv Unsinn.

Oh, da hat jemand die Wahrheit für sich gepachtet...

Cubitus
2010-05-06, 10:46:48
und die wären?

MR in vielen Spielen, trotz hoher FPS. Die Frametimes passen einfach nicht.
Keine neuen CF Profile manuell erstellbar/editierbar --> warten auf den neuen Catalyst
Kein Auslastungsbalken, läuft CF überhaupt ?? Wie ist das Skalierungsverhältnis ??
Bestätigung nur über einen Umweg "GPU-Kern-Temperatur auslesen", möglich.

Keine Trennung von der AI --> es laufen immer Bildoptmierungen bei CF mit,
wobei dies ein totaler Wiederspruch ist, denn man hat ja eine brachiale Rohleistung..

Zatoichi
2010-05-06, 10:46:57
Benutze SLI aber nur mit High End Karten, bei mainstream Karten überwiegen eindeutig die Nachteile.

CF bietet auch mit der High End Lösung mehr nach - als Vorteile,
CF ist crap !

Sorry, aber die Aussage ist Crap.

Cubitus
2010-05-06, 10:51:46
Sorry, aber die Aussage ist Crap.

Beweis doch das Gegenteil, was bietet CF was SLI nicht hat ?
Was ist bei der CF-Technik besser ?

derguru
2010-05-06, 10:58:16
Beweis doch das Gegenteil, was bietet CF was SLI nicht hat ?
Was ist bei der CF-Technik besser ?
nichts ist besser oder schlechter also lass das sli geschwafel is doll,zur zeit suckt teilweise die skalierung unter den 400er karten wenn man sich hier in unserem forum die benches antut.

ist ja grauenhaft was hier fanboys für ne kacke verbreiten und das auch noch geglaubt wird.

Spasstiger
2010-05-06, 10:58:24
Hab gestern mal GTX 480 SLI laufen sehen, allerdings nur im Vantage (Test 1 flüssig mit 90 fps ohne sichtbares Mikroruckeln) *). Die Abwärme ist wirklich abartig und die Heatpipes und Kühlflächen der Karten werden so heiß, dass ich zartbesaiteten Gemütern Handschuhe beim Basteln empfehle. :biggrin:

*) An einem Antec-Netzteil, falls StefanV nerven will. ;)

Schlammsau
2010-05-06, 11:00:33
Beweis doch das Gegenteil, was bietet CF was SLI nicht hat ?
Was ist bei der CF-Technik besser ?
Gar nichts ist besser, wenn SLi Mist ist, dann ist CF nur ein noch grösserer Mist.
Mittlerweile werden aber bei CF die Profile als Datei nachgeliefert, die man nur installieren muss. Auf einen neuen Treiber muss man also nicht mehr warten!

urfaust
2010-05-06, 11:02:09
MR in vielen Spielen, trotz hoher FPS.


habe ich wie bereits erwähnt noch nichts von mitbekommen.


Keine neuen CF Profile manuell erstellbar/editierbar --> warten auf den neuen Catalyst

immerhin erscheint der Catalyst regelmäßig monatlich


Kein Auslastungsbalken, läuft CF überhaupt ?? Wie ist das Skalierungsverhältnis ??

einfach de/aktivieren und es lässt sich ganz schnell
erkennen ob CF aktiv oder nicht.


Keine Trennung von der AI --> es laufen immer Bildoptmierungen bei CF mit,
wobei dies ein totaler Wiederspruch ist, denn man hat ja eine brachiale Rohleistung..

ich habe bisher zwischen AI off und AI Standart keine gravierenden
qualitativen Unterschiede erkennen können

Cubitus
2010-05-06, 11:04:49
nichts ist besser oder schlechter also lass das sli geschwafel is doll,zur zeit suckt eher die skalierung unter den 400er karten wenn man sich hier in unserem forum die benches antut.

ist ja grauenhaft was hier fanboys für ne kacke verbreiten und das auch noch geglaubt wird.

Ich hatte übrigends mal ein CF System, würde ich auch wieder haben wenn mich die von mir aufgezählten Punkte nicht so stören würden
Skalierung ,Klar mit den ersten Treibern, als obs bei ATI nicht so war :rolleyes:
Die Treiber müssen eben noch reifen, war und ist schon immer so gewesen..


MR in vielen Spielen, trotz hoher FPS. Die Frametimes passen einfach nicht.
Keine neuen CF Profile manuell erstellbar/editierbar --> warten auf den neuen Catalyst
Kein Auslastungsbalken, läuft CF überhaupt ?? Wie ist das Skalierungsverhältnis ??
Bestätigung nur über einen Umweg "GPU-Kern-Temperatur auslesen", möglich.
Sind also für dich keine nennswerte Nachteile, Setzen 6 !

Hab gestern mal GTX 480 SLI laufen sehen, allerdings nur im Vantage (Test 1 flüssig mit 90 fps ohne sichtbares Mikroruckeln) *). Die Abwärme ist wirklich abartig und die Heatpipes und Kühlflächen der Karten werden so heiß, dass ich zartbesaiteten Gemütern Handschuhe beim Basteln empfehle.

Ja Stromverbauch ein großer negativer Nachteil, Abwärme, totschlag Argument Nr 1, so totgeschlagen das es fast schon wieder legetim wird :D

Wenn juckt das von den High End Usern denn wirklich :wink:
Abgesehen davon, auch zwei übertaktete HD5870 langen ordentlich beim Strom zu..

urfaust
2010-05-06, 11:09:35
MR in vielen Spielen, trotz hoher FPS. Die Frametimes passen einfach nicht.
Keine neuen CF Profile manuell erstellbar/editierbar --> warten auf den neuen Catalyst
Kein Auslastungsbalken, läuft CF überhaupt ?? Wie ist das Skalierungsverhältnis ??
Bestätigung nur über einen Umweg "GPU-Kern-Temperatur auslesen", möglich



Sind also für dich keine nennswerte Nachteile, Setzen 6 !



übertreib mal nicht, ich sehe da nur einen einzigen wirklichen Nachteil gegenüber SLI,
und zwar das Problem mit fehlenden Profilen.

Zatoichi
2010-05-06, 11:16:34
Und das Thema Lautstärke und Temp. machen mir im Moment wirklich Sorgen. WaKü kommt mir aber nicht (mehr) ins Haus.

Aber Funny ist schon, wie sich wieder ATi/NV Leute die Köppe einschlagen.

Cubitus
2010-05-06, 11:18:14
habe ich wie bereits erwähnt noch nichts von mitbekommen.

Doch, man kann sich vieles auch schönreden.
Ich sah auch zwei HD5870 in Aktion, Crysis oder auch das neue Just Cause 2 lief trotz der hohen FPS keinesfalls flüssig.

Mit Fraps ließe sich das ohne Probleme nachprüfen.
Aber hier gibt sich kein ATI-Fan die Blöse

immerhin erscheint der Catalyst regelmäßig monatlich


Nvidia Treiber etwa in dem gleichen Zeitraum, manchmal auch früher oder später, je nach dem.
Ein neues Spiel, zogge ich in max einer Woche durch ?? Soll ich jetzt einen monat lang warten, bis ich mit CF das Spiel spielen kann ??

einfach de/aktivieren und es lässt sich ganz schnell
erkennen ob CF aktiv oder nicht.

Und was ist wenn die Skalierung nicht optimal ist,
oder in manchen Szenen ein CPU-Limit vorliegt ? Lässt dich das mit der Hausfrauen-Methode on/off auch festellen ??.
An den Profilen selber kannst ja nix verändern. Ich hoffe ja auch das sich zukünftig daran was ändern wird

ich habe bisher zwischen AI off und AI Standart keine gravierenden
qualitativen Unterschiede erkennen können

Ist ja auch besser für den Seelenfrieden ;)
Wenn man genau ins Detail schauen würde und mit HighQ vergleicht, könnte man diverse optimierungen zweifelsfrei mit Screens belegen!

dllfreak2001
2010-05-06, 11:19:29
Oh, da hat jemand die Wahrheit für sich gepachtet...

Oh, da füllt sich jemand angesprochen der keine Argumente hat.

Lieber schalte ich eine oder zwei AA-Stufen runter, als das ich mir Mikroruckler und Lags für teuer Geld ins Haus hole.
Klar wenn man nur Benchmarks spielt sind irgendwelche Latenzen total egal, Hauptsache die FPS passen, stimmts?

derguru
2010-05-06, 11:22:39
Ich hatte übrigends mal ein CF System, würde ich auch wieder haben wenn mich die von mir aufgezählten Punkte nicht so stören würden
Skalierung ,Klar mit den ersten Treibern, als obs bei ATI nicht so war :rolleyes:

schön das du mal hattes und welche aufgezählten punkte,a.i?und was hat das mit cf zutun?typisches laien geschafel und bevor das kommt mit a.i. off wird af nicht besser.

Wenn juckt das von den High End Usern denn wirklich :wink:
Abgesehen davon, auch zwei übertaktete HD5870 langen ordentlich beim Strom zu..
und ob das juckt,du verwechselst highenduser mit treuen fanboys die sowas gut heißen.

Doch, man kann sich vieles auch schönreden.
Ich sah auch zwei HD5870 in Aktion, Crysis oder auch das neue Just Cause 2 lief trotz der hohen FPS keinesfalls flüssig.

Mit Fraps ließe sich das ohne Probleme nachprüfen.
zu just cause 2 kann ich nichts sagen obwohl ich nicht mal da glaube aber crysis lief schon unter 4er serie einwandfrei.
man muss auch sogut wie nie auf profile warten im gegensatz zu früher und wenn mal doch überbrückt man die zeit mit exe.änderung was nicht zufiel verlangt ist aber wie gesagt das ist zur rarität geworden.

mal als beispiel wie dolle multi gpu sein kann,
spiele zur zeit wieder titan quest und was hab ich gesehen,eine 5870 mit 8xsgssaa+tent ist nicht so flüssig wie 5870 im cf mit 16xsgssaa+tent settings,das läuft einfach runder.

Cubitus
2010-05-06, 11:39:01
schön das du mal hattes und welche aufgezählten punkte,a.i?und was hat das mit cf zutun?typisches laien geschafel und bevor das kommt mit a.i. off wird af nicht besser.

und ob das juckt,du verwechselst highenduser mit treuen fanboys die sowas gut heißen.

Ok hatte SLI mit der 7900GX2
SLI mit der 8800er
Mit der GTX 280
und nun mit der GTX 480

CF mit der X1950XT und half bei der Konfiguration meines Kumpels mit seinem
X58 CF System mit den zwei 5870er, und nein ich habe es ihm nicht ausgeredet, weil ich schauen wollte ob sich bei CF nun etwas grundlegendes geändert hat, außer das es nun keine Masterkarten mit externen Kabel mehr gibt hat sich nicht wirklich was verändert, abgesehen von den besseren AA Modis. Die ja ganz nett sind, aber eben durch die von mir aufgzählten Punkte einen saueren nachgeschmack haben,

Aber ist schon ok du bist der Guru und ich der Laie :tongue:

Gut heißen tu ich den krassen Stromverbauch bestimmt nicht,
aber stören tut es mich nicht!

derguru
2010-05-06, 11:47:18
klar laie bei ati karten,sieht man doch an deinem grafikartenprofil und deine erfahrung bezieht sich auf die x1950xt zruück und mal über die schulter des kumpels gechaut bei der 5870 serie,hehe das sagt mehr aus als ich wollte aus,thx:)

Cubitus
2010-05-06, 12:07:08
klar laie bei ati karten,sieht man doch an deinem grafikartenprofil und deine erfahrung bezieht sich auf die x1950xt zruück und mal über die schulter des kumpels gechaut bei der 5870 serie,hehe das sagt mehr als ich wollte aus.,thx:)

Warum ? ich saß ebenfalls am Rechner und konfigurierte ebenfalls das System
und spielte auch damit.

Das exe.unbennen ist mir auch geläufig.
Wo wir wieder beim Punkt wären, was hat sich denn großartig gegenüber der X1900 geändert ?

Power management und AA modis mal ausgeschlossen ?

Hoschi75
2010-05-06, 12:57:11
Seit dieser Woche habe ich testweise 2x GTX470 im SLI (davor 2x HD5870 2GB) im Rechner und bin durchaus zufrieden.

Habe als erstes die Heaven Techdemo mit "Tesselation extrem" durchlaufen lassen und musste feststellen, dass
das doch extreme Microruckeln der beiden HD5870 hier nur minimal spürbar war.
Auch der Test mit BFBC2 zeigte, das die beiden ATI´s in extrem aufwändigen Szenen (C4 Explosionen ect.) bei mit FRAPS
dann angezeigten 50-60fps ein teigiges Spielgefühl produzierten.
Auch dieser Effekt ist mit den beiden GTX470 trotz etwas geringerer durchschnittlicher FPS nicht vorhanden.

Crysis widerum läuft mit beiden Technologien nahezu identisch gut und das MR-Problem ist weder hier noch da zu spüren.

Generell skalieren beide Technologien sehr ordentlich (spiele meistens in 1920x1200 mit 16AF/8AA), jedoch ist das MR-Problem auf den beiden nVidia Karten deutlich weniger ausgeprägt...

Grestorn
2010-05-06, 13:08:17
Oh, da füllt sich jemand angesprochen der keine Argumente hat.

Es geht um das "ist definitiv...". Nicht Deine Meinung, sondern Tatsache. Sowas kann ich nicht ab.

Botcruscher
2010-05-06, 13:10:02
Beides irgendwann mal kurz zum testen gehabt. Insgesamt absoluter crap. Bei schnellen shootern ist es einfach wie "weichgespühlt". Als würde man extrem am prerenderlimit schrauben.
Im Preis/Leistungssegment (wo ich mich bewege) macht es nicht mal Sinn. Für ein paar Spinner Enthusiasten aber der einzige Weg für mehr. Wenn man aber mal im Grenzbereich ist merkt man wie die Nachteile und Kompromisse extrem anwachsen. Irgendwo kommt dann jeder ins grübeln... Sinn und Unsinn gehen dann eine Symbiose ein. Der Nabel der Welt ist es auf jeden Fall nicht. Da Normalo nicht profitiert auch eher eine Fehlentwicklung.

dllfreak2001
2010-05-06, 15:45:48
Es geht um das "ist definitiv...". Nicht Deine Meinung, sondern Tatsache. Sowas kann ich nicht ab.

Es ist und war meine Meinung, eine solche Bewertung in einem Forum ist immer eine Meinung.
Schließlich habe ich das "definitiv" nirgends festgemacht.

Also um es ganz klar zu machen, für mich ist CF und SLI in jeder Preisklasse definierte Sch.... .

Grestorn
2010-05-06, 15:51:01
Schließlich habe ich das definitiv nirgends festgemacht.

Genauso "definitiv" wie es "SLI definitiv Unsinn" ist? ;)

Wenn Du schreibst, etwas wäre "definitiv Unsinn" beleidigst Du damit automatisch alle, die anderer Ansicht sind. Wenn Du statt dessen schreibst "ich halte es für Unsinn" ist das gleich ganz etwas anderes. Definitiv kann eigentlich nur dann etwas sein, wenn man stichhaltige Beweise hat. Sprich, wenn man Fakten zitiert.

Sprache ist alles.

Don Vito
2010-05-06, 16:22:53
SLI seit
6800Ultra SLI
7800gtx SLI
7950gx2 4Way-SLI
7900GTX SLI
8800gtx SLI /3Way-SLI
gtx 285 3Way SLI
und nun 480gtx 3Way SLI

Konami
2010-05-06, 16:30:59
Vorweg: Ich hatte noch nie selber ein SLI/CF-System. Aber nach allem, was ich hier schon gelesen habe...:

[x] Finde SLI/CF absolut uninteressant, weil man dafür doppelt zahlt und doppelten Graka-Stromverbrauch, doppelte Abwärme sowie doppelte Lautstärke in Kauf nehmen muss - und das alles für einen recht geringen Nutzen.

Allein die Tatsache, dass die Spielflüssigkeit prinzipiell offenbar genauso schlecht ist wie bei einer einfachen Graka, weil man ja erstmal entsprechend hohe Frameraten erreichen muss, um die µ-Ruckler auszugleichen, lässt mir die Technik irgendwie sinnlos erscheinen.
Dass man das durch SLI-Profile und Gefrickel wieder ausbessern kann, macht für mich den Braten auch nicht mehr fett. Single-GPU ist einfach viel effizienter.

Grestorn
2010-05-06, 16:33:44
Allein die Tatsache, dass die Spielflüssigkeit prinzipiell offenbar genauso schlecht ist wie bei einer einfachen Graka, weil man ja erstmal entsprechend hohe Frameraten erreichen muss, um die µ-Ruckler auszugleichen, lässt mir die Technik irgendwie sinnlos erscheinen.Da hast Du etwas missverstanden.

Dass man das durch SLI-Profile und Gefrickel irgendwie ausbessern kann, macht für mich den Braten auch nicht mehr fett. Single-GPU ist einfach viel effizienter.

Single-GPU ist effizienter, korrekt. Wenn es in der gewünschten Leistungsklasse aber keine Single-GPU gibt, ist SLI der einzig gangbare Weg. Und kaum einer der MultiGPU Nutzer hier nutzt zwei MidRange Karten im Verbung um die Leistung einer HighEnd Karte zu erreichen.

Konami
2010-05-06, 16:37:53
Da hast Du etwas missverstanden.
Wie ist es denn dann? Hab bisher in den Mikrorucklerthreads immer gelesen, dass man in etwa eine doppelt so hohe Framerate benötigt wie bei Single-GPU, um eine ähnliche subjektive Flüssigkeit zu erreichen.

Single-GPU ist effizienter, korrekt. Wenn es in der gewünschten Leistungsklasse aber keine Single-GPU gibt, ist SLI der einzig gangbare Weg. Und kaum einer der MultiGPU Nutzer hier nutzt zwei MidRange Karten im Verbung um die Leistung einer HighEnd Karte zu erreichen.
Ja, da gehöre ich wohl auch zur falschen Zielgruppe. ;)

Blaire
2010-05-06, 17:11:10
nichts ist besser oder schlechter also lass das sli geschwafel is doll,zur zeit suckt teilweise die skalierung unter den 400er karten wenn man sich hier in unserem forum die benches antut.


Was meinst du im speziellen? Die Skalierung ist nahezu perfekt, da ist garnichts schlechter gegenüber den Vorgängerkarten. Bei CPU Limitierung kann kein CF/SLI glänzen, das ist doch logisch. Ein Beispiel wärend man bei 3xGTX280 Crysis 16xQ/16xAF die Karten noch voll auslasten konnte, ist man jetzt mit 3xGTX480 hier extrem CPU Limitiert, sodaß bsplw. im Crysis GPU Benchmark die dritte Karte gar nur zu 60% ausgelastet wird. D.h. man muss nun schon auf 2560x1600 hochgehn, damit man alle drei Karten voll ausgelastet bekommt und dann skalieren die Karten auch extrem gut.

kmf
2010-05-06, 17:18:30
Über etwas lesen oder etwas selbst einsetzen und daraus eigene Erfahrungen zu sammeln, ist total grundverschieden. Was hab ich schon alles über Mikroruckeln und all den Kram gelesen. Nur kann ich das alles auf meinen Systemem so nicht nachstellen, dass es mich wirklich stören würde, wie in besagten Threads so horrormäßig beschrieben. Natürlich ist es neben HighEnd-Karten auch ganz wichtig, einen dicken Prozzi zu haben.
Ich hab jedenfalls keine Probleme mit Mikroruckeln, hab aber Probleme mit Single-Karten, die mir mein gewohntes Spielgefühl nicht vermitteln können.
Als dickste Single hab ich z.B. eine GTX285. Die ist lausig im Vergleich zu meinem 260er SLi und erbärmlich gegenüber meinem 280er SLi. :D

Grestorn
2010-05-06, 17:26:39
Wie ist es denn dann? Hab bisher in den Mikrorucklerthreads immer gelesen, dass man in etwa eine doppelt so hohe Framerate benötigt wie bei Single-GPU, um eine ähnliche subjektive Flüssigkeit zu erreichen.Das ist natürlich völliger Unsinn (nicht persönlich gemeint), dann würde ja der Vorteil komplett ad absurdum geführt. Solche Aussagen kommen garantiert nicht von jemandem, der selbst MultiGPU einsetzt.

Man kann vieleicht sagen, dass man 35 fps braucht, damit es sich wie 30 fps anfühlt. De Fakto bekommt man bei einem Spiel bei einer bestimmten Qualitätseinstellung, sagen wir, um die 20 fps, es ist also nur schlecht spielbar. Mit SLI bekommt man 35 fps, gefühlt 30 fps, also wunderbar spielbar.

Schlammsau
2010-05-06, 17:34:57
Was meinst du im speziellen? Die Skalierung ist nahezu perfekt, da ist garnichts schlechter gegenüber den Vorgängerkarten. Bei CPU Limitierung kann kein CF/SLI glänzen, das ist doch logisch. Ein Beispiel wärend man bei 3xGTX280 Crysis 16xQ/16xAF die Karten noch voll auslasten konnte, ist man jetzt mit 3xGTX480 hier extrem CPU Limitiert, sodaß bsplw. im Crysis GPU Benchmark die dritte Karte gar nur zu 60% ausgelastet wird. D.h. man muss nun schon auf 2560x1600 hochgehn, damit man alle drei Karten voll ausgelastet bekommt und dann skalieren die Karten auch extrem gut.

Kannst du mir einen gefallen tun und mal von diesem (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=431391) Benchmark den Frameverlauf (nicht die Frametimes) posten oder mir zukommen lassen?
Am besten mit deiner höchstmöglichen Auflösung (nicht DS), DX10@Very High und 8xAA. Am besten jeweils mit einer, zwei und dann 3 Karten.

Danke!

urbi
2010-05-06, 17:47:29
Ich denke SLI und Crossfire sollte nur bei den jeweils schnellsten Karten eingesetzt werden. Darunter ist es witzlos: Inputlag und Mikroruckler gibt es nunmal. Wenn man mit seinen zwei Mittelklassegrafikkarten gerade noch in den spielbaren FPS-Bereich kommt fallen diese Nachteile IMO überdeutlich auf. Bei sehr schnellen Grafikkarten sind sie demgegenüber zu vernachlässigen.

Auch Hitze, Preis, Strom sind dann kein Problem mehr: Bei so einem System mit drei stromhungrigen NVIDIA-Highend-Karten im Verbund braucht man auch eine entsprechende CPU-Leistung, ein gutes Netzteil, ein gutes Mainboard und dann kann man gleich auch noch ein schönes Gehäuse, viel schnellen Ram, ein paar SSDs, eine Wasserkühlung etc. einplanen - 4000€ reichen aber. ;)

Zwei GPUs auf einer Karte kämen für mich derzeit nur in der Form der Radeon HD 5970 in Frage. Generell würde ich jede Karte dieser Art gutheißen die im Wesentlichen aus zwei oder mehr der jeweils schnellsten Singlechip-Karten des Herstellers bestehen. Der Vorteil wäre aus meiner Sicht: Es ist etwas für die Pfennigfuchser unter den Enthusiasten. Man kann etwas am Mainboard sparen und vielleicht auch die Wasserkühlung für die Karte.

Generell würde ich persönlich aber derzeit nicht an SLI/ Crossfire denken bevor ich nicht wenigstens etwa 1300€ für einen PC investieren wollte (entspricht einem kompletten PC mit i7 860 oder vergleichbarem AMD, 4GiB Ram mit Gehäuse, Mainboard, Laufwerken, Netzteil und Radeon HD 5970).

Greek Geek
2010-05-06, 17:50:49
[x] (Un)Sinn

Ich nutzte selber eine Zeitlang zwei 7900 GTX und wenig später eine 7900GX2 im SLI. Probleme gab es damit eigentlich kaum und es war die einzige Möglichkeit SSAA ruckelfrei darzustellen.

Jedoch macht es derzeit mMn keinen Sinn mehr, Geld für SLI/CF zu verballern, da eine einzelne Karte völlig reicht. Zudem bin ich auch gar nicht mehr so AA-fixiert, Hauptsache das Game rennt mit max Details und AF. In der Hinsicht haben mich die ganzen "HDR + AA = false or much frickelei" Titel desensibilisiert.

davidzo
2010-05-06, 18:26:00
Scheiß auf MR oder Profilproblematik.

Die Energieffizienz und das Preis/Leistungsverhältnis sind für mich die schlagenden Argumente.

doppelt soviel ausgeben für gerademal 60-70% mehrleistung? Wieso nicht gleich zum nächstgrößeren Modell greifen, das ist mir Garantie sparsamer als zwei kleinere karten und dann liegen die ganzen Texturen wenigstens nicht zweimal im ram.

Absolute Highendleistung ist sowieso was bescheuert ineffizientes und unnötiges. die meisten Spiele konnte ich bis vor kurzem noch auf meiner 8400m GS im Notebook genießen. Ne mittelklassegraka reicht völlig um ein ansprechendes Bild zu bekommen, die unterschiede nach oben sind sowieso homöopathisch.

Wieso also zwei ineffiziente karten verwenden, wenn es fast immer ne effizientere singlegpukarte gibt die es auch könnte (GF100 mal ausgenommen, da ist nix effizient)

tombman
2010-05-06, 19:11:21
Die Energieffizienz und das Preis/Leistungsverhältnis sind für mich die schlagenden Argumente.
Nein, sind sie nicht, denn wer sowas abläßt,

Absolute Highendleistung ist sowieso was bescheuert ineffizientes und unnötiges. die meisten Spiele konnte ich bis vor kurzem noch auf meiner 8400m GS im Notebook genießen. Ne mittelklassegraka reicht völlig um ein ansprechendes Bild zu bekommen, die unterschiede nach oben sind sowieso homöopathisch.
für den ist Grafik sowieso total unwichtig, und der hat damit das Recht verloren, nicht nur über MGpu zu reden, sondern generell über HighEnd.
Konsole ftw für dich?

Wieso also zwei ineffiziente karten verwenden, wenn es fast immer ne effizientere singlegpukarte gibt die es auch könnte (GF100 mal ausgenommen, da ist nix effizient)
Es gibt keine SGpu Karte im gewünschten Leistungsbereich. Und Effizienz ist irrelevant, wenn die Leistung nicht stimmt.

Black-Scorpion
2010-05-06, 19:14:42
Schön zu sehen das du dir einbildest anderen vorschreiben zu wollen worüber sie diskutieren dürfen oder nicht.
Er hat das selbe recht seine Meinung zu sagen wie du.

tombman
2010-05-06, 19:18:39
Schön zu sehen das du dir einbildest anderen vorschreiben zu wollen worüber sie diskutieren dürfen oder nicht.
Er hat das selbe recht seine Meinung zu sagen wie du.
Genau, und ich laß mich demnächst über die ideale Möglichkeit aus wie sich Tintenfische am besten paaren können- davon versteh ich zwar genau Null, aber jeder hat ja ne Meinung, nicht wahr? :upicard:

Vento
2010-05-06, 19:27:07
Ich halte MultiGPU für durchaus sinnvoll.

Letztendlich ist es halt auch eine Frage der Auflösung die man fährt.
Als ich Anfang 2007 auf 24 Zoll umgestiegen bin, war ein 8800GTX SLI die einzig sinnvolle Entscheidung um alle Spiele ohne Einbussen im Quality Filtering auch flüssig auf meiner nativen Monitorauflösung spielen zu können und bei den Spieletiteln wo auch eine Single 8800GTX gereicht hätte, konnte ich das Quality Filtering massiv ausreizen.

Die Problematik mit Mikrorucklern halte ich für stark übertrieben, in der Praxis wirklich fühlbar schlechter war SLI nur bei einem Titel, TDU.
Dort gab es aus welchen Gründen auch immer mit SLI gelegentlich Minifreezes.
Ansonsten hat sich die Investition damals definitiv gelohnt und mein nächster Rechner wird mit absoluter Sicherheit wieder mit SLI sein.

Alleine schon der deutliche Zugewinn beim Quality Filtering wiegt für mich Mehrinvestition und Stomkosten komplett auf.
Man braucht nur einmal in diesem Forum in den Games Screenshot Thread hineinschnuppern und man wird bei etlichen Screenshots sofort sehen was ein Teil des Reizes von Multi-GPU ausmacht, Stichwort Quality Filtering.
Letztendlich macht genau das auch den Reiz am PC Gaming für mich aus, in dem Moment wo ich mich von meinem Anspruch ans Quality Filtering verabschiede kann ich auch gleich auf Konsole umsteigen.

Black-Scorpion
2010-05-06, 19:28:10
Dann mach dein eigenes Forum auf und bestimme wer, wo, wie , was sagen darf oder nicht.
Hier in dem Forum bist du nichts besseres wie alle anderen.
Da kannst du dir einbilden was du willst.

tombman
2010-05-06, 19:35:45
Dann mach dein eigenes Forum auf und bestimme wer, wo, wie , was sagen darf oder nicht.
Hier in dem Forum bist du nichts besseres wie alle anderen.
Da kannst du dir einbilden was du willst.
Wie war der Spruch? "Wenn man keine Ahnung hat, einfach mal die Fresse halten"? Hmm..... ;)

Cubitus
2010-05-06, 19:36:45
für den ist Grafik sowieso total unwichtig, und der hat damit das Recht verloren, nicht nur über MGpu zu reden, sondern generell über HighEnd.

Der 8400er Chip kann nicht mal ordentlich 1080p Material wiedergeben ;D

Aber der Standpunkt sollte nun wirklich jedem klar sein.
SLI bei Midrange sinnlos!

Bei HighEnd ist die Kombination ein logischer Schritt falls man mehr Leistung will.

wirklich fühlbar schlechter war SLI nur bei einem Titel, TDU.
Dort gab es aus welchen Gründen auch immer mit SLI gelegentlich Minifreezes.


MR waren das aber nicht, glaube das lag wirklich an der Engine selbst.
Blaire und ich bissen uns damals die Zähne am SLI-Profil für TDU aus

tombman
2010-05-06, 19:42:22
TDU ruckelte auch bei single gpu- weil das einfach durch das Nachladen der Gegend geschah, da konnte man nix machen, war das game...trotzdem hats unheimlich Spaß gemacht damals :D

Black-Scorpion
2010-05-06, 19:44:30
Wie war der Spruch? "Wenn man keine Ahnung hat, einfach mal die Fresse halten"? Hmm..... ;)
Habe deinen Beitrag gemeldet.

tombman
2010-05-06, 19:46:54
Habe deinen Beitrag gemeldet.
Das war mir klar ;)

Gast
2010-05-06, 19:49:17
Über etwas lesen oder etwas selbst einsetzen und daraus eigene Erfahrungen zu sammeln, ist total grundverschieden. Was hab ich schon alles über Mikroruckeln und all den Kram gelesen. Nur kann ich das alles auf meinen Systemem so nicht nachstellen, dass es mich wirklich stören würde, wie in besagten Threads so horrormäßig beschrieben. Natürlich ist es neben HighEnd-Karten auch ganz wichtig, einen dicken Prozzi zu haben.
Ich hab jedenfalls keine Probleme mit Mikroruckeln, hab aber Probleme mit Single-Karten, die mir mein gewohntes Spielgefühl nicht vermitteln können.
Als dickste Single hab ich z.B. eine GTX285. Die ist lausig im Vergleich zu meinem 260er SLi und erbärmlich gegenüber meinem 280er SLi. :D

Nicht böse gemeint, aber die SLI-Besitzer hier sind doch alle schon mindestens um die 40 hier im Forum: Grestorn, Blaire, tombman, kmf ... Ich kann mir gut vorstellen, dass man in dem Alter Inputlag oder Mikroruckeln gar nicht mehr so stark wahrnimmt wie ein 21-Jähriger. Das hier finde ich z. B. Grausam. Bin ich der Einzige, der starkes Zucken schon bei 70 FPS wahrnimmt? http://www.youtube.com/watch?v=vY8uppkjwL0 Man achte mal besonders ab 2:16 drauf.

Gast
2010-05-06, 19:52:21
Und hier nochmal mit 3-Way-SLI: http://www.youtube.com/watch?v=-GMJkVQiq5c

Das zuckt doch die ganze Zeit vor sich hin. Schon bei über 50 FPS.

olegfch
2010-05-06, 19:56:52
die meisten Spiele konnte ich bis vor kurzem noch auf meiner 8400m GS im Notebook genießen. Ne mittelklassegraka reicht völlig um ein ansprechendes Bild zu bekommen, die unterschiede nach oben sind sowieso homöopathisch.

Ich beneide Menschen, die sich wirklich fast jeden Mist schönreden können. :rolleyes:

Blaire
2010-05-06, 19:59:03
Und hier nochmal mit 3-Way-SLI: http://www.youtube.com/watch?v=-GMJkVQiq5c

Das zuckt doch die ganze Zeit vor sich hin. Schon bei über 50 FPS.

Der 1.Run läuft immer recht "unruhig" gibt öfter Nachlader auch mit Singlecard, deshalb lasse ich immer einmal durchlaufen damit alles im Speicher ist, der 2.Run zeigt dann bessere Minimumfps.

Cubitus
2010-05-06, 19:59:04
Nicht böse gemeint, aber die SLI-Besitzer hier sind doch alle schon mindestens um die 40 hier im Forum: Grestorn, Blaire, tombman, kmf ... Ich kann mir gut vorstellen, dass man in dem Alter Inputlag oder Mikroruckeln gar nicht mehr so stark wahrnimmt wie ein 21-Jähriger. Das hier finde ich z. B. Grausam. Bin ich der Einzige, der starkes Zucken schon bei 70 FPS wahrnimmt? http://www.youtube.com/watch?v=vY8uppkjwL0 Man achte mal besonders ab 2:16 drauf.

So eine unqualifizierte Vermutung, dennoch irgendwie lustig ;D
ich bin übrigens noch unter 30 :D

Kann sein das der Test im ersten Durchlauf ist, beim zweiten Druchlauf ist es flüssiger, wobei natürlich Framedrops vorhanden sind. Liegt aber an der extremen Tessalation +AA mit 2xAA oder off gibt es höhere und weichere FPS

Gast
2010-05-06, 20:02:23
So eine unqualifizierte Vermutung

Was soll daran unqualifiziert sein? Die kognitiven Fähigkeiten eines 6-Jährigen erreichen wir wohl alle nicht mehr.

Gast
2010-05-06, 20:05:07
Der 1.Run läuft immer recht "unruhig" gibt öfter Nachlader auch mit Singlecard, deshalb lasse ich immer einmal durchlaufen damit alles im Speicher ist, der 2.Run zeigt dann bessere Minimumfps.

Na ja. Ob's daran liegt? Wär ja ein toller Zufall, dass bei den Single-GPU-Durchgängen nichts davon zu sehen ist:

http://www.youtube.com/watch?v=3XdsEblVhkc
http://www.youtube.com/watch?v=Y6fpfX7BBDA

aths
2010-05-06, 20:13:27
ab gewisser fps-Stufe nicht mehr spürbarAber dann braucht man die hohen fps mit Lag und Rucklern eh nicht.

Gast
2010-05-06, 20:17:43
SLI/Xfire ist unsinnig für alle die ernsthaft PvP-MMOs oder MP-FPS spielen, da dort jeder Reaktionsvorteil entscheidend sein kann.

Es erscheinen eh fast nur mehr Konsolenports, wer dafür soviel Geld für MGPU und die daraus folgenden Nachteile ausgeben will soll das tun - steckt euch aber Argumente wie "NEID!!" sonst wo hin, nur weil man nicht eure Ansichten teilt.
Ich stecke auch mal gerne 2-3k€ in ein neues System dank early adopter-Aufschlag für extreme editions und/oder SSDs oder hab auch schon 600€ in den Sand gesetzt für ne Vapochill was sich im Nachhinein als Schnapsidee herausstellte - von MGPU halte ich trotzdem nichts mehr nachdem ich das System eines Freundes mit 2 285er für nen Monat im Haus hatte.

Blaire
2010-05-06, 20:27:32
Na ja. Ob's daran liegt? Wär ja ein toller Zufall, dass bei den Single-GPU-Durchgängen nichts davon zu sehen ist:

http://www.youtube.com/watch?v=3XdsEblVhkc

Damit wir uns nicht falsch verstehen, MR gibts mit TripleSLi auch ich sage lediglich das es öfter zu kleinen "Nachladern" im Unigine 2.0 kommt, die das Problem verstärken. Ich hab diese Ruckler mit Singlecard auch, vor allem bei dem Drachen wenn man in die Szene reinfliegt bzw. um jenen kreist. In dem Video auf Youtube seh ich das auch.

http://www.youtube.com/watch?v=Y6fpfX7BBDA

Bei dem Video hier sieht man es auch ganz gut, auch dort gibts unruhige Kameraschwenks bzw. Miniruckler trotz Singlecard

Cubitus
2010-05-06, 20:36:12
Was soll daran unqualifiziert sein? Die kognitiven Fähigkeiten eines 6-Jährigen erreichen wir wohl alle nicht mehr.

Das Problem dabei ist nur das unser guter "alter" Tombman die MR Problematik als erster überhaupt public machte :wink:

Gast
2010-05-06, 20:40:28
Bei dem Video hier sieht man es auch ganz gut, auch dort gibts unruhige Kameraschwenks bzw. Miniruckler trotz Singlecard

Da liegen die FPS auch irgendwo bei 20 herum, das sind dann vereinzelt normale Ruckler und trotzdem ist das Bild insgesamt viel ruhiger.

Beim Vantage sieht man übrigens auch um 60 FPS herum Ruckler mit Triple-SLI in der Raumschiffszene oder in der 1. Szene beim Rausfliegen mit den "Flugbooten" (2:39 - 2:41 etwa, trotz 80 FPS). Leider fallen da sonst in kaum einer Szene die FPS stärker herab. Aber wenn ich es schon ab 60 FPS wahrnehmen kann, möchte ich nicht wissen, wie es bei 30 - 40 FPS aussieht: http://www.youtube.com/watch?v=RSOJucZwe7I

tombman
2010-05-06, 20:49:30
Aber dann braucht man die hohen fps mit Lag und Rucklern eh nicht.
Doch, weil sich die hohen fps trotzdem besser anfühlen, als die niedrigen mit SGpu.
30fps saugt auch mit ner SGpu...
30fps mit ner Single fühlen sich schlechter an als zb 50fps mit Sli ;)

CremeDeLaCreme
2010-05-06, 20:51:51
..kenne SLI/CF nur vom Hören&Sagen, daher keine Meinung

icedealer
2010-05-06, 21:41:58
SLI/CF finde ich sehr interessant! Ich nutze es zwar selber nicht, kann mir aber vorstellen dies in Zukunft zu tun.
Allerdings würde ich es eher als eine Aufrüstmöglichkeit nutzen; bei einer Mittelklassen-Grafikkarte der irgendwann die puste ausgeht einfach das selbe Modell dazu stecken.
Ich hätte damit kein Problem, MR finde ich in den Videos nicht so tragisch (mir fällt es zwar auch manchmal auf aber damit könnte ich leben)

Die Frage ob das Sinnvoll ist oder nicht.... Sind Video-Spiel sinnvoll? Sind Grafikkarten für >500€ sinnvoll?

Leute das ist ein Hobby, das muss keinen Sinn ergeben!

tombman
2010-05-06, 22:13:13
SLI/CF finde ich sehr interessant! Ich nutze es zwar selber nicht, kann mir aber vorstellen dies in Zukunft zu tun.
Allerdings würde ich es eher als eine Aufrüstmöglichkeit nutzen; bei einer Mittelklassen-Grafikkarte der irgendwann die puste ausgeht einfach das selbe Modell dazu stecken.
Ich hätte damit kein Problem, MR finde ich in den Videos nicht so tragisch (mir fällt es zwar auch manchmal auf aber damit könnte ich leben)

Die Frage ob das Sinnvoll ist oder nicht.... Sind Video-Spiel sinnvoll? Sind Grafikkarten für >500€ sinnvoll?

Leute das ist ein Hobby, das muss keinen Sinn ergeben!
Das denken sich viele, trotzdem sage ich: verkauf die Karte und hol dir eine HE Karte. MGpu macht man wirklich nur SINNVOLL mit HighEnd oder gar nicht.

Schlammsau
2010-05-06, 22:18:58
MGPU mag schon was bringen, dass bestreitet ja keiner. Nur das was es bringt, steht in keinem Verhältniss zu den Kosten und Energiebedarf.
Wenn ich mir überlege, was ich in meinem Fall aufwenden müsste, wenn ich mir noch eine 2. HD5850 ins Gehäuse stecken wollte......
Ersens bräuchte ich ein Board mit 2 PCIe Steckplätzen, nicht irgendeins, sondern eins was mindestens 2x 8 fache PCie Anbindung hat. 100€ Aufwärts!
Dann noch ein grösseres NT, mit mindestens 600 Watt. Weil übertakten will ich ja auch.
Nochmal um die 100€!
Und zu guter letzt noch die 2. Graka, die nochmal mit 250€ zu Buche schlägt.

Und für was? 1,5x mehr Leistung im Schnitt? Sorry aber da hat der Spass a Loch!

Spasstiger
2010-05-06, 22:19:21
MGpu macht man wirklich nur SINNVOLL mit HighEnd oder gar nicht.
Zwei HD 5770 sind auch nicht so verkehrt, da bei guter Verfügbarkeit günstiger als eine gefühlt ca. gleich schnelle HD 5850. Rein von den fps her überflügeln zwei 5770er sogar eine 5870.
Außerdem hat man die Abwärme auf zwei Karten verteilt, was besser ist für einen Silent-PC.

tombman
2010-05-06, 22:27:31
Zwei HD 5770 sind auch nicht so verkehrt, da bei guter Verfügbarkeit günstiger als eine gefühlt ca. gleich schnelle HD 5850. Rein von den fps her überflügeln zwei 5770er sogar eine 5870.
Außerdem hat man die Abwärme auf zwei Karten verteilt, was besser ist für einen Silent-PC.
Ich würds trotzdem nie machen...sondern die 5770 verkaufen und eine 5870 kaufen ;)

dllfreak2001
2010-05-06, 22:51:30
Genauso "definitiv" wie es "SLI definitiv Unsinn" ist? ;)

Wenn Du schreibst, etwas wäre "definitiv Unsinn" beleidigst Du damit automatisch alle, die anderer Ansicht sind. Wenn Du statt dessen schreibst "ich halte es für Unsinn" ist das gleich ganz etwas anderes. Definitiv kann eigentlich nur dann etwas sein, wenn man stichhaltige Beweise hat. Sprich, wenn man Fakten zitiert.

Sprache ist alles.

Es stehen schon Fakten bereit, nur weiß ich, dass hier diese sowieso jeder "Enthusiast" klein und tot redet. Ich interpretiere die Fakten anders und schreibe eben "definitv"... weil es für mich definitiv Schrott ist.
Omg, sollen sich die anderen doch beleidigt fühlen. In diesem Forum beleidigt sich sowieso jeder gegenseitig, nach deiner Auffassung.

Die Leute denen das ATI-AF reicht zB. werden hier auch wie die Aussätzigen behandelt.

corvus
2010-05-06, 23:06:20
Na ja. Ob's daran liegt? Wär ja ein toller Zufall, dass bei den Single-GPU-Durchgängen nichts davon zu sehen ist:

http://www.youtube.com/watch?v=3XdsEblVhkc
http://www.youtube.com/watch?v=Y6fpfX7BBDA
Da liegen die FPS auch irgendwo bei 20 herum, das sind dann vereinzelt normale Ruckler und trotzdem ist das Bild insgesamt viel ruhiger.

Beim Vantage sieht man übrigens auch um 60 FPS herum Ruckler mit Triple-SLI in der Raumschiffszene oder in der 1. Szene beim Rausfliegen mit den "Flugbooten" (2:39 - 2:41 etwa, trotz 80 FPS). Leider fallen da sonst in kaum einer Szene die FPS stärker herab. Aber wenn ich es schon ab 60 FPS wahrnehmen kann, möchte ich nicht wissen, wie es bei 30 - 40 FPS aussieht: http://www.youtube.com/watch?v=RSOJucZwe7I

zu 1 dann haste noch nie eine ATI gehabt da kann man den 1. Durchgang gar nicht nehmen, da haste Standbild.

zum Vantage da ruckelts egal mit was für einer Karte oder Karten wenn deine CPU Leistung nix taugt...kannste mal testen 4 zu 4.2 da ist Ruhe im Orbit.

und 3. wenn man keinen Ahnung hat einfach mal an Dieter denken!

corvus
2010-05-06, 23:11:00
MGPU mag schon was bringen, dass bestreitet ja keiner. Nur das was es bringt, steht in keinem Verhältniss zu den Kosten und Energiebedarf.
Wenn ich mir überlege, was ich in meinem Fall aufwenden müsste, wenn ich mir noch eine 2. HD5850 ins Gehäuse stecken wollte......
Ersens bräuchte ich ein Board mit 2 PCIe Steckplätzen, nicht irgendeins, sondern eins was mindestens 2x 8 fache PCie Anbindung hat. 100€ Aufwärts!
Dann noch ein grösseres NT, mit mindestens 600 Watt. Weil übertakten will ich ja auch.
Nochmal um die 100€!
Und zu guter letzt noch die 2. Graka, die nochmal mit 250€ zu Buche schlägt.

Und für was? 1,5x mehr Leistung im Schnitt? Sorry aber da hat der Spass a Loch!


Es geht nett um Kosten oder dein und mein Brieftäschchen sondern um Spaß an der Sache...frag mal Guru...der ist bestimmt kein Depp weil er immer oder sehr oft CF hat, oder?

corvus
2010-05-06, 23:31:07
Es stehen schon Fakten bereit, nur weiß ich, dass hier diese sowieso jeder "Enthusiast" klein und tot redet. Ich interpretiere die Fakten anders und schreibe eben "definitv"... weil es für mich definitiv Schrott ist.
Omg, sollen sich die anderen doch beleidigt fühlen. In diesem Forum beleidigt sich sowieso jeder gegenseitig, nach deiner Auffassung.

Die Leute denen das ATI-AF reicht zB. werden hier auch wie die Aussätzigen behandelt.

Mir hat das ATI AF bei der HD5 3x gereicht, wenn dich das beruhigt.
Und das SGSSAA der 5870 geht mir richtig ab in DX9..ich spiel im mom kein Mass2 mehr weil ich Augenkrebs bekomme mit dem NV Müll.

Es gibt immer 2 Seiten.. nur Deppen schnallen das eben nicht.....ich könnte auch direkter werden aber ich erspar mirs weils eh keinen Sinn macht.

Grestorn
2010-05-07, 08:31:35
ich spiel im mom kein Mass2 mehr weil ich Augenkrebs bekomme mit dem NV Müll.

Dass ATI SGSSAA ohne Zweifel besser ist, will ich nicht in Abrede stellen. Aber gerade mit SLI kann man doch MassEffect 2 wunderbar mit OGSSAA spielen, z.B. 16xS, und auch wenn es viel Performance kostet ist die Bildqualität doch eigentlich nicht zu beanstanden!

corvus
2010-05-07, 09:24:59
Dann haste das noch nie auf einer HD5 gesehen, wer den Unterschied da nicht sieht der kommt bei mir in die Schublade FanBoy³.

Mit der NV sieht das einfach grauslich aus wenn man das vorher Tagelang mit SGSSAA gespielt hat, ENDE!
Und das gilt für alles Spiele in DX9, da ist ATI mit ihrem SGSSAA um Welten vor NV.

Und da hilft dir auch dein SLI nicht auch wenn du es in jedem Post 100x erwähnst.

Da könnt ich heulen wenn ich an SGSSAA zurück denke.
http://www.abload.de/thumb/masseffect22010-05-070ujq0.png (http://www.abload.de/image.php?img=masseffect22010-05-070ujq0.png)

Grestorn
2010-05-07, 09:45:17
Nochmal, natürlich ist Sparsed Grid einem Ordered Grid überlegen. Aber sorry, wer da von Welten spricht, ist für mich nicht objektiv.

Ich werde heute abend mal ein Movie mit 16xS machen, ein ATI Besitzer sollte bitte die selbe Szene mit 2x2 SGSSAA + 4x MS aufnehmen. Corvus, bitte gibt die Szene vor, z.B. bei Deinem Screenshot?

Von SLI spreche ich, weil das das Thema dieses Threads ist. Ich hatte im Kopf, dass Du selbst auch SLI hast, offenbar hab ich da was verwechselt.

N0Thing
2010-05-07, 09:45:39
Wie wäre es mit einem Savegame? Dann könnte jemand mit einer Nvidia-Karte ein Vergleichsbild posten.

AYAlf_2
2010-05-07, 09:48:17
...die negativen Erfahrungen mit SLI/CF überwogen

1. ...wenn wuerde z.z. nur cf sinn machen (fuer otto normal user)
2. ...hat sli/cf ein denkbar schlechtes preis/leistungsverhaeltnis.
3. ...hat sli/cf ein denkbar schlechte watt/leistungsverhaeltnis.

corvus
2010-05-07, 09:51:19
Nochmal, natürlich ist Sparsed Grid einem Ordered Grid überlegen. Aber sorry, wer da von Welten spricht, ist für mich nicht objektiv.

Ich werde heute abend mal ein Movie mit 16xS machen, ein ATI Besitzer sollte bitte die selbe Szene mit 2x2 SGSSAA + 4x MS aufnehmen. Corvus, bitte gibt die Szene vor, z.B. bei Deinem Screenshot?

Von SLI spreche ich, weil das das Thema dieses Threads ist. Ich hatte im Kopf, dass Du selbst auch SLI hast, offenbar hab ich da was verwechselt.
Wie wäre es mit einem Savegame? Dann könnte jemand mit einer Nvidia-Karte ein Vergleichsbild posten.


ich weis zwar nich was du willst...das da oben ist 16xS...
ich schau mal ob ich noch ein Bild mit der ATI finde, da hab ich immer mit 4xSGSSAA gespielt, da brauchs kein Video.
http://www.abload.de/thumb/masseffect22010-04-03202se.png (http://www.abload.de/image.php?img=masseffect22010-04-03202se.png)
http://www.abload.de/thumb/masseffect22010-04-03253vc.png (http://www.abload.de/image.php?img=masseffect22010-04-03253vc.png)
http://www.abload.de/thumb/masseffect22010-04-032k411.png (http://www.abload.de/image.php?img=masseffect22010-04-032k411.png)

narrow
edge
box

NV 16xS
http://www.abload.de/thumb/masseffect22010-05-070ujq0.png (http://www.abload.de/image.php?img=masseffect22010-05-070ujq0.png)

Grestorn
2010-05-07, 09:59:31
Den Vorteil von SSAA sieht man eigentlich nur richtig bei bewegten Bildern. Also bitte Movies. Ich werde eines dazu beitragen und bereistellen (heute abend oder morgen)

corvus
2010-05-07, 10:03:29
ja schon klar :lol: ich kauf mir jetzt wieder eine HD5......vergiß es einfach, jeder sehende macht sich eh sein Bild.

derguru
2010-05-07, 10:06:14
corvus was für eine karte ist denn die mit dem ogssaa bild.,285gtx?

corvus
2010-05-07, 10:20:09
480 leicht oced :D
http://www.abload.de/thumb/unbenannt6b44.png (http://www.abload.de/image.php?img=unbenannt6b44.png)

Wuge
2010-05-07, 10:23:56
SLI ist toll. Wo ich mit einer Karte 40 schwankende Frames und Tearing hatte sinds mit SLI glatte 60 mit VSync on.

y33H@
2010-05-07, 10:25:25
Mit derben µRucklern und einem übelst fetten Input-Lag dank MGPU + Vsync :uclap: Aber wem's gefällt.

Grestorn
2010-05-07, 10:25:32
ja schon klar :lol: ich kauf mir jetzt wieder eine HD5......vergiß es einfach, jeder sehende macht sich eh sein Bild.

Es gibt doch noch andere Menschen mit einer HD5, oder? Sei doch nicht gleich so aggressiv. Mich interessiert das wirklich, es geht mir hier nicht um ATI oder nVidia, sondern wenn einer behauptet, dass SGSS so viel besser sei, dann möchte ich mich davon selbst überzeugen, denn es würde meine bisherige Meinung zu diesem Thema eben deutlich ändern.

Wenn meine Meinung nicht der Realität entspricht, würde ich diese gerne anpassen. Daber dazu möchte ich dann auch etwas konkretes sehen, und da reicht mir leider kein Shot.

corvus
2010-05-07, 10:32:08
ich bin nicht aggressiv :D ich bin so.

Unter DX10/11 ist das Bild natürlich wieder genau anders rum :D

http://www.abload.de/thumb/justcause2_game2010-04juz0.png (http://www.abload.de/image.php?img=justcause2_game2010-04juz0.png)

Deswegen hatte ich ja auch mal vor nicht allzu langer Zeit erwähnt "es gibt immer 2 Seiten".....

+ dem Anhang das es keinen juckt....gelle :D

Cubitus
2010-05-07, 11:03:28
Mit derben µRucklern und einem übelst fetten Input-Lag dank MGPU + Vsync :uclap: Aber wem's gefällt.

Bist du nicht ein Mann vom Fach :confused:
Du solltest es eigl besser wissen ;(

urfaust
2010-05-07, 11:23:50
Den Vorteil von SSAA sieht man eigentlich nur richtig bei bewegten Bildern. Also bitte Movies.

ich würde gerne Fallout3 in 8xSGSSAA mit Fraps aufnehmen, in anständiger
Qualität allerdings könnte das Video schon groß werden, und die Uploadzeit
erst. hmmm..Wieviele Sekunden würden denn ausreichen?

Dr.Doom
2010-05-07, 11:31:32
[x] ...finde SLI/CF absolut uninteressant weil, ...
... ich ohnehin kein AA/AF nutze und mir auch hässliche Spiele Spass machen können. Gute Spiele werden durch gute Grafik nur noch besser, aber mir reicht's bereits, wenn Spiele "nur gut" sind. Schlechte/uninteressante Spiele werden durch bessere Grafik nicht spielenswerter für mich.

Unsinnig halte ich SLI/Crossfire aber dennoch nicht, weil's halt sicherlich Leute gibt, die sich diesen Luxus leisten wollen. Ähnlich jemandem, der sich einen dicken BMW oder Mercedes kauft, während jemand anderes sich mit einem Mittelklassewagen zufrieden gibt, obwohl der Geldbeutel durchaus mehr zulassen würde.

Schlammsau
2010-05-07, 11:57:09
Es gibt doch noch andere Menschen mit einer HD5, oder? Sei doch nicht gleich so aggressiv. Mich interessiert das wirklich, es geht mir hier nicht um ATI oder nVidia, sondern wenn einer behauptet, dass SGSS so viel besser sei, dann möchte ich mich davon selbst überzeugen, denn es würde meine bisherige Meinung zu diesem Thema eben deutlich ändern.

Wenn meine Meinung nicht der Realität entspricht, würde ich diese gerne anpassen. Daber dazu möchte ich dann auch etwas konkretes sehen, und da reicht mir leider kein Shot.

Ich kann gerne Videos liefern.
Sag mir nur genau, was du haben willst.

Grestorn
2010-05-07, 12:39:02
Ich kann gerne Videos liefern.
Sag mir nur genau, was du haben willst.

Lauf mal in der Normandy von der Kartenstation Richtung Pilot... Ich mach ein Vergleichsvideo und versuch Deine Bewegung nachzustellen.

Auflösung nicht zu hoch, wegen Bandbreite, sagen wir, 1280 oder weniger. 4xSGSSAA und 16xAF.

Danke!

derguru
2010-05-07, 12:45:51
kriegt man das überhaupt hin 1zu1 aufzunehmen?

Gast
2010-05-07, 12:50:50
Nochmal, natürlich ist Sparsed Grid einem Ordered Grid überlegen. Aber sorry, wer da von Welten spricht, ist für mich nicht objektiv.

Ich werde heute abend mal ein Movie mit 16xS machen, ein ATI Besitzer sollte bitte die selbe Szene mit 2x2 SGSSAA + 4x MS aufnehmen. Corvus, bitte gibt die Szene vor, z.B. bei Deinem Screenshot?


Wenn dann musst du 4x SGSSAA mit 4x OGSSAA vergleichen, 16xS muss besser sein. Natürlich nur mit Box-Downfilter. Was bei MassEffekt und auch anders wo allerdings einiges bringt sind die Tent-Filter, den NV leider noch immer nicht bietet.

y33H@
2010-05-07, 12:52:13
@ Cubitus

Was sollte ich besser wissen? Vsync verstärkt die µRuckler und den Input-Lag.

Grestorn
2010-05-07, 12:53:44
Wenn dann musst du 4x SGSSAA mit 4x OGSSAA vergleichen, 16xS muss besser sein. Natürlich nur mit Box-Downfilter. Was bei MassEffekt und auch anders wo allerdings einiges bringt sind die Tent-Filter, den NV leider noch immer nicht bietet.

Kann man denn bei 4xSGSSAA kein 4xMS dazuschalten? Oder sind die Samples gleich angeordnet, so dass das Zuschalten von 4xMS keinen Unterschied mehr bringen würde? Wenn ja, dann muss man für die Qualität schon mit 16xS vergleichen. Auch wenn mir völlig klar ist, dass 16xS massiv mehr Performance kostet - aber es war ja die Aussage, dass die BQ bei nVidia generell deutlich schlechter als bei SGSSAA ist, nicht dass es mehr Leistung kostet.

Mit reinem 2x2SSAA würde ich in der Praxis ja auch nie spielen. Mindestens 8xSQ, eher 16xS wenn es noch geht.

Den Tent-Filter kann man meinetwegen gerne zuschalten (am besten wäre eine Variante mit Box und eine mit Tent).

urfaust
2010-05-07, 12:55:06
Kann man denn bei 4xSGSSAA kein 4xMS dazuschalten?

nein

Mr. Lolman
2010-05-07, 12:58:01
Wenn dann musst du 4x SGSSAA mit 4x OGSSAA vergleichen, 16xS muss besser sein. Natürlich nur mit Box-Downfilter. Was bei MassEffekt und auch anders wo allerdings einiges bringt sind die Tent-Filter, den NV leider noch immer nicht bietet.

Bei Alphatests ist 4xSGSSAA schöner als 16xS.

corvus
2010-05-07, 12:58:26
wieso, er kann doch das bestmögliche Einstellen was geht, darum geht es doch.
8xSGSSAA und 32xS ...Video mit Fraps... die 20 sec. sind 1gig :rolleyes:
Im Grunde brauchs überhaupt kein Video...ansonsten könnt ihr auch NV SGSSAA in DX 10/11 mit ATIs edge+AAA vergleichen...oder glaubt das da etwa auch keiner das es besser aussieht... dickköppiger Kindergarten.
In 5 Sätzen wird sich im Grunde 5x wiedersprochen..so was lächerliches.

derguru
2010-05-07, 12:58:29
das 4xsgssaa besser als 2x2 ogssaa ist klar aber es ging darum das corvus behauptet hat das selbst 16xs nicht mithalten kann.
wenn man ds mit ogssaa vergleichen kann stimme ich aber corvus zu jedenfalls bei der unrealengine,in bioshock 2 fand ich selbst 4xsgssaa besser ds 7680*4800.

corvus
2010-05-07, 13:00:08
wie man an Hand der Bilder unschwer erkennen kann....aber neuerdings brauchs dazu ja Videos....

Grestorn
2010-05-07, 13:00:55
@ Cubitus

Was sollte ich besser wissen? Vsync verstärkt die µRuckler und den Input-Lag.

Man kann es auch anders sehen:

Man bekommt zwar durch VSync und durch SLI Mikroruckler und Lag.

Aber die beiden Effekte addieren sich ja nicht! Und wenn man eher langsame Spiele spielt und ohnehin niemals auf VSync verzichten würde, weil es für mich überhaupt keinen Sinn macht, zerstückelte Bilder zu sehen, der wird auch nicht nennenswert mehr Ruckler und Lag durch SLI bemerken. Sehr wohl bemerke ich aber die sehr viel ruhigeren Bilder (dank besserem AA) und die Möglichkeit, alle Effekte ohne Einschränkung nutzen zu können.

Also bringt mir SLI sehr viel. Auch wenn es als einen definitiven Fakt sehen, dass SLI niemandem irgendetwas bringen kann.

y33H@
2010-05-07, 13:03:18
Natürlich addiert sich das, Vsync verstärkt die µRuckler und den Lag.

Grestorn
2010-05-07, 13:07:02
Natürlich addiert sich das, Vsync verstärkt die µRuckler und den Lag.

Das kann ich nicht einsehen, denn es gibt auch keinen technischen Grund dafür. Überleg Dir mal, woher die Ruckler kommen, sowohl bei VSync als auch bei SLI. Dann wirst Du einsehen, dass sie sich nicht addieren, zumindest nicht 1:1. Die Effekte können sich verstärken, je nach Situation, aber sie addieren sich nicht.

Im Gegenteil, VSync kann sogar helfen, den zeitlichen Versatz der beiden GPUs auf ein festes Raster zu legen und damit zu glätten.

Für den Input-Lag gilt das gleiche.

Gast
2010-05-07, 13:07:12
Kann man denn bei 4xSGSSAA kein 4xMS dazuschalten? Oder sind die Samples gleich angeordnet, so dass das Zuschalten von 4xMS keinen Unterschied mehr bringen würde?


Nein, wie soll das auch gehen wenn das SSAA schon sparsed grid ist? Wo willst du mit den MSAA-Samples denn hin?


Wenn ja, dann muss man für die Qualität schon mit 16xS vergleichen. Auch wenn mir völlig klar ist, dass 16xS massiv mehr Performance kostet - aber es war ja die Aussage, dass die BQ bei nVidia generell deutlich schlechter als bei SGSSAA ist, nicht dass es mehr Leistung kostet.

Das kann normalerweise nicht sein. Für die Texturwirkung ist es (fast) egal ob SG oder OG und für die Kanten hat 16xS natürlich den Vorteil der wesentlich höheren Sample-Anzahl. Einzig für Dinge wie MSAA nicht greif ist 4xSGSSAA natürlich trotzdem im Vorteil gegenüber 16xS.


Den Tent-Filter kann man meinetwegen gerne zuschalten (am besten wäre eine Variante mit Box und eine mit Tent).

Zumindest optimal wäre es sehr interessant, man wird eine deutlichen Unterschied feststellen.

corvus
2010-05-07, 13:08:24
event soltet ihr euch mal einigen über das was die jeweil andere Seite überhaupt aussagen will...meine Herren..meine 2 Zwerge haben bei weiten nicht solch Bretter vor dem Kopf.

Grestorn
2010-05-07, 13:09:30
wieso, er kann doch das bestmögliche Einstellen was geht, darum geht es doch.
8xSGSSAA und 32xS ...Video mit Fraps... die 20 sec. sind 1gig :rolleyes:
Im Grunde brauchs überhaupt kein Video...ansonsten könnt ihr auch NV SGSSAA in DX 10/11 mit ATIs edge+AAA vergleichen...oder glaubt das da etwa auch keiner das es besser aussieht... dickköppiger Kindergarten.
In 5 Sätzen wird sich im Grunde 5x wiedersprochen..so was lächerliches.

Ich hab keine ATI und kann deswegen diese phänomenale SGSSAA Qualität nicht sehen. Gönnt mir doch die Freude und überzeugt mich mit Fakten!

Grestorn
2010-05-07, 13:11:35
Nein, wie soll das auch gehen wenn das SSAA schon sparsed grid ist? Wo willst du mit den MSAA-Samples denn hin?Auf andere Patternpositionen. Wäre eigentlich kein Problem. Es gibt ja nicht nur ein sparsed grid layout.

Das kann normalerweise nicht sein. Für die Texturwirkung ist es (fast) egal ob SG oder OG und für die Kanten hat 16xS natürlich den Vorteil der wesentlich höheren Sample-Anzahl. Einzig für Dinge wie MSAA nicht greif ist 4xSGSSAA natürlich trotzdem im Vorteil gegenüber 16xS.Sehe ich ganz genauso, deswegen will ich per Movie mich überzeugen - oder eben vom Gegenteil.

derguru
2010-05-07, 13:11:43
Ich hab keine ATI und kann deswegen diese phänomenale SGSSAA Qualität nicht sehen. Gönnt mir doch die Freude und überzeugt mich mit Fakten!
roofl du hast eine oder 2 480gtx,dann kannst du dich von der sgssaa qualität z.b. in bioshock 2 erfreuen,langsam schmerzt es.selbst vergleichen kannst du es damit ganz alleine.

corvus
2010-05-07, 13:12:18
Natürlich addiert sich das, Vsync verstärkt die µRuckler und den Lag.

was denn genau?

ohne SLI 40 FPS
mit SLI ~80 FPS
-15 FPS Lag und CO
was bleibt unterm Strich?

genau, SLI und CF lohnt immer beim Zocken

was der Aufwand und was es kostet im Geldbeutel könnt ihr euch ja wo anders streiten :D

Grestorn
2010-05-07, 13:13:23
roofl du hast eine oder 2 480gtx,dann kannst du dich von der sgssaa qualität z.b. in bioshock 2 erfreuen,langsam schmerzt es.

Darum geht es nicht. Es geht um Corvus' Aussage, die ich verifizieren will.

corvus
2010-05-07, 13:14:13
Ich hab keine ATI und kann deswegen diese phänomenale SGSSAA Qualität nicht sehen. Gönnt mir doch die Freude und überzeugt mich mit Fakten!

sach mal willste mich oder uns eigendlich verarschen?
Du hast doch einen fermi und DX10 Games und du siehst keinen Unterschied mit SGSSAA, langsam reicht es echt.

Vergleich doch zb. Just Cause mit 16xS und dann mit 4x SGSSAA. glaubste in DX9 wäre das anders nur weils ne ATI ist?

Grestorn
2010-05-07, 13:16:40
Du sprichst von MassEffect2, und das ist kein DX10!

corvus
2010-05-07, 13:17:47
Komm laß gut sein Grestorn dreh deine Filmchen und gut ist.

Gast
2010-05-07, 13:20:08
Auf andere Patternpositionen. Wäre eigentlich kein Problem. Es gibt ja nicht nur ein sparsed grid layout.

Wäre sehr wohl ein Problem da man dann sie SSAA-Samples suboptimal anordnen müsste. Bei Dinge wo MSAA nicht greift habe ich dann ein unnötig schlechtes Muster.

Grestorn
2010-05-07, 13:21:14
@Corvus:

Was soll denn das? Was regst Du Dich eigentlich so auf?

Du schreibst, dass Dir die Qualität von nVidia bei ME2 nicht gefällt, dass Dir da das 16xS nicht ausreicht. Ich kann das nicht glauben, und will sehen, wo speziell bei ME2 da der große sichtbare Unterschied zum SGSSAA ist, zumal Du ja gleich so richtig von Welten, die da dazwischen liegen, sprichst.

Also, hör auf mich zu beleidigen, bleib am Teppich, und steh zu Deinen Aussagen und dazu, dass man sie gerne verifiziert haben möchte.

corvus
2010-05-07, 13:27:53
du solltest mal nachdenken....aber das kennt man ja...

Machs wie zb . Guru oder ich sage, das kannste schön selbst vergleichen mit deinen Games dazu brauchs keinen anderen und keine Videos.

"eppich, und steh zu Deinen Aussagen und dazu, dass man sie gerne verifiziert haben möchte"

Natürlich steh ich dazu und der Rest der Welt auch.

Und wie gesagt verifizieren kannste das selbst mit deinen Games und der 480er dazu brauchs keinen anderen oder Videos und schon garnicht Mass2 mit 045er Bits....und ner NV das sieht einfach nur schei...e aus.
Ende hier für mich.

Grestorn
2010-05-07, 13:32:25
Wäre sehr wohl ein Problem da man dann sie SSAA-Samples suboptimal anordnen müsste. Bei Dinge wo MSAA nicht greift habe ich dann ein unnötig schlechtes Muster.

Man könnte auch die MSAA Pattern anders verzeilen. Das geht schon, zumal das Pattern bei ATI ja frei programmierbar ist. Man bekäme dann schlicht ein 4xSGSSAA und quasi ein 8xMSAA (da die SSAA Samples ja auch zu den MSAA Samples addiert würden).

Grestorn
2010-05-07, 13:33:55
du solltest mal nachdenken....aber das kennt man ja...

Machs wie zb . Guru oder ich sage, das kannste schön selbst vergleichen mit deinen Games dazu brauchs keinen anderen und keine Videos.

"eppich, und steh zu Deinen Aussagen und dazu, dass man sie gerne verifiziert haben möchte"

Natürlich steh ich dazu und der Rest der Welt auch.

Und wie gesagt verifizieren kannste das selbst mit deinen Games und der 480er dazu brauchs keinen anderen oder Videos und schon garnicht Mass2 mit 045er Bits....und ner NV das sieht einfach nur schei...e aus.
Ende hier für mich.

Ich kann echt nicht verstehen, warum Du Dich hier so unsachlich aufmandelst. Schade eigentlich, ich dachte, man könnte hier vernünftig einer Sache nachgehen. Offenbar ist das nicht möglich, Du scheinst Dich sofort irgendwie in Deiner Ehre angegriffen zu fühlen, und schlägst wie wild um Dich.

Ich kann das echt nicht so recht nachvollziehen.

Ich würde mich trotzdem sehr darüber freuen, wenn Schlammsau den Film machen würde. Ich will das SGSSAA bei ME2 tatsächlich selbst mal in Aktion sehen und mit 16xS vergleichen können.

Irgendein anderes DX10/11 Spiel zu nehmen, hilft mir doch nicht weiter, um Corvus' Aussage zu verifizieren. Bioshock hat z.B. bei weitem nicht die Aliasing-Probleme, die ME2 hat.

corvus
2010-05-07, 13:41:27
Dich kann schon lange keiner mehr verstehen mit deiner ewigen Besserwisserei und tot Schwätzen nur weil der Herr seinen Standpunkt durchsetzen will, das ist in jedem Fred so egal um was es geht.

SGSSAA ist SGSSAA egal obs beim Fermi in DX10 oder bei der HD5 in DX9 ist

Und es sieht 100mal besser aus in beiden Fällen als 16xS, ob dir das nun in den Kram paßt oder auch nicht.

Und dann kommt immer sowas
"u scheinst Dich sofort irgendwie in Deiner Eher angegriffen zu fühlen, und schlägst wie wild um Dich"
egal mit wem du es gerade hast. einfach nur ARM!

Und nun kannste werryvizieren bist der Arzt kommt.

Schönen Tag noch.

Grestorn
2010-05-07, 13:47:43
Dich kann schon lange keiner mehr verstehen mit deiner ewigen Besserwisserei und tot Schwätzen nur weil der Herr seinen Standpunkt durchsetzen will, das ist in jedem Fred so egal um was es geht.

SGSSAA ist SGSSAA egal obs beim Fermi in DX10 oder bei der HD5 in DX9 ist

Sicher, aber es geht doch um ME2, oder? Ich kann doch den Gewinn von SGSSAA in Bioshock oder Crysis nicht mit ME2 vergleichen, wenn Du sagst, gerade bei ME2 wäre der Unterschied zu 16xS so krass.

Und es sieht 100mal besser aus in beiden Fällen als 16xS, ob dir das nun in den Kram paßt oder auch nicht.

100x? Sorry, nein. Es sieht in meinen Augen bestenfalls ein klein wenig besser aus, und auch nur dann, wenn extremes Shader- oder Texturaliasing vorhanden ist (wo der MSAA-Teil vom 16xS nicht greift). Und wenn Du anderer Ansicht bist, dann solltest Du doch auch kein Problem haben, dass mit dem Movie nachzuweisen, oder?

Und dann kommt immer sowas
"u scheinst Dich sofort irgendwie in Deiner Eher angegriffen zu fühlen, und schlägst wie wild um Dich"
egal mit wem du es gerade hast. einfach nur ARM!Du wirst nicht müde, meine Intelligenz in Frage zu stellen, zu behaupten ich wäre besserwisserisch, oder jetzt eben arm.

Andere hätten Dich dafür schon längst gemeldet. Ich halte nur nichts davon, wegen solchen Kinkerlitzchen zur Moderation zu rennen. Aber dass Du die Forumsregeln brichst, sollte Dir eigentlich bewusst sein.

Ich hoffe, Schlammsau oder ein anderer ATI Nutzer macht ein solches Video. Ich will sehen, was mir in ME2 entgeht.

Schlammsau
2010-05-07, 15:51:10
Sorry Grestorn Mass Effect 2 hab ich leider nicht!

Aber ich kann dir Crysis, Warhead, Serious Sam FE HD,CoD MW 2 und HL² in allen Variationen anbieten. :)

Grestorn
2010-05-07, 16:36:37
@Schlammsau: Schade. Von den Spielen hab ich nur Crysis (ohne Warhead) und HL2. Shooter sind nicht ganz so mein Fall...

Jemand anderes, der in die Bresche springen könnte?

Ich hab ein paar Videos aus Mass Effect 2 gemacht. Das Spiel hat wirklich extrem flimmrige Texturen, und ich kann mir schon vorstellen, dass hier SGSSAA noch eine spürbare Verbesserung bringt. Ob es gleich "100x" und "Welten" sind, muss jeder für sich entscheiden...

Upload läuft...

urfaust
2010-05-07, 16:54:35
Crossfire Freunde können schonmal Champagner kalt stellen
und Wixxtücher bereit legen

Asus „Crosshair IV Extreme“ mit Lucids Hydra (http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2010/mai/asus_crosshair_iv_extreme_lucids_hydra/)

http://www.bilder-hochladen.net/files/thumbs/dssb-5n.jpg (http://www.bilder-hochladen.net/files/dssb-5n-jpg.html)

http://www.bilder-hochladen.net/files/thumbs/dssb-5p.jpg (http://www.bilder-hochladen.net/files/dssb-5p-jpg.html)

http://www.bilder-hochladen.net/files/thumbs/dssb-5r.jpg (http://www.bilder-hochladen.net/files/dssb-5r-jpg.html)

Gast
2010-05-07, 17:34:06
Ich muß Grestorn jetzt mal beistehen, mich würde zwei Videos von ME2 jeweils auf Ati und NV auch interessieren. Was ist also so schlimm daran, wenn man sich selbst ein Bild von der Sache machen will? Da ich in naher Zukunft nochmals die Grafikkarte aufrüsten will würde mich schon interessieren, ob das Supersampling der Ati solch einen enormen BQ-Vorteil bringt.

Wuge
2010-05-07, 17:37:36
Bei 60 FPS mit VSync gibts keine Mikroruckler, da der Frameverlauf zwngsläufig glatt ist. Man braucht halt etwas Reserve, damit keine Frames ausfallen.

Cubitus
2010-05-07, 17:56:22
Mass Effect 2 mit 8xSQ, sieht doch nich soo schlecht aus oder ? :D


http://www.abload.de/img/masseffect22010-02-062mbvb.jpg (http://www.abload.de/image.php?img=masseffect22010-02-062mbvb.jpg)

http://www.abload.de/img/masseffect22010-02-0702zf9.jpg (http://www.abload.de/image.php?img=masseffect22010-02-0702zf9.jpg)

http://www.abload.de/img/masseffect22010-02-062wxd4.jpg (http://www.abload.de/image.php?img=masseffect22010-02-062wxd4.jpg)


Crossfire Freunde können schonmal Champagner kalt stellen
und Wixxtücher bereit legen

Hyddra ist ne nette Idee, bring praktisch aber gar nix.

Grestorn
2010-05-07, 18:24:58
Hier sind die Movies:

Settings: 1280x768, 16xAF, Ingame settings auf Maximum (Grieselfilter aus). Die Files sind um die 200 MB groß. Wenn das Kontingent meines Providers am Ende ist, nehme ich die Files runter.

4x: www.nhancer.com/downloads/MassEffect2_4x.avi
16xS: www.nhancer.com/downloads/MassEffect2_16xS.avi

Hier das Savegame: www.nhancer.com/downloads/MassEffect2Save.7z
Würde mich freuen, wenn ein ATI HD5 Besitzer ein entsprechendes Movie macht. Ich stell auch einen Server zur Verfügung, wenn es nicht anders geht.

aths
2010-05-07, 18:52:49
Ich glaube, diese Threads sind sinnlos.

Fraktion die SLI hat:

SLI roXX0rs! SLI = teh performance, SLI 4 teh win!


Fraktion die kein SLI hat:

SLI suXX0rs! SLI = teh inputlag, SLI 4 μstutter!

ZÜNDELholz
2010-05-07, 19:09:09
Ich glaube, diese Threads sind sinnlos.

!


Fraktion die kein SLI hat:

SLI suXX0rs! SLI = teh inputlag, SLI 4 μstutter!

Vor allem ganz witzig, die SingleCard-Fraktion, welch mit 20-30 FPS und Overdrive massiv Input lag hat, adaptiert ihr Empfinden auf Teile der SLi-Fraktion, welch 'nen Overdrivefreien 30"er besitzt , mit doppelten Fps "unterwegs" und ist genussvoll den Bs betrachtet.. Und nun das Fatale dieser ewigen Singles: Mit 2 Karten ist der "Inputlag" doppelt so schlimm ! Hust, Hust....

@Topic:
]X[
betreibe SLI/CF und bin hoch zufrieden

Grestorn
2010-05-07, 20:17:10
Wie ist es nun, gibt es keine ATI HD5 Mass Effect 2 Spieler, die sagen können, um wie viel besser die von mir gefilmte Stelle mit SGSSAA aussieht?

tombman
2010-05-07, 21:54:24
Ich glaube, diese Threads sind sinnlos.

Fraktion die SLI hat:

SLI roXX0rs! SLI = teh performance, SLI 4 teh win!


Stimmt ja nicht. Die SLI-user wissen sehr wohl, daß nicht alles Friede-Freude-Eierkuchen ist und kommunizieren das auch. Man sollte halt, wenn möglich, nicht auf 3x fps herumkrebsen, sondern eher auf 4x fps- dann roXXort es wirklich ;)

Fraktion die kein SLI hat:

SLI suXX0rs! SLI = teh inputlag, SLI 4 μstutter!
Das stimmt schon eher :ulol:

Schrotti
2010-05-07, 22:21:05
Hier sind die Movies:

Settings: 1280x768, 16xAF, Ingame settings auf Maximum (Grieselfilter aus). Die Files sind um die 200 MB groß. Wenn das Kontingent meines Providers am Ende ist, nehme ich die Files runter.

4x: www.nhancer.com/downloads/MassEffect2_4x.avi
16xS: www.nhancer.com/downloads/MassEffect2_16xS.avi

Hier das Savegame: www.nhancer.com/downloads/MassEffect2Save.7z
Würde mich freuen, wenn ein ATI HD5 Besitzer ein entsprechendes Movie macht. Ich stell auch einen Server zur Verfügung, wenn es nicht anders geht.

Meine HD 5850 ist noch nicht hier und das Game habe ich auch nicht.

Ich lebe momentan mit einer 8800 GTS 512.

kmf
2010-05-07, 23:06:47
Hier sind die Movies:

Settings: 1280x768, 16xAF, Ingame settings auf Maximum (Grieselfilter aus). Die Files sind um die 200 MB groß. Wenn das Kontingent meines Providers am Ende ist, nehme ich die Files runter.

4x: www.nhancer.com/downloads/MassEffect2_4x.avi (http://www.nhancer.com/downloads/MassEffect2_4x.avi)
16xS: www.nhancer.com/downloads/MassEffect2_16xS.avi (http://www.nhancer.com/downloads/MassEffect2_16xS.avi)

Hier das Savegame: www.nhancer.com/downloads/MassEffect2Save.7z (http://www.nhancer.com/downloads/MassEffect2Save.7z)
Würde mich freuen, wenn ein ATI HD5 Besitzer ein entsprechendes Movie macht. Ich stell auch einen Server zur Verfügung, wenn es nicht anders geht.Ich kann die avis ums Verrecken net abspielen. :(

Schrotti
2010-05-07, 23:35:12
Spielt mein Mediaplayer (Win 7) ohne Probleme.

Grestorn
2010-05-07, 23:59:40
FRAPS installiert?

derguru
2010-05-08, 00:08:30
Wie ist es nun, gibt es keine ATI HD5 Mass Effect 2 Spieler, die sagen können, um wie viel besser die von mir gefilmte Stelle mit SGSSAA aussieht?

ich mach das gleich mal,wieviel fps hast du in etwa an der stelle mit deinen karten und 16xS?(ach ist ja eh low auflösung,also wurscht;)

ach dein save geht nicht.

kmf
2010-05-08, 02:06:28
Spielt mein Mediaplayer (Win 7) ohne Probleme.
Klar, wieso auch nicht. :cool:

FRAPS installiert?Man, sag das doch vorher. ;( Ich hab zwischenzeitlich alle Codices der Welt installiert.
Tjo, jetzt geht's. Sieht doch verdammt geil aus. Nur bissel arg kurz. :D

/edit Ich lad mir grad das Game per EADM runter. Läuft schon gute 3 h. Ist aber gleich fertig. Ich hab zwar das Game als DVD. Nur dann muss ich die immer einlegen. Per Downloadmanager ist das bequemer. Vor allen Dingen, geht's dann auf allen meinen Rechnern - und zwar zur gleichen Zeit. ;D

/edit Nur dass man mir glaubt, dass ich mir's auch angeguckt hab: http://extreme.pcgameshardware.de/alben/thumbs/42/df79d497e1a5a08d1b89deadb5cf3e13_42071.png?dl=1273278602 (http://extreme.pcgameshardware.de/members/kmf-albums-krimskram-1032-picture42071-grestorn.png)

corvus
2010-05-08, 09:01:04
ich mach das gleich mal,wieviel fps hast du in etwa an der stelle mit deinen karten und 16xS?(ach ist ja eh low auflösung,also wurscht;)

ach dein save geht nicht.

dreh das Filmchen so in dem du dich umdrehst und auf die Fahrstuhltür zu gehst, das man die Rahmen der Tür sieht....

urfaust
2010-05-08, 10:11:13
Hyddra ist ne nette Idee, bring praktisch aber gar nix.

das sieht hier aber anders aus (siehe 5850 Crossfire vs. 5850 Hydra) :

http://www.awardfabrik.de/images/stories/msi_big_bang_fuzion/Bild67.jpg

Lu
2010-05-08, 10:14:53
[x] betreibe SLI/CF und bin hoch zufrieden

Mehr gibts dazu nicht zu sagen. Und die vergleichs Videos würden mich auch brennend interessieren. @ corvus ich dacht du wärst raus? dann bleibs doch auch!

Cubitus
2010-05-08, 10:16:42
das sieht hier aber anders aus (siehe 5850 Crossfire vs. 5850 Hydra) :

http://www.awardfabrik.de/images/stories/msi_big_bang_fuzion/Bild67.jpg

Der Sinn von Hydra soll ja sein, Nvidia +ATI Karten+anderes Modell und dies klappt nur mehr schlecht als recht. Zudem ist das wieder mit dem Treiber so ne Sache. Ati oder Nvidia lassen sich ja schon teilweise zu viel Zeit mit der neu Veröffentlichung eines Treibers. Ich vermute das neue Hydra Treiber noch länger auf sich warten lassen werden.

tombman
2010-05-08, 10:24:14
Hydra ist doch ein Witz. Die brauchen ja ewig um auch nur EINE Anwendung korrekt laufen zu lassen -> Epic Fail -> ignored.

urfaust
2010-05-08, 10:32:57
Der Sinn von Hydra soll ja sein, Nvidia +ATI Karten+anderes Modell und dies klappt nur mehr schlecht als recht. Zudem ist das wieder mit dem Treiber so ne Sache. Ati oder Nvidia lassen sich ja schon teilweise zu viel Zeit mit der neu Veröffentlichung eines Treibers. Ich vermute das neue Hydra Treiber noch länger auf sich warten lassen werden.

hier verhält es sich doch ähnlich wie mit Crossfire/SLI..
Bringt es mir je nach Spiel Vorteile aktiviere ich es, andernfalls wird es
deaktiviert. Und das in Hydra Potential zur Verbesserung von Crossfire/SLI
steckt, ist nicht von der Hand zu weisen :wink:

http://www.awardfabrik.de/images/stories/msi_big_bang_fuzion/Bild24.jpg

Fetter Fettsack
2010-05-08, 13:04:01
@tombman

Wenn diese dann aber ordentlich läuft und merkbare Leistungsvorteile aufweist, wäre es doch in gewissem Ausmaße doch wieder sinnvoll, findest du nicht?

tombman
2010-05-08, 15:31:56
@tombman

Wenn diese dann aber ordentlich läuft und merkbare Leistungsvorteile aufweist, wäre es doch in gewissem Ausmaße doch wieder sinnvoll, findest du nicht?
"Wenn"....da muß erstmal die manpower da sein, Hydra für jedes einzelne game zu testen und zu konfigurieren- und das haben die einfach nicht...

Bucklew
2010-05-08, 16:03:28
Wenn diese dann aber ordentlich läuft und merkbare Leistungsvorteile aufweist, wäre es doch in gewissem Ausmaße doch wieder sinnvoll, findest du nicht?
Tut es aber, bis auf eine Handvolle Spiele/Benchmarks, nicht. Und wenn die Firma in einem Jahr Pleite ist, kannste defakto das ganze komplett in die Tonne treten.

Fetter Fettsack
2010-05-08, 16:18:50
Stellt sich nun die Frage: besteht das Risiko, dass die Firma nachfolgelos untergeht? "Wenn" die Brauchbarkeit der Sache an sich gegeben ist, dann wäre es meiner Ansicht nach gar nicht so weit hergeholt, dass die Firma entweder wirtschaftlich überleben kann oder im Falle ihres Ablebens sich einer der beiden Chipdesigner dafür interessiert, sprich, zumindest die Patente aufkauft. Soweit meine (eventuell etwas blauäugige) Mutmaßung.

N0Thing
2010-05-08, 18:03:16
das sieht hier aber anders aus (siehe 5850 Crossfire vs. 5850 Hydra) :

http://www.awardfabrik.de/images/stories/msi_big_bang_fuzion/Bild67.jpg

Bei allen anderen Reviews die ich bisher zu Hydra gelesen habe, sehen die Diagramme eher katastrophal für Hydra aus.

Bucklew
2010-05-09, 01:55:38
Stellt sich nun die Frage: besteht das Risiko, dass die Firma nachfolgelos untergeht?
Ja, gerade bei so einer kleinen Firma. Ein Aufkauf reicht ja schon, um den Support komplett einzustellen.

Fetter Fettsack
2010-05-09, 10:44:01
Ja aber wenn das Verfahren an sich so gut ist, wie so mancher sagt, warum sollte man da den Support einstellen anstatt es selber weiterzuführen und zu verbessern? Leuchtet mir nicht so ganz ein.

Bucklew
2010-05-09, 12:50:12
Ja aber wenn das Verfahren an sich so gut ist, wie so mancher sagt, warum sollte man da den Support einstellen anstatt es selber weiterzuführen und zu verbessern? Leuchtet mir nicht so ganz ein.
Weil die Technologie jemandem vllt nicht gefällt und er sie nicht mehr will? Oder aber die Technologie ist auch einfach nicht Geldbringend genug und die Firma geht von sich aus Pleite. Gibt zig Möglichkeiten, mir wäre so ein Board dafür zu teuer, vorallem angesichts dessen, dass die einzig gute Möglichkeit (Mischung verschiedener GPU-Hersteller) nur mehr schlecht als Recht funktioniert. Alles andere geht auch SLI/Crossfire und das ist in der breite der Spiele einfach besser.

Gast
2010-05-09, 13:00:39
Vor allem ganz witzig, die SingleCard-Fraktion, welch mit 20-30 FPS und Overdrive massiv Input lag hat, adaptiert ihr Empfinden auf Teile der SLi-Fraktion, welch 'nen Overdrivefreien 30"er besitzt , mit doppelten Fps "unterwegs" und ist genussvoll den Bs betrachtet..

Wenn du auf einen gehobenen niveau spielen würdest, wüsstest du, dass man da sowieso keine TFTs benutzt, sondern CRTs, weil TFTs selbst heute noch ein durchaus bemerkbaren input lag haben(frag mal jaedong!...). TFT+SLI ist auf gehobenen anspruch unspielbar.

y33H@
2010-05-09, 13:54:44
Korrekt. CSS mit 300 Fps und am CRT. Alles andere geht mal gar nicht, wenn man es ernsthaft machen will.

Schlammsau
2010-05-09, 13:56:33
Korrekt. CSS mit 300 Fps und am CRT. Alles andere geht mal gar nicht, wenn man es ernsthaft machen will.

Mit ersnthaft meinst du eSports oder?

y33H@
2010-05-09, 13:58:43
Unter anderem. Wenn ich abends ab und zu UT2004 InstaGib zocke, nutze ich halt auch die Röhre und nicht den LCD.

Megamember
2010-05-09, 14:05:01
Ab morgen hab ich auch über kurz oder lang (bis ich einen Käufer für die andere 470 gefunden hab) die Möglichkeit GTX 470 SLi anzutesten.
Bin mal gespannt was da in Crysis/Warhead/Shift/Metro etc möglich ist.

Gast
2010-05-09, 14:16:41
Ab morgen hab ich auch über kurz oder lang (bis ich einen Käufer für die andere 470 gefunden hab) die Möglichkeit GTX 470
Die GTX 470 geht doch normalerweise weg wie warme Semmeln?!

Megamember
2010-05-09, 14:28:08
Ich hab die WLP gewechselt +am Deckel sind 2 Haltenasen beschädigt.:(
Da sind mir die Angebote im Moment zu schlecht.

ZÜNDELholz
2010-05-09, 14:53:39
Wenn du auf einen gehobenen niveau spielen würdest, wüsstest du, dass man da sowieso keine TFTs benutzt, sondern CRTs, weil TFTs selbst heute noch ein durchaus bemerkbaren input lag haben(frag mal jaedong!...). TFT+SLI ist auf gehobenen anspruch unspielbar.

S-IPS-TFT+SLi= Oberklasse für GameGrafikenthusiasten ;)

Schau mal Junge, um evt. nochmal Punkte zu sammeln: dafür hab ich diesen 21"
http://www.abload.de/img/crt8017.jpg (http://www.abload.de/image.php?img=crt8017.jpg)

Nazar
2010-05-09, 15:13:27
Hatte lang genug ein CF System am laufen und muss leider sagen, dass die negativen Punkte überwiegen.

Da wäre die immer noch sehr eingeschränkte Unterstützung seitens ATI, dann das es immer noch Spiele gibt die kaum oder gar nicht von CF provitieren.
CF läuft zwar bei einigen spielen aber es funktioniert nicht/bringt keinen Performanceschub.
Das viel gescholtene MR ist von Spiel zu Spiel unterschiedlich wahrnembar. Auch ab wieviel FPS, wenn überhaupt, das MR einsetzt ist, vollkommen unterschiedlich.
Was man aber sagen kann ist, dass es sich mit niedrigen FPS immer träger spielt als mit einer Single Karte.
Bisher ist es immer ein Glücksspiel gewesen ob CF trotz Unterstüzung, überhaupt funktioniert weshalb ich CF/SLi definitiv der Rücken kehren werden.

ZÜNDELholz
2010-05-09, 15:28:54
Hatte lang genug ein CF System am laufen und muss leider sagen, dass die negativen Punkte überwiegen.


Bisher ist es immer ein Glücksspiel gewesen ob CF trotz Unterstüzung, überhaupt funktioniert weshalb ich CF/SLi definitiv der Rücken kehren werden.


COD2u.4u.5, Quake4,Doom3, Stalker1u.2, Crysis,crysis WH, Jericho, Dirt1,GRID,Timeshift,Hitman_BM, Matador- meine 15 games, alle ohne probleme mit (ehemals) 4870er-TripleCrossfire. :cool:

Nazar
2010-05-09, 15:42:49
was denn genau?

ohne SLI 40 FPS
mit SLI ~80 FPS
-15 FPS Lag und CO
was bleibt unterm Strich?

genau, SLI und CF lohnt immer beim Zocken

was der Aufwand und was es kostet im Geldbeutel könnt ihr euch ja wo anders streiten :D


Wer viele Actionshooter spielt, sollte seine Finger von CF/SLi lassen.
Das Inputlag lässt sich nicht mit mehr FPS kontern, das es immer vorhanden ist.
Es fällt bei hohen FPS nicht so deutlich aus, ist aber trotzdem vorhanden.
Was Du komplett ausser acht lässt sind die Spiele, die nicht mit CF/SLi funktionieren oder CF/SLi kaum Performanceschub bringen.

Nazar
2010-05-09, 15:44:03
COD2u.4u.5, Quake4,Doom3, Stalker1u.2, Crysis,crysis WH, Jericho, Dirt1,GRID,Timeshift,Hitman_BM, Matador- meine 15 games, alle ohne probleme mit (ehemals) 4870er-TripleCrossfire. :cool:

IL2, BlackShark, Flaming Cliffs2, Warhammer online etc. :rolleyes:
In den anderen Spielen, macht sich CF, dank des Lags, extrem negativ bemerkbar.
Crysis/WH läuft mehr schlecht als recht bei ~30FPS im CF Modus.
Die Dirt Serie incl Grid habe ich nur mal kurz angespielt und konnte dort keine klare Aussage treffen, da die Spiele selbst schon ein extremes Steuerungslag hatten.
Einzig STALKER war auch unter niedrigen FPS immer gut spielbar.

PS: Wer möchte ein HD4870X2 kaufen incl Vollwasserkühler? ;)

Gast
2010-05-09, 16:08:20
Ich hab die WLP gewechselt +am Deckel sind 2 Haltenasen beschädigt.:(
Da sind mir die Angebote im Moment zu schlecht.
Na ob die Angebote mit der Zeit besser werden ist fraglich. Dann würde ich auf jeden Fall jetzt auf SLi umsatteln und die Karten behalten.

Blaire
2010-05-09, 17:30:28
Hatte lang genug ein CF System am laufen und muss leider sagen, dass die negativen Punkte überwiegen.

Da wäre die immer noch sehr eingeschränkte Unterstützung seitens ATI, dann das es immer noch Spiele gibt die kaum oder gar nicht von CF provitieren.
CF läuft zwar bei einigen spielen aber es funktioniert nicht/bringt keinen Performanceschub.


Was aber ganz sicher an den jeweiligen Crossfire Profilen liegt, deshalb ist es auch so wichtig das man diese editieren kann. Und da man dies nach wie vor nicht kann, ist das gegenüber SLI ein erheblich großer Nachteil.

Nazar
2010-05-09, 20:45:24
Was aber ganz sicher an den jeweiligen Crossfire Profilen liegt, deshalb ist es auch so wichtig das man diese editieren kann. Und da man dies nach wie vor nicht kann, ist das gegenüber SLI ein erheblich großer Nachteil.

Das muss man so stehen lassen, aber der Rest meiner "negativen" Ausführungen betrifft auch SLi.
Natürlich muss jeder selber entscheiden ob er den Kosten-/Nutzenfaktor dafür für vertretbar hält.
Im Moment ist der Kosten-/Nutzenfaktor für mich nicht gegeben, dafür gibt es zu viele Negativpunkte.

kmf
2010-05-10, 12:25:36
Korrekt. CSS mit 300 Fps und am CRT. Alles andere geht mal gar nicht, wenn man es ernsthaft machen will.Mein 280er SLi hängt auch an einem 21" CRT 1600x1200 @ 160Hz. Die schweren CAD-Monis wurden vorletztes Jahr bei uns in der Fa verschrottet und durchweg mit Flatscreens ersetzt.
Zum Wegschmeißen eigentlich viel zu schade, hab ich zwei vorm Containertod gerettet und einen mit nach Hause genommen. Zumal der kam kurz zuvor aus der RMA und war im Prinzip noch fast neu. Der andere steht als möglicher Ersatz noch unter meinem Schreibtisch.

N0Thing
2010-05-10, 13:16:15
ich mach das gleich mal,wieviel fps hast du in etwa an der stelle mit deinen karten und 16xS?(ach ist ja eh low auflösung,also wurscht;)

ach dein save geht nicht.


Könnte man (Grestorn?) vielleicht erneut ein Savegame hochladen. Ein Vergleich zwischen 16S und SGSSAA würde mich schon interessieren.

PHuV
2010-05-10, 13:27:33
Wenn du auf einen gehobenen niveau spielen würdest, wüsstest du, dass man da sowieso keine TFTs benutzt, sondern CRTs, weil TFTs selbst heute noch ein durchaus bemerkbaren input lag haben(frag mal jaedong!...). TFT+SLI ist auf gehobenen anspruch unspielbar.

Äh, ich spiele seit 3 Jahren auf 2560x1600 TFT mit SLI bzw CF (7800,8800, 280, 5970), und kann definitiv sagen, daß Deine Aussage rein auf Unkenntnis beruht. Bei manchen Spielen ist etwas Lag da, was sich aber in den meisten Fällen durch Einstellungen beheben ließ.

Grestorn
2010-05-10, 13:34:12
Könnte man (Grestorn?) vielleicht erneut ein Savegame hochladen. Ein Vergleich zwischen 16S und SGSSAA würde mich schon interessieren.

Ein einzelnes Quicksave file lässt sich wohl nicht laden, da muss man wohl das gesamte Profil mit allen Saves hochladen. Wenn das gewünscht ist, kann ich das heute abend mal machen (erinnert mich ggf. daran).

urfaust
2010-10-29, 10:15:49
bin vor kurzem von 5870 Crossfire auf GTX 480 SLI umgestiegen
und ich wurde nicht enttäuscht.
Im subjektiven Vergleich empfinde ich die Geräuschkulisse eines 5870 Crossfire Gespanns
sogar deutlich störender da hochfrequenter als das Rauschen der GTX480.

Auch der Stromverbrauch ist nicht sehr viel höher als bei Crossfire (!!!)
Und wie einst bei Crossfire, von Mikrorucklern bei SLI keine Spur.

mapel110
2011-04-02, 12:00:34
Die Leute haben noch nie SLI in Aktion gesehen, aber man hats wohl geschafft, ein Totschlagargument zu etablieren. Mikroruckler
http://www.abload.de/img/mr-3dcentergkob.jpg

MR treten auch auf Single GPUs auf. Und das zusätzliche fps verzögerung, was in den meisten Fällen viel gravierender ist und auf jeden Fall auftritt (bei AFR), wird totgeschwiegen in der Umfrage.

Ich persönlich glaube btw eher Leuten, die SLI schon mal in Aktion hatten. Und die haben nur selten mit MR und Mauslag zu kämpfen. Sonst gäbe es auch kaum High End SLI/CF-User, wenn diese Probleme so gravierend und immer präsent wären.

In Wahrheit ist doch den meisten Leuten SLI zu teuer und da suchen sie nur die Nachteile raus, damit sie so viel Geld nicht in die Hand nehmen müssen.

derguru
2011-04-02, 12:08:57
so ist es.:biggrin:

ich würde ja so gerne mal sehen wer wo sein kreuz gemacht hat.

edit:ach was,das weißt man eh.:tongue:

Schnäppchenjäger
2011-04-02, 12:45:44
das größte argument dagegen ist einfach : ich brauchs nicht^^
je mehr man in etwas investiert desto mehr sorgt man sich darum, kaum kommt kepler in en paar monaten ist ne gtx 590 wieder "altes eisen"
es gibt, wenn man nach effizienz geht, überhaupt keinen grund jemals sli/cf zu nutzen.
ne gute single gpu reicht immer aus für normalsterbliche
einzige ausnahme war z.B. 2x GTX460, aber die nachteile von sli/cf möcht ich nicht haben.

ich würde mal sagen, alle die noch nie extreme bildqualität erfahren haben, sehen den grund in sli/cf nicht, dazu gehöre ich wohl dazu. dass es teuer ist, kommt noch dazu

Die Leute haben noch nie SLI in Aktion gesehen, aber man hats wohl geschafft, ein Totschlagargument zu etablieren. Mikroruckler
http://www.abload.de/img/mr-3dcentergkob.jpg

MR treten auch auf Single GPUs auf. Und das zusätzliche fps verzögerung, was in den meisten Fällen viel gravierender ist und auf jeden Fall auftritt (bei AFR), wird totgeschwiegen in der Umfrage.

die mikroruckler im single gpu bereich(und in jedem anderen bereich auch, ohne geht nicht) kann man mit ner sinuskurve mit minimalem ausschlag vergleichen. mikroruckler spielen doch keine roll bei single gpu.

boxleitnerb
2011-04-02, 13:35:46
Also früher hab ich es auch unsinnig gefunden. Jetzt habe ich es doch gewagt, weil seit Anfang 2010 bis ca. Anfang 2012 nicht wirklich eine große Leistungssteigerung zu erwarten ist. Das Tempo hat doch stark abgenommen.

Würden wir alle 12-18 Monate neue Karten sehen, wäre das wieder was anderes, dann hätte ich nochmal drüber nachgedacht.

Slipknot79
2011-04-02, 13:50:31
>das größte argument dagegen ist einfach : ich brauchs nicht^^

So ist es, nur noch Konsolenports.