PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie 2 kleine Zwillinge auszogen um das Monster zu verkloppen. (HD3870 X2 vs. Ultra)


Seiten : [1] 2 3

4 Vitamins
2008-01-22, 18:10:07
Da erste benches erscheinen ist es an der zeit für diesen topic.

http://www.pconline.com.cn/diy/graphics/reviews/0801/1210234.html

Nakai
2008-01-22, 18:13:39
Im erwartenden Bereich.
Mehr kann man dazu nicht sagen.

mfg Nakai

4 Vitamins
2008-01-22, 18:15:51
http://img518.imageshack.us/img518/6875/1210234r680vs8800u08012sm1.th.jpg (http://img518.imageshack.us/my.php?image=1210234r680vs8800u08012sm1.jpg)

:eek::eek::eek:

The_Invisible
2008-01-22, 18:17:13
das problem sind dann halt wieder die non-mainstream spiele.

mfg

MarcWessels
2008-01-22, 18:18:23
Ich würde die Ultra jederzeit vorziehen.

AnarchX
2008-01-22, 18:18:43
das problem sind dann halt wieder die non-mainstream spiele.

...und die Frametimes. ;)

4 Vitamins
2008-01-22, 18:22:38
Ich würde die Ultra jederzeit vorziehen.

Das kann dir keiner verbitten;)

Es endet nix dran dass :ATI die LEISTUNGSKRONE HAT!!!!


gruss

Blaire
2008-01-22, 18:23:04
Das Monster kloppt aber ganz gut mit ;)

Grestorn
2008-01-22, 18:25:48
Das kann dir keiner verbitten;)

Es endet nix dran dass :ATI die LEISTUNGSKRONE HAT!!!!


Schön für ATI.

Ich hätte ATI das schon viel länger gewünscht und es wäre auch besser für den gesamten Markt.

Nichts zeigt das Dilemma deutlicher als die Tatsache, dass ATI-Fans wie Du sich jetzt schon über einige wenige Wochen "Leadership" durch einen CF Karte so sehr freuen müssen.

laser114
2008-01-22, 18:30:22
ATI-Fans werden sich noch länger über Crossfire-Leadership freuen müssen, ich sehe nämlich R700 in der selben Position - kommt etwas eher, bringt aber eben nur "Crossfire".

Aber immerhin ist das ein Weg zum ersten Multi-GPU-Modell. R800 ist dann vielleicht doch was anderes. ;)

PS: Crysis könnte sich durch den offiziellen Launchtreiber noch ändern (siehe 8.1 Hotfix).

Spasstiger
2008-01-22, 18:30:22
Für die Besitzer eines 30" TFTs mit 2560x1600 die Grafiklösung Nr. 1. Alles andere ist bezüglich Energieeffizienz, Platzbedarf und Preis-Leistung für derart hohe Auflösungen (möglichst noch mit AA) klar im Nachteil.

35007
2008-01-22, 18:33:49
Reife Leistung Nvidia! Wieso? Weil sie trotz ihrem Alters noch sehr gut mitrennt.

Guter Schachzug ATi. Ihr habt die Leistungsspitze relativ einfach und effektiv erreicht. Knapp 30w mehr Leistungsaufnahme bei mehr Power. Was mich jetzt stört sind die Nachteile, die mit der Crossfire Technologie einhergehen. Jetzt ist der Joker verspielt und die Karten werden mit den neuen Generationen neu gemischt. Wer diesmal als Sieger hervorgeht, bleibt abzuwarten.

Man muss auch immer betrachten, welches Segment von welchem IHV wie bedient wird. Der Budget - Sektor wird von AMD geführt, wohingegen das Highend Feld mit Nvidia an der Spitze besetzt war. Wer wie wann und wo auf welche Karte zurückgreift, bleibt eigenes Ermessen.

Mit dem gleichen Chip einfach mal so vom Midrange in den Highendsektor aufzusteigen ist ohne die Seele zu verkaufen unmöglich. Aus diesem Grund sehe ich die 3870 x2, genau wie jede andere Dualkarte, als Notlösung, die jedoch relativ effektiv sein kann.

Danke für die Aufmerksamkeit.
35007

laser114
2008-01-22, 18:39:06
Wichtig ist für AMD doch erstmal nur der Ruf die High-End-Karte zu haben, zum Verkauf der restlichen 3000-Serie. ;)

Nakai
2008-01-22, 18:39:08
Reife Leistung Nvidia! Wieso? Weil sie trotz ihrem Alters noch sehr gut mitrennt.

Guter Schachzug ATi. Ihr habt die Leistungsspitze relativ einfach und effektiv erreicht. Knapp 30w mehr Leistungsaufnahme bei mehr Power. Was mich jetzt stört sind die Nachteile, die mit der Crossfire Technologie einhergehen. Jetzt ist der Joker verspielt und die Karten werden mit den neuen Generationen neu gemischt. Wer diesmal als Sieger hervorgeht, bleibt abzuwarten.

Man muss auch immer betrachten, welches Segment von welchem IHV wie bedient wird. Der Budget - Sektor wird von AMD geführt, wohingegen das Highend Feld mit Nvidia an der Spitze besetzt war. Wer wie wann und wo auf welche Karte zurückgreift, bleibt eigenes Ermessen.

Mit dem gleichen Chip einfach mal so vom Midrange in den Highendsektor aufzusteigen ist ohne die Seele zu verkaufen unmöglich. Aus diesem Grund sehe ich die 3870 x2, genau wie jede andere Dualkarte, als Notlösung, die jedoch relativ effektiv sein kann.

Danke für die Aufmerksamkeit.
35007

Joa, dem kann ich zustimmen.

ATI konnte das Desaster, welches NV beim R300 erlitten hat, nochmal ausweichen.
Mal schaun, wie es weitergeht. Wenn der RV770 mehr als 50% schneller ist als RV670, dann wird man es wieder knapp ins Highendprogramm schaffen.


mfg Nakai

Eggcake
2008-01-22, 18:40:53
Hiess mal irgendwo was von 400€ für die X2 - find ich dann schon auch nen beträchtlicher Pluspunkt.

Viel mehr konnte man leistungstechnisch nun wirklich nicht erwarten - doch wenn sich der Preis hält, wird man ne X2, welche schneller als eine Ultra ist, für den Preis einer GTX bekommen.

35007
2008-01-22, 18:41:30
Alles andere ist bezüglich Energieeffizienz, Platzbedarf und Preis-Leistung für derart hohe Auflösungen (möglichst noch mit AA) klar im Nachteil.

Da hast du Recht. Jedoch reicht auch eine Midrange Karte im 140-200€ Bereich, um die Standardauflösungen von 1280 / 1680 mit Qualitätssettings in den meisten Games gut darzustellen. Genau dieser Umstand lässt solch eine Karte erst für 1920 aufwärts nötig erscheinen.

[gesprochen wird von dem aktuellen Leistungsbedarf der Games]

35007

Sonyfreak
2008-01-22, 18:42:12
Also wo ATI da jetzt der große Sprung gelungen ist, erschließt sich mir nicht ganz. Sie schaffen es mit 2 Grafikkernen, eine 1,5 Jahre alten Chip abzuhängen. Die Karte ist ja an sich nicht schlecht, aber wirklich erstaunlich auch nicht wirklich. :smile:

mfg.

Sonyfreak

35007
2008-01-22, 18:44:41
ATI konnte das Desaster, welches NV beim R300 erlitten hat, nochmal ausweichen.


Ich fand es mehr als erstaunlich, dass ATI so schnell mit dem RV670 reagiert hat. Einen Shrink mit Redesign ist doch nicht so ohne weiteres machbar. @Insider: War der RV670 bereits beim Relase der 600er einkalkuliert?

35007

K4mPFwUr$t
2008-01-22, 18:47:55
ATI hat keine leistungskrone.

damals: X1800 vs 7800/7900GX2
heute: 3870X2 vs 8800GTX/Ultra

beide vergleiche sind sinnfrei, das fängt damit an das multi gegen single gpu antritt.
und endet darin das man ein gutes profil braucht.

Spasstiger
2008-01-22, 18:51:02
Wo sind eigentlich die Crossfire-X-Tests mit vier GPUs? Wenn ATI jetzt schon ins High End prescht, sollte man auch diese Lösung für Tests bereitstellen. Nvidia hat mit Triple-SLI schließlich bereits vorgelegt.

35007
2008-01-22, 18:54:47
Wenn ATI jetzt schon ins High End prescht, sollte man auch diese Lösung für Tests bereitstellen.

Dies ist das erste Review der X2 Karte. Ich denke, da wird noch das ein oder andere Review nachgeschoben, welches mit einem CFX Setup bencht.

35007

Spasstiger
2008-01-22, 18:57:09
Dies ist das erste Review der X2 Karte. Ich denke, da wird noch das ein oder andere Review nachgeschoben, welches mit einem CFX Setup bencht.

35007
Ich hab halt leider auch keine Ankündigungen in der Richtung gehört, deshalb frage ich mich, ob Crossfire X jetzt endlich Realität wird oder ob es nur graue Theorie bleibt.

laser114
2008-01-22, 19:03:30
Ich hab halt leider auch keine Ankündigungen in der Richtung gehört, deshalb frage ich mich, ob Crossfire X jetzt endlich Realität wird oder ob es nur graue Theorie bleibt.

Mehr Wissen wir wohl erst zum offiziellen Launch. Das Preview lässt morgen vermuten, andererseits gibts anderslautende Quellen die vom 28.01 sprechen.

Gast
2008-01-22, 19:12:07
ATI hat keine leistungskrone.

damals: X1800 vs 7800/7900GX2
heute: 3870X2 vs 8800GTX/Ultra

beide vergleiche sind sinnfrei, das fängt damit an das multi gegen single gpu antritt.
und endet darin das man ein gutes profil braucht.
Na und jetzt gibt es auch z.b. DC/Quad CPU s die sind auch deutlich schneller als SC :rolleyes:

Oder wollen wir jetzt sagen AMD hat die schnellsten CPUs da der SC A64 immernoch der schnellste SC ist??

reunion
2008-01-22, 19:18:03
Ich hab halt leider auch keine Ankündigungen in der Richtung gehört, deshalb frage ich mich, ob Crossfire X jetzt endlich Realität wird oder ob es nur graue Theorie bleibt.

Nein, kommt erst im März.

K4mPFwUr$t
2008-01-22, 19:18:22
lieber gast, der vergleich hinkt. zumal ein AMD SC nicht wirklich schneller ist als ein intel SC ;)
weil dann müsste ja auch ein AMD DC schneller sein als ein intel DC ;)

das problem ist einfach, das die effizenz von software multi-gpu nicht gerade das gelbe vom ei ist.
eine dualkarte bringt dir für ein spiel ohne oder schlechten profil garnichts. dagegen kann die single-gpu karte immer ihre ressourcen ausnutzen.

Omega2
2008-01-22, 19:24:05
Mir ist vollkommen egal, auf welchem Wege ein Hersteller eine leistungsfähige Graka baut. Ob 1 oder 2 oder mehr GPUs dafür benötigt werden ist doch eigentlich unwichtig.

Allerdings sind ein paar andere Punkte imho sehr bedeutend:

1. Leistungsaufnahme. Da hat ATI die Nase vorn
2. Preis. auch da ist ATI gut aufgestellt
3. Kompatibilität / Effizienz. Da habe ich meine Zweifel. Crossfire verlangt, wie SLI, speziell angepaßte Treiber bzw. Unterstützung durch das Spiel. Sobald ein Spiel läuft, welches kein CF/SLI unterstützt, ist Schluß mit lustig. Da muß man auf einmal mit 50% der möglichen Performance leben.

Genau im letzten Punkt ist imho die grßte Schwäche bei ATIs Lösung zu suchen. Sobald man abseits der Mainstream-Spiele Wege unterwegs ist, muß man unter Umständen sehr starke Performanceeinbußen hinnehmen.

Insofern ist die ATI Lösung sicher eine gute, um Marktanteile zurückzugewinnen, da viele Kunden den Punkt 3 entweder nicht sehen wollen oder, brauchen da sie Mainstream-Spiele zocken. Ich persönlich aber bin weg von Dualchip Lösungen, weitdem ich sehen mußte, wie schlecht meine GX2 in einigen Spielen, wie z.B. Crysis lief.
Da mag ich lieber auf den einen oder anderen Prozentpunkt verzichten, aber wähle eine single GPU Karte, die immer volle Leistung bringt.
Als Übergangslösung bis zum Erscheinen eines wirklich performanten Chips, ist die ATI Lösung für AMD aber sicherlich die beste aller verfügbaren :).

Gruß

Omega

Razor
2008-01-22, 19:27:40
Das kann dir keiner verbitten;)
Es endet nix dran dass :ATI die LEISTUNGSKRONE HAT!!!!
Nein, haben sie nicht.
Erst einmal dürfte sogar ein 88GT-SLI des Dingelchen noch schlagen und dann kommt Anfang Februar die X2 auf G92-Basis.
Asche ists mit der "Krone"...

Razor

Eggcake
2008-01-22, 19:30:35
Nein, haben sie nicht.
Erst einmal dürfte sogar ein 88GT-SLI des Dingelchen noch schlagen und dann kommt Anfang Februar die X2 auf G92-Basis.
Asche ists mit der "Krone"...

Razor


Ich glaube keiner Spricht von einem SLI-Gespann, da steht ja ausser Frage, dass nVidia da die Nase vorn hat (Ultra im SLI dürfte wohl ein "bisschen" schneller sein).
Sollte selbstverständlich sein, dass man Einzelkarten als Vergleich nimmt - egal ob mit einem oder zwei Chips. Und dort hat ATI nunmal nun die Nase vorn.

Die_Allianz
2008-01-22, 19:30:49
ach bitte!
das teil ist absolut lächerlich! ein armseliger versuch, unwissenden geld aus der tasche zu ziehen!
Die 'karte' ist was für schwanzmarkwerte und signaturen, im alltag zickig und unbrauchbar wie eben alle multi-gpu-lösungen!
Und ATi hat keine Leistungskrone: Stellt doch mal 2 Ultra im SLI dagegen, dann bleibt nix übrig.

BTW:
Wie alt ist die Ultra inzwischen?

Gast
2008-01-22, 19:32:56
Nein, haben sie nicht.
Erst einmal dürfte sogar ein 88GT-SLI des Dingelchen noch schlagen....
Asche ists mit der "Krone"...

Razor
Ja und ein ULTRA-SLI für über 1,1K auch......oh man ein FB :rolleyes:

Exxtreme
2008-01-22, 19:33:17
Monster > Zwillinge.

CF/SLI sind IMHO schrott und reines Marketing. Bin eh' gespannt warum da soviele Resourcen verbraten werden.

mike49
2008-01-22, 19:35:43
Mir ist vollkommen egal, auf welchem Wege ein Hersteller eine leistungsfähige Graka baut. Ob 1 oder 2 oder mehr GPUs dafür benötigt werden ist doch eigentlich unwichtig.

Ist es leider nicht -> Stichwort: Frametimes / Microruckler

Eggcake
2008-01-22, 19:36:10
Ja und ein ULTRA-SLI für über 1,1K auch......oh man ein FB :rolleyes:


Nunja, sein Vergleich an sich ist schon angebracht, zumal 2 GT in etwa dem Preis einer X2 nahe kommen - jedoch sprach niemand von 2 Karten, sondern von einer :)

LordDeath
2008-01-22, 19:38:36
Bei vier GPUs ist ja AFR unter Direct3D 9 problematisch, weil ja nicht mehr als 3 Bilder im voraus berechnet werden dürfen. Wäre es nicht sinnvoll, bei solchen Fällen eine GPU zu deaktiveren um nur AFR nutzen zu können?
Die Frage ist also, was bessere wäre: 4 GPUs mit SFR(oder was es sonst noch gibt) oder 3 GPUs mit AFR?

Und wie sieht es mit der Machbarkeit aus? Könnte ein Treiber alleine das schon regeln?

Razor
2008-01-22, 19:38:49
Ich glaube keiner Spricht von einem SLI-Gespann, da steht ja ausser Frage, dass nVidia da die Nase vorn hat (Ultra im SLI dürfte wohl ein "bisschen" schneller sein).
Sollte selbstverständlich sein, dass man Einzelkarten als Vergleich nimmt - egal ob mit einem oder zwei Chips. Und dort hat ATI nunmal nun die Nase vorn.
Was ist denn eine "X2" bitte anderes, als ein SLI-Gespann?
Auch wenn Du auf solche Äpfel/Birnen-Vergleiche stehst (nichts anderes ist Single vs. Dual), dann warte noch 2 Wochen und schwupps...
...gibbt dat Teil auch von nVidia.

Aber gönnen wir AMD die vermeintliche 'Krone' für die zwei niedlichen Wöchelchen.

Wenn es auch rein gar keinen Einfluß auf die Marktsituation haben wird...
(was ich zugegen sehr schade finde)

Razor

Omega2
2008-01-22, 19:41:42
Ist es leider nicht -> Stichwort: Frametimes / Microruckler

Mike, das ganze Posting lesen (siehe Punkt 3 Effizienz)

Eggcake
2008-01-22, 19:42:15
Was ist denn eine "X2" bitte anderes, als ein SLI-Gespann?

Es ist eine Karte.

MarcWessels
2008-01-22, 19:43:26
Das kann dir keiner verbitten;)

Es endet nix dran dass :ATI die LEISTUNGSKRONE HAT!!!!Dei THEORETISCHE Leistungskrone!

Was habe ich von angezeigten Frames, die mir ruckelfreies Spielvergnügen versprechen, aber in der Praxis dieses Versprechen nicht einhalten können?

Der_Korken
2008-01-22, 19:45:04
Ich finde die Karte gut. Einziges Manko an der Karte finde ich den GDDR3-Speicher. Ich hätte damit gerechnet, dass man wie bei der 3870 auch auf schnelleren GDDR4 setzt. Gerade bei AA-Settings (und genau dafür ist die Karte da) hätte das nochmal einen ordentlichen Schub gebracht.

Die 8800GTS X2 wird imo nicht so der große Überflieger, da ja pro Chip nur 512MB verbaut wurden und man bereits bei einer Single-Karte sieht, dass die Karte unter hohen Settings einbricht. Daran würde der zweite Chip dann auch nicht viel ändern.

Gast
2008-01-22, 19:54:56
Also 8800GT SLI Benches sagen da etwas anderes. Klar bricht sie ein, aber gegen Single Karten kann sie sich immer absetzen. Brachiale Power hilft, wenn auch nicht viel (und das passende Profil, wenn man es SELBST definieren kann).

Omega2
2008-01-22, 19:55:05
...............

Die 8800GTS X2 wird imo nicht so der große Überflieger, da ja pro Chip nur 512MB verbaut wurden und man bereits bei einer Single-Karte sieht, dass die Karte unter hohen Settings einbricht. Daran würde der zweite Chip dann auch nicht viel ändern.

Wie bitte? Jede GPU rechnet im SLI z.B. entweder einen eigenen Frame oder abwechselnd eine Zeile. Wenn jede GPU z.B. dank Bandbreitenlimitierung auf z.B. 15 Frames/s einbricht, sind das im Idealfall 30 Frames/s. Dabei sind Einbußen durch Treiber natürlich nicht berücksichtigt, aber selbst wenn nur 60% der Mehrleistung ankommen ist die Performancesteigerung trotzdem deutlich. 2*Langsam ist immer noch doppelt so schnell ;)

Gruß

Omega

Razor
2008-01-22, 19:55:14
Es ist eine Karte.
Es sind 2, die man zusammen 'geklebt' hat.
Schau' Dir die Bildchen des Reviews einfach nochmal genau an...

http://img3.pconline.com.cn/pconline/0801/20/1210234_080120_R680_HD3870X2_9970_thumb.jpg (http://www.pconline.com.cn/images/html/viewpic_pconline.htm?http://img3.pconline.com.cn/pconline/0801/20/1210234_080120_R680_HD3870X2_9970.jpg&namecode=diy&subnamecode=home)
(zwei komplette Karten zusammen 'geklebt' ;-)

Die 8800GTS X2 wird...
Des Teil wird sich wohl 9800GX2 nennen...
Keine Ahnung, was nVidia hier geritten hat.
:rolleyes:

Razor

4711
2008-01-22, 19:57:39
ach so wuste garnicht das die ATI mehr als 512 pro chip verbaut....soviel dazu...
stecken wir noch ne ultra dazu das es wieder ausgeglichen ist...2:2 und bensche den Krams nochmal...... :D
der Ultra Balken würde recht über den Rand fallen...ich weiß garnicht was diese dummen Vergleiche sollen..CF gegen Single und dann noch im 1-4 FPS Bereich....merkt ihr eigendlich noch was?
Mir sagt es nur eins die Karte ist ne Gurke..und die NV GX² wird das Ding füchterlich verbrügeln...und das ist wieder Mißt..denn jetzt können wir wieder noch länger auf eine anständige HighEnd Karte warten.

Omega2
2008-01-22, 20:02:08
ach so wuste garnicht das die ATI mehr als 512 pro chip verbaut....soviel dazu...
stecken wir noch ne ultra dazu das es wieder ausgeglichen ist...2:2 und bensche den Krams nochmal...... :D
der Ultra Balken würde recht über den Rand fallen...ich weiß garnicht was diese dummen Vergleiche sollen..CF gegen Single und dann noch im 1-4 FPS Bereich....merkt ihr eigendlich noch was?
Mir sagt es nur eins die Karte ist ne Gurke..und die NV GX² wird das Ding füchterlich verbrügeln...und das ist wieder Mißt..denn jetzt können wir wieder noch länger auf eine anständige HighEnd Karte warten.

Na der Vergleich ist schon gerechtfertigt, da man die X2 zum Preis eine Ultra bekommt. 2 Ultra Karten wären dann wohl finanzieller Overkill :).

Gruß

Omega

BlackArchon
2008-01-22, 20:02:50
Erinnert sich noch jemand an die Radeon HD 2600 X2? Die groß angekündigte 8600 GTS-Killerkarte? Nein? Niemand? Na das ist ja komisch... man braucht keine nennenswerten prophetischen Gaben zu besitzen um zu erkennen, dass dieser 3870 X2 das gleiche Schicksal droht.

4711
2008-01-22, 20:04:17
Es ist eine Karte.

genau so "eine" Karte wie die Ati manman..
Das ist CF und SLI so nennt man das glaube,genau so unnötig wie jeweil 2 einzelne nur wärmer wirds halt noch... ;D wenn ich da an mein altes Kärtchen denke.und grooooß ähm lang war das Ding.Power ohne Ende zu der Zeit...und schöööön warm.

4711
2008-01-22, 20:07:10
Na der Vergleich ist schon gerechtfertigt, da man die X2 zum Preis eine Ultra bekommt. 2 Ultra Karten wären dann wohl finanzieller Overkill :).

Gruß

Omega

So ein Quatsch!
Hier geht um Punkte im Schwanzmark die man in Games eh nicht sieht..
2.wird sich keiner noch ne Ultra kaufen um die Gurke auch auf dem Papier zuschlagen..da reichen schon 2 GTs locker aus.

Eggcake
2008-01-22, 20:11:57
Es sind 2, die man zusammen 'geklebt' hat.
Schau' Dir die Bildchen des Reviews einfach nochmal genau an...

http://img3.pconline.com.cn/pconline/0801/20/1210234_080120_R680_HD3870X2_9970_thumb.jpg (http://www.pconline.com.cn/images/html/viewpic_pconline.htm?http://img3.pconline.com.cn/pconline/0801/20/1210234_080120_R680_HD3870X2_9970.jpg&namecode=diy&subnamecode=home)
(zwei komplette Karten zusammen 'geklebt' ;-)


Jo stimmt. Habens einfach zusammengeklebt.

Was nix daran ändert, dass es eine ist :rolleyes:

4711
2008-01-22, 20:16:20
genau billiges SLI gegen billiges CF ;D was aber nix daran ändert das es ZWEI Chip SIND.

Gast
2008-01-22, 20:17:03
Erinnert sich noch jemand an die Radeon HD 2600 X2? Die groß angekündigte 8600 GTS-Killerkarte? Nein? Niemand? Na das ist ja komisch... man braucht keine nennenswerten prophetischen Gaben zu besitzen um zu erkennen, dass dieser 3870 X2 das gleiche Schicksal droht.
Nee das sehe ich nicht so den eine karte die eine 8600GTS schlägt interessiert keinen, da sie eh Crap ist (die 86er GTS) aber hier geht es um die Leistungakrone die (auch wenn einige gleich wieder austicken) übernommen wurde.

Omega2
2008-01-22, 20:17:36
So ein Quatsch!

Diskussionkultur scheint ein Fremdwort für Dich zu sein. Was ich an Leuten wie Dir nicht mag ist der Anspruch, selber den richtigen Standpunkt zu vertreten und andere von oben herab zu behandeln. Niemand zwingt Dich meine Meinung zu teilen, aber benehmen kannst Du Dich bitte trotzdem.


Hier geht um Punkte im Schwanzmark die man in Games eh nicht sieht..
2.wird sich keiner noch ne Ultra kaufen um die Gurke auch auf dem Papier zuschlagen..da reichen schon 2 GTs locker aus.

Die X2 zeigt im oben verlinkten Test durchaus einiges an (Mehr)Performance, je nach Spiel, nicht nur im 3DMark und es wird genügend Menschen geben, die sich das Ding kaufen und zwar jetzt und nicht erst, wenn eine 9800GX2 draußen ist. 2 GTs brauchen ein NV-SLI Mobo und diese Lösung ist deutlich teurer als eine X2. Ich persönlich würde im Übrigen keine X2 kaufen, da die Nachteile imho überwiegen, aber das kannst Du weiter oben nachlesen :)

Gruß

Omega

Nakai
2008-01-22, 20:19:51
Erinnert sich noch jemand an die Radeon HD 2600 X2? Die groß angekündigte 8600 GTS-Killerkarte? Nein? Niemand? Na das ist ja komisch... man braucht keine nennenswerten prophetischen Gaben zu besitzen um zu erkennen, dass dieser 3870 X2 das gleiche Schicksal droht.

Das Problem ist, dass die HD3870X2 mehr Zuspruch von den Herstellern bekommt...


mfg Nakai

MadManniMan
2008-01-22, 20:20:41
Ich finde die Karte gut. Einziges Manko an der Karte finde ich den GDDR3-Speicher. Ich hätte damit gerechnet, dass man wie bei der 3870 auch auf schnelleren GDDR4 setzt. Gerade bei AA-Settings (und genau dafür ist die Karte da) hätte das nochmal einen ordentlichen Schub gebracht.

Und was sagst Du zur Problematik der - man kann es gar nicht oft genug wiederholen, scheints - Mikroruckler?

Eggcake
2008-01-22, 20:22:21
genau billiges SLI gegen billiges CF ;D was aber nix daran ändert das es ZWEI Chip SIND.


Ich weiss nicht, was soooo extrem schwer zu verstehen ist. Jemand sagte ATI hat die Krone wieder (bzgl. den Einzelkarten) und das ist nunmal Fakt, egal ob da 1, 2 oder 10 Chips drauf sind.

Ob das nun gut ist, schlecht durch die Mikroruckler ist, theoretisch 2 Karten sind, ATI sowieso kacke ist und deshalb nicht besser sein kann, hat absolut nix damit zu tun und muss separat bewertet werden (vor allem natürlich der letzte Punkt).


Edit: Und ich weiss nicht warum man bei jedem Post noch Mikroruckler erwähnen muss, ich denke das ist nun allgemein bekannt und es muss nicht jeder Post, der sich auf CF/SLI/Dual-Karten bezieht mit "wenn die Mikroruckler nicht wären" enden ... :)

Nakai
2008-01-22, 20:23:34
Hatte 3dfx auch das Problem mit den Microrucklern?


mfg Nakai

Gast
2008-01-22, 20:25:33
Yeah, NV hat einmal das nachsehen und dann wird hier gleiche so ein Aufstand gemacht. Bei der NV 7900GX2 ging es genau umgekerrt, da war das Ati-Gegenstück für Viele trotzdem ne Gurke.

Spasstiger
2008-01-22, 20:27:26
Also 8800GT SLI Benches sagen da etwas anderes. Klar bricht sie ein, aber gegen Single Karten kann sie sich immer absetzen. Brachiale Power hilft, wenn auch nicht viel (und das passende Profil, wenn man es SELBST definieren kann).
Er meinte, dass sich nix daran ändert, dass auch zwei 8800 GT bei hohen Auflösungen + AA stark einbrechen. Dass SLI relativ gesehen natürlich immer noch viel bringt, hat er nicht bestritten.

Wen der Vergleich HD3870 X2 gegen 9800 GX2 interessiert, kann ja schonmal hier rein schauen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/
Wie man sieht, platzieren sich die zwei HD3870 bei sehr hohen Auflösungen mit 8xAA teils deutlich vor den zwei 8800 GTs im SLI. Und dabei bewegt sich HD3870 CF sogar teilweise noch bei rund 40 fps und mehr, wo zwei 8800 GT auf deutlich unter 20 fps einbrechen, siehe z.B. Anno 1701, Company of Heroes, Oblivion und Gothic 3. Call of Juarez DX10 zeigt sogar mehr als einen Faktor 3 zugunsten HD3870 CF, wenn eine wirklich hohe Auflösung mit AA gefordert wird. In Prey können sich die zwei 3870er ebenfalls deutlich absetzen.

Wer also einen 30" Monitor besitzt oder drei Monitore über Matrox TripleHead 2 Go verwendet, findet in der HD3870 X2 wohl die bessere Grafiklösung als in der GF9800 GX2.
Die optimale Lösung gibts für solche Anwendungen aber freilich noch nicht, denn SLI und Crossfire sind leider nie optimal (Mikroruckler, Profile, Energiebedarf und Abwärme). Und die gegenwärtigen Single-Chip-High-End-Karten liefern leider nicht genug Power für aktuelle Games in 2560x1600 oder 3840x1024 mit 4xAA bis 8xAA (+ adaptives AA bzw. Transparenz AA).

Omega2
2008-01-22, 20:28:45
Und was sagst Du zur Problematik der - man kann es gar nicht oft genug wiederholen, scheints - Mikroruckler?

Gibt es bei der X2 schon einen Test, der dieses Phänomen bestätigt? Bei meiner GX/2 habe ich die nie wahrgenommen, was nichts heißen mag ;).

Gruß

Omega

Adam D.
2008-01-22, 20:29:14
Keine schlechte Karte und für einen Preis für <400€ ein guter Kauf - für einen experimentierfreudigen User. Die Performance-Krone ist mir da eigentlich relativ egal, weil der Unterschied nicht groß sein wird und Nvidia die 9800X2 hinterher schiebt, die eh wieder schneller ist ... Aber trotzdem die schlechtere Karte werden wird, davon bin ich überzeugt.

MadManniMan
2008-01-22, 20:29:19
Hatte 3dfx auch das Problem mit den Microrucklern?


mfg Nakai

Nein, da alle Chips am selben Bild (SFR-Verfahren - genauer: je Chip immer eine Zeile) rechneten. Mikroruckler treten nur bei AFR-Verfahren auf.

Nakai
2008-01-22, 20:31:37
Nein, da alle Chips am selben Bild (SFR-Verfahren - genauer: je Chip immer eine Zeile) rechneten. Mikroruckler treten nur bei AFR-Verfahren auf.

Okay danke für den Hinweis. Wieso verwendet man dann nicht SFR?


mfg Nakai

Gast
2008-01-22, 20:34:48
Schon komisch wie das nvidia lager am heulen ist "Mimimi, das sind aber zwei GPUs,mimimi!!" Damals beim 7950GX2 wurde auch gegen single cards von ATi gebencht, aber wehe dem der auch nur versucht hat die karte in frage zustellen!! :rolleyes:

nomadhunter
2008-01-22, 20:35:26
Okay danke für den Hinweis. Wieso verwendet man dann nicht SFR?
Weil es mit 95% der aktuellen Spiele nicht gescheit funktioniert.

K4mPFwUr$t
2008-01-22, 20:36:03
weil SFR bei heutigen games mit SLI/CF nur noch rumzickte bzw. eher langsamer war als eine singlekarte.

vieleicht liegt es einfach an software vs hardware. 3dfx hatte das ganze per hardware gelöst und ATI und nV nun durch softwarelösungen. bei AFR ist das problem einfach die synchronisation.
es bleibt einfach immer eine kleine pause zwischen frame1 und frame2. und dadurch die mikroruckler, was auch tomb ausführlich beschrieben hatte.

MadManniMan
2008-01-22, 20:37:22
Okay danke für den Hinweis. Wieso verwendet man dann nicht SFR?


mfg Nakai

Kann man, aber das bringt nen weitaus geringeren Performance-Vorteil gegenüber einer einzelnen Karte ... äh, einem einzelnen Chip. Einfach jede zweite Zeile vom zweiten Chip rendern zu lassen brächte heute verglichen mit der relativen Simplizität der Voodoo-Zeiten einen um Größenordnungen geringeren Bonus.

Gast
2008-01-22, 20:38:28
Warum machen sie es dann nicht 3DFX gleich und erschaffen eine Hardwarelösung?

K4mPFwUr$t
2008-01-22, 20:40:57
das frag ich mich erlich gesagt auch, aber wenn die specs um den R700 stimmen muss bald seitens ATI eine hardwarelösung kommen.
aber wird wohl an den recht geringen anteil von multi-gpu systemen liegen.

Gast
2008-01-22, 20:43:41
Yeah, NV hat einmal das nachsehen und dann wird hier gleiche so ein Aufstand gemacht. Bei der NV 7900GX2 ging es genau umgekerrt, da war das Ati-Gegenstück für Viele trotzdem ne Gurke.


Das stimmt ja garnicht....da ist ne CF Karte minimal auf dem Papier schneller und schon isses der Überflieger....oder hat sie schon einer verbaut und Crysis gespielt?
Nen bohai machen ganz andere siehe den Titel dieses vollkommen überflüssigem Threads

4711

nomadhunter
2008-01-22, 20:46:30
Warum machen sie es dann nicht 3DFX gleich und erschaffen eine Hardwarelösung?
Ich denk nicht, dass es eine Frage von Hardware- und Softwarelösung ist. 3dfx-SLI war deswegen so gut, weil die Spiele damals noch extrem einfach waren und eben sowas wie SFR noch toll funktioniert hat. Heutzutage hätte 3dfx vermutlich mindestens genau so viele Probleme wie SLI/CF.

Erfolgsversprechend ist IMHO nur das, was AMD für 2009 oder so plant (ehemals R700, jetzt wahrscheinlich eher R800). Eine Multi-Die-Lösung, die sich aber durch entsprechend schnelle Interconnects und geteilten Speicher eher wie eine einzelne GPU verhält und damit den ganzen Problemen von SLI/CF aus dem Weg geht.

Spasstiger
2008-01-22, 20:51:24
Das stimmt ja garnicht....da ist ne CF Karte minimal auf dem Papier schneller und schon isses der Überflieger....oder hat sie schon einer verbaut und Crysis gespielt?
Die 7950 GX2 war auch nur 20-30% schneller als eine X1950 XTX und wenns sehr shaderlastig wurde, sogar langsamer als diese (trotz guter SLI-Effizienz). Was ist der Grund, dass man die HD3870 X2 schlechter reden muss als die 7950 GX2?

Die nach außen hin transparente Multi-GPU-Lösung von ATI oder NVidia vermisse ich allerdings auch noch. Warum soll sich der User mit irgendwelchen Profilen herumschlagen, warum muss der User überhaupt wissen, wieviele Grafikchips mitrendern? Kann man da nicht dedizierte Logik einsetzen, um die Renderaufgaben auf den GPUs sinnvoll zu verteilen?

K4mPFwUr$t
2008-01-22, 20:53:02
von beiden halte ich nicht viel und da scheine ich auch nicht ganz allein zu sein :)

@nomadhunter
trozdem muss noch eine fetcheinheit den einzelnen DIEs die instruktionen zuweisen. eine gute lastverteilung ist ein teil einer guten effizenz.

MadManniMan
2008-01-22, 20:54:35
Die 7950 GX2 war auch nur 20-30% schneller als eine X1950 XTX und wenns sehr shaderlastig wurde, sogar langsamer als diese (trotz guter SLI-Effizienz). Was ist der Grund, dass man die HD3870 X2 schlechter reden muss als die 7950 GX2?

Man müsste eigentlich die 7900/7950 GX2 im Nachhinen schlechter reden, da das Mikrorucklerproblem nicht publik war.

pest
2008-01-22, 20:59:07
Ich finde die Karte sehr heiß :tongue:
liegt wohl aber eher daran das mir ne einzelne 3870 zu wenig ist
dedizierte CF-Profilanpassung wäre echt eine Lösung
na wer weiß was passiert wenn ich so ein Ding hab :wink:

Gast
2008-01-22, 21:00:33
Man müsste eigentlich die 7900/7950 GX2 im Nachhinen schlechter reden, da das Mikrorucklerproblem nicht publik war.
Ich denke die User hatten viel Fun mit der Karte damals (was man nicht weiß macht einen nicht heiß....^^)


Ich hatte die selber nicht ;-)

Spasstiger
2008-01-22, 21:01:52
dedizierte CF-Profilanpassung wäre echt eine Lösung
Was wir hier fordern geht darüber hinaus. Eine dedizierte Logik, die auf Treiberebene wie eine Single-Chip-Lösung erscheint und ankommende Renderaufgaben selbstständig auf alle GPUs verteilt. Diese Logik müsste dann auch die endgültige Bildausgabe übernehmen.

K4mPFwUr$t
2008-01-22, 21:02:41
@pest
afaik wollte ATI bzw. AMD bald die eigene erstellung von CF-profilen ermöglichen.
frag mich jetzt aber nicht ob das fakt oder gerücht war, oder wann das ganze kommen sollte :D

@gast
das allgemeine problem beim G7x lag darin das er im anfanglichen verlauf noch vor ATI lag, allerdings auch durch treiberschummellein (macht aber jeder) und wenn man mit den heutigen treibern vergleicht ATI ein gutes stück vorne liegt.

pest
2008-01-22, 21:07:54
Was wir hier fordern geht darüber hinaus. Eine dedizierte Logik, die auf Treiberebene wie eine Single-Chip-Lösung erscheint und ankommende Renderaufgaben selbstständig auf alle GPUs verteilt. Diese Logik müsste dann auch die endgültige Bildausgabe übernehmen.

Das dauert noch ein paar Jahre, zumindest so lange bis wir mehr als 2 GPUs auf einer Platine sehen

@pest
afaik wollte ATI bzw. AMD bald die eigene erstellung von CF-profilen ermöglichen.
frag mich jetzt aber nicht ob das fakt oder gerücht war, oder wann das ganze kommen sollte :D


ich weiß davon nix, aber ich weiß davon eh nicht viel ;)
ich weiß nur, das ich das Microruckler Problem auch mal live und in Farbe erleben will

Spasstiger
2008-01-22, 21:09:43
ich weiß nur, das ich das Microruckler Problem auch mal live und in Farbe erleben will
Spiel mit VSync + Triplebuffering und bei Frameraten, die unter der Wiederholfrequenz des Monitors liegen. Das kommt den AFR-Mikrorucklern wohl recht nahe.

K4mPFwUr$t
2008-01-22, 21:16:03
die aussage kann ich nur bestätigen, bei den settings unterhalb der monitor hz fühlt es sich einfach komisch an :|

Gast
2008-01-22, 21:35:04
Ich denke die User hatten viel Fun mit der Karte damals (was man nicht weiß macht einen nicht heiß....^^)


Ich hatte die selber nicht ;-)
Hatte es damals schon mit der GX2 gemerkt, dass was nicht stimmte. Kam aber nicht auf die Idee die frametimes zu messen bzw. wusste gar ned wie das geht. Zudem hatte die Karte bei den meisten Games ordentlich Power, man war sehr oft über 60 fps, wo die Mikroruckler so gut wie nicht sichtbar sind.
Hatte die Karte verkauft nachdem ich Call of Juarez und Carbon gespielt hatte, die beide unter aller Sau mit dieser Karte liefen. Beschissene fps und dazu üble unregelmäßige Bildausgabe.
Wer SLi noch nicht hatte, war von der Karte erstmal geflashed, das ist klar. Zudem konnte man schön mit nhancer an den Profilen rumspielen, das war aus experimenteller Sicht schon reizvoll. Aber ich habe davon die Schnautze voll. Ich gebe doch nicht viel Geld aus, um den framcounter zu pushen, wenn ich es letztendlich doch nicht smooth spielen kann. Trotzdem kann ich die Leute nicht verstehen, die sich solche Karten zulegen wollen. Der spielerische Nutzen tendiert gegen null und bei CF kommt noch die Profilproblematik hinzu. So eine Karte lohnt sich nur zum Benchen oder als Schmuckstück für die Vitrine.

Der_Korken
2008-01-22, 22:19:58
Wie bitte? Jede GPU rechnet im SLI z.B. entweder einen eigenen Frame oder abwechselnd eine Zeile. Wenn jede GPU z.B. dank Bandbreitenlimitierung auf z.B. 15 Frames/s einbricht, sind das im Idealfall 30 Frames/s. Dabei sind Einbußen durch Treiber natürlich nicht berücksichtigt, aber selbst wenn nur 60% der Mehrleistung ankommen ist die Performancesteigerung trotzdem deutlich. 2*Langsam ist immer noch doppelt so schnell ;)

Gruß

Omega

Das SLI weiterhin einen Zuwachs bringt, hab ich gar nicht bestritten. Der fällt nur relativ klein aus, weil die beiden Karten irgendwann einfach am zu kleinen VRAM verhungern.


Des Teil wird sich wohl 9800GX2 nennen...
Keine Ahnung, was nVidia hier geritten hat.
:rolleyes:

Razor

Jetzt, wo du es sagst, fällt es mir auch wieder ein. Aber so ganz steige ich bei Nvidias Namenspolitik immer noch nicht durch ...

Und was sagst Du zur Problematik der - man kann es gar nicht oft genug wiederholen, scheints - Mikroruckler?

Noch nichts. Mir ist das Problem durchaus bekannt, aber möglicherweise hat sich bei ATI da treibermäßig was getan. Das wird man dann wohl testen müssen.

Er meinte, dass sich nix daran ändert, dass auch zwei 8800 GT bei hohen Auflösungen + AA stark einbrechen. Dass SLI relativ gesehen natürlich immer noch viel bringt, hat er nicht bestritten.

Wen der Vergleich HD3870 X2 gegen 9800 GX2 interessiert, kann ja schonmal hier rein schauen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/


Danke, den Link wollte ich auch posten.

@Topic: Ich finde die Tatsache, dass da zwei GPUs drunterstecken nicht unbedingt schlimm. Es gilt nur dann zu beachten, wenn hier die besagten Mikroruckler auftreten. Der Launch-Treiber wird zeigen, wie groß das Problem wirklich sein wird.
Ich bin außerdem gespannt, wie ATI das in Zukunft mit mehreren Chips lösen will. Da wird man vor allem nach Alternativen für AFR suchen müssen. Solange der Lag ein Frame beträgt, ist das ganze noch vertretbar, danach wird es unangenehm.

Gast
2008-01-22, 22:39:55
Naja, wie HW aussieht ist mir relativ egal, der logische Aufbau zählt doch! Ob da nun 2 "Karten" auf eine Platine gebaut sind, 2 physische Karten mit langen Schrauben verbunden in den Handel kommt oder meinetwegen eine 2. Karte am langen Kabel im Nebenraum gleichzeitig als Breifbeschwerer (naja, eher als Tauchsieder oder Kaffewärmer ;)) dient, es bleibt dasgleiche. Und von daher würde ich den Vergleich schon als ungerecht bewerten, wie auch den erwähnten Vergleich der nvgx2 mit einer ati. Vor allem, da man sich mit ähnlichen Problemen rumärgern darf wie mit einer "echten" 2Kartenlösung.

Schrotti
2008-01-23, 00:16:41
Schwache Kür von AMD/ATI.

Man braucht zwei Chips um die 8800Ultra zu schlagen.

DrFreaK666
2008-01-23, 01:08:50
Schwache Kür von AMD/ATI.

Man braucht zwei Chips um die 8800Ultra zu schlagen.

Das ist dasselbe wie vor 7 jahren als die Voodoo 5 erschien.
Es kann doch egal sein wie die Leistung erreicht wird.
Die billigste 8800 Ultra kostet ca. 500€!!

Raff
2008-01-23, 01:14:48
Das ist dasselbe wie vor 7 jahren als die Voodoo 5 erschien.
Es kann doch egal sein wie die Leistung erreicht wird.
Die billigste 8800 Ultra kostet ca. 500€!!

Mit dem Unterschied, dass damals die Rechnung "GPU x 2 = Leistung x 2" noch aufging. Jetzt geht nur der Stromverbrauch zuverlässig nach oben.

MfG,
Raff

maximus_hertus
2008-01-23, 01:22:06
Man erhält für rund 10% mehr Stromaufnahme rund 20 - 25% mehr Leistung, dazu ist man rund 20-25% günstiger, so what?

Mir ist es erstmal egal, ob da 1, 2, 4, 8 oder wieviele Chips auch immer verbaut werden. Mich interessiert nur die Leistung zum angemessenen Preis sowie bei möglichst "geringer" Stromaufnahme, wobei dies bei High-End Hardware eh nur relativ zu sehen ist.

Und ob die 8800 Ultra 1 Jahr, 1 Monat oder wie alt auch immer ist, spielt für mich keine Rolle. Wenn ich jetzt eine Karte kaufen möchte, würde die X2 mein Favorit sein, wobei man erstmal die anderen Tests abwarten sollte, ob sich bzgl. der Crossfire Problematik (Non-Mainstream Games, Mikroruckeln etc) was getan hat.


Letzte Sache: An alle Leute, die die X2 mit einem 8800 GT SLI Gespann vergleichen: Völliger Schwachsinn, sehr viele Leute haben einen Non-SLI Chipsatz, ergo ist bei denen gar kein SLI möglich, wohl aber der Einsatz der X2.


So, und nun prügelt auf mich ein :D

Godmode
2008-01-23, 01:26:12
Diese Karte lässt mich sowas von kalt, genau wie die 9800 GX2. Lieber auf den richtigen Highend Refresh warten und dafür auch eine ordentliche Leistungssteigerung bekommen!

The_Invisible
2008-01-23, 08:28:12
Diese Karte lässt mich sowas von kalt, genau wie die 9800 GX2. Lieber auf den richtigen Highend Refresh warten und dafür auch eine ordentliche Leistungssteigerung bekommen!

jop, ich habe meine leistung auch am liebsten immer 100% sicher, ohne profile und so sachen wie microruckler. darum gibts immer die schnellste singlekarte und gut ist :D

mfg

Gerhard
2008-01-23, 09:35:37
Meiner Meinung nach kann nur eine geänderte Framerate-Messmethode welche dem Eindruck der Karten näher kommt und die SLI/CF-Ruckler berücksichtigt entscheiden wie sich eine solche Lösung schlägt.

Es währe doch sehr einfach - statt über mehrere Frames einfach den Durchschnitt zu bilden sollte man zweimal hintereinander (beziehungsweise entsprechend der Anzahl der AFR Chips) die Abstände zwischen den Frames messen, davon den schlechteren nehmen und hieraus die "Frames per second" berechnen (worüber man danach auch zum Vergleich mit anderen Lösungen einen Durchschnitt bilden kann). Dies würde den sichtbaren Bildeindruck sehr nahe kommen.
Weiters sollten die Einzelwerte für Durchschnittsberechnung bei denen der FPS Wert über der Bildwiederholfrequenz liegt auf die Bildwiederholfrequenz reduziert werden (mehr ist ja auch nicht sichtbar und verfälscht die Durchschnittswerte zu stark).

wolf-Cottbus
2008-01-23, 11:01:07
Und mir ist das egal wie die Karte Hardwaremäßig aufgebaut ist. Wenn ich die Softwaremäßig wie CF/SLI behandeln muß, wegen Profile erstellen Rename.exe und so, dann ist das für mich eben ein CF/SLI-Gespann. Oder kann ich die X² einfach so reinstecken und gleich loslegen wie bei einer Single Lösung?

Gruß Wol

Gast
2008-01-23, 13:09:00
Und mir ist das egal wie die Karte Hardwaremäßig aufgebaut ist. Wenn ich die Softwaremäßig wie CF/SLI behandeln muß, wegen Profile erstellen Rename.exe und so, dann ist das für mich eben ein CF/SLI-Gespann. Oder kann ich die X² einfach so reinstecken und gleich loslegen wie bei einer Single Lösung?

Gruß Wol
Bei SLi z.B. GX2 kannst die Karte reinstecken und alles lassen so wie es ist. Für fast jedes Spiel gibt es ein Profil, das in der Regel sehr gut funktioniert.
Wenn die Mikrorucklerproblematik nicht wäre, wäre SLi eigentlich "perfekt".
Bei CF muss allerdings rumgefummelt werden, da die Profile nicht so zahlreich sind, öfters spät kommen und gelegentlich schlecht funktionieren. Und da man nicht direkt eingreifen kann, muss man sich mit exe Renaming rumschlagen.

J0ph33
2008-01-23, 13:42:18
mmmh...die Karte hat diverse Nachteile, aber ich hab eine Vorliebe für exotische und schwierige Hardware (Ex-7900GX2-Besitzer), die die 3870X2 sehr stark bedient...wenn jetzt der Preis ncoh richtung 350€ und weniger sackt, könnte ich schwach werden

Megamember
2008-01-23, 13:46:39
Also da ist ne GTX für 320 die deutlich bessere ALternative, zumal man sie meist deutlich über UltraTakt übertakten kann.

MadManniMan
2008-01-23, 13:52:06
mmmh...die Karte hat diverse Nachteile, aber ich hab eine Vorliebe für exotische und schwierige Hardware (Ex-7900GX2-Besitzer), die die 3870X2 sehr stark bedient...wenn jetzt der Preis ncoh richtung 350€ und weniger sackt, könnte ich schwach werden

Wenn Du sie nur des Experimentierens wegen haben willst, mach das ruhig, aber ernsthaft zum Zocken? :|

n4p0
2008-01-23, 13:56:08
Hey,

Wie die meisten von euch sicherlich schon wissen steht die neue HD3870 X2 in den Startlöchern. Genauer gesagt, soll sie am 28.01.2008 vorgestellt werden.
Es handelt sich dabei um 2x HD3870 auf einem PCB. Auf der Karte wird jedoch "nur" GDDR3 Ram verwendet.
Hier ein paar Bilder:

http://www.abload.de/img/eah3870x2_19hk.jpg
http://www.abload.de/img/gecube-3870x2lfh.jpg
http://news.mydrivers.com/img/20080123/S04035505.jpg

Hier mal die Daten von der Asus Top 3870 X2:
http://resources.vr-zone.com//newspics/Jan08/23/asus3870x2specs.gif

Ganz Aktuell sind auch schon die ersten Benches/Tests rausgekommen:
http://www.insidehw.com/Reviews/Graphics-cards/ATI-Radeon-HD-3870X2-1-GB.html
und hier
http://www.fpslabs.com/reviews/video/amd-radeon-hd-3870-x2-review


Wenn ich mir die Benches von fpslabs so anschaue, sehe ich keinen Grund meine 8800GTS 512MB gegen eine X2 einzutauschen. Im Gegenteil, oft ist die GTS sogar schneller...
Bisher halte ich die X2 eher als flopp, was sich aber auch ändern kann, falls ATI mit den Treibern noch ordentlich Leistung aus der Karte rauskitzeln kann.

Gruß
n4p0

Birdman
2008-01-23, 13:58:18
In meinen Augen sind alle DualChip Designs seit V5 crap mit viel zu vielen Nachteilen, daher....

Gast
2008-01-23, 14:01:45
Ich sehe das ebenso wie Birdman, Dual-Chip SLI/CrossFire kommt mir nicht in die Kiste.

Dicker Igel
2008-01-23, 14:03:21
Stimmt, ne richtige Dual GPU wäre imho besser :smile:

Gast
2008-01-23, 14:05:48
Das Thema gibts doch schon:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=390975&page=25

J0ph33
2008-01-23, 14:25:25
ich glaube ja auch an Wunder...z.B. an einen im nächsten treiber integrierten "Ati-nhancer" ;D

MadManniMan
2008-01-23, 14:40:27
ich glaube ja auch an Wunder...z.B. an einen im nächsten treiber integrierten "Ati-nhancer" ;D

Nee mal ganz im Ernst: bald wird sich zumindest beim Computerbase-Review zeigen, ob die Mikroruckler durch irgend einen Zufall verschwunden sind (ich gehe ansonsten ganz einfach davon aus, dass sie noch da sind) und wenn sie noch da sind, kaufst Du trotzdem?

pest
2008-01-23, 14:57:59
Nee mal ganz im Ernst: bald wird sich zumindest beim Computerbase-Review zeigen, ob die Mikroruckler durch irgend einen Zufall verschwunden sind (ich gehe ansonsten ganz einfach davon aus, dass sie noch da sind) und wenn sie noch da sind, kaufst Du trotzdem?

ich fühl mich auch mal angesprochen ;)
zumindest ich mache es vom Preis abhängig, und bis die Karte 350,-€ kostet dauerts wohl noch ne Weile
zumindest Microruckler sind mir egal weil meine Lieblingsgames eh 60+ laufen, müssen ;)
bis Februar/März warte ich bestimmt und das ist ja fast ewig

Gast
2008-01-23, 15:01:00
Nach so langer Zeit und dann auch noch nur als CF/SLI Müll. Ne danke bringt mal was wirklich neues.

J0ph33
2008-01-23, 15:28:00
Nee mal ganz im Ernst: bald wird sich zumindest beim Computerbase-Review zeigen, ob die Mikroruckler durch irgend einen Zufall verschwunden sind (ich gehe ansonsten ganz einfach davon aus, dass sie noch da sind) und wenn sie noch da sind, kaufst Du trotzdem?

ich warte noch auf weitere reviews und preisentwicklungen...würde die Karte das alte 14*CrossfireAA bieten, wäre sie wirklich so gut wie gekauft...das ärgert mich echt

allerdings will ich auf grund meiner beamer-auflösung von 1280*720 hohe AA-Stufen fahren und der G80/92 hat ja bekannerweise ein paar kleine Problemchen mit 8*AA (teilweise immenser Einbruch)

außerdem überlege ich grad was die beste SSAA-Karte wäre...wohl die GTS512, wegen ihrer massiven Füllrate (8 Cluster mit 650Mhz und noch viel OC-Potential)

LovesuckZ
2008-01-23, 15:40:16
Dann nimm 16xCSAA oder gleich die Hybriden. 16xCSAA hat sogar den Vorteil, dass er durch die vier Color-Samples sogar noch ansprechend mit TSAA läuft. Die größere Auswahl ist klar ein Pluspunkt für die nVidia-Karten.

vinacis_vivids
2008-01-23, 15:41:30
ich warte noch auf weitere reviews und preisentwicklungen...würde die Karte das alte 14*CrossfireAA bieten, wäre sie wirklich so gut wie gekauft...das ärgert mich echt

allerdings will ich auf grund meiner beamer-auflösung von 1280*720 hohe AA-Stufen fahren und der G80/92 hat ja bekannerweise ein paar kleine Problemchen mit 8*AA (teilweise immenser Einbruch)

außerdem überlege ich grad was die beste SSAA-Karte wäre...wohl die GTS512, wegen ihrer massiven Füllrate (8 Cluster mit 650Mhz und noch viel OC-Potential)

Lachhaft von der GTS512 soviel zu erwarten. Die leistet bei gleichen Takt maximal 10% mehr als die GT, egal bei welcher Einstellung.
Die GTS-SLI wird wie die GT-SLI und auch 9800x2 massiv bei 8AA einbrechen und sich deutlich (in höheren Auflösungen mehr als 100%) unter der 3870x2 einordnen.

Gast
2008-01-23, 15:42:17
zumindest Microruckler sind mir egal weil meine Lieblingsgames eh 60+ laufen, müssen ;)
Du weißt aber schon, das dank Mikroruckler 60fps keine 60fps mehr sind?

Wenn du mit 2 Karten das selbe Gefühl wie bei einer Single haben willst, kannst du locker 30-70% draufschagen, also brauchst du in Zunkunft bei dieser crap Lösung min 80fps.

Blaire
2008-01-23, 15:46:31
allerdings will ich auf grund meiner beamer-auflösung von 1280*720 hohe AA-Stufen fahren und der G80/92 hat ja bekannerweise ein paar kleine Problemchen mit 8*AA (teilweise immenser Einbruch)


Das ist Quatsch bei dieser Auflösung haben die G80 sicher kein Problem bestenfalls unter Vista und extremeren Auflösungen, was ich dann eher auf Vista bzw. die Treiber schieben würde. Freiwillig würde ich allerdings kaum 8xMSAA nutzen , wofür gibts denn 8xS oder 16xS?

_flx
2008-01-23, 15:53:34
Bin ich der einzige der denkt das dieser Thread zu 95% aus gebashe, Fanboy-geblubber und Trollfeeding besteht?

pest
2008-01-23, 15:53:48
Du weißt aber schon, das dank Mikroruckler 60fps keine 60fps mehr sind?

Wenn du mit 2 Karten das selbe Gefühl wie bei einer Single haben willst, kannst du locker 30-70% draufschagen, also brauchst du in Zunkunft bei dieser crap Lösung min 80fps.

war vielleicht mißverständlich, ich schau beim benchen und spielen meist auf die MinFps deswegen hab ich auch 60+ geschrieben, das ist unabhängig von der Frameverteilung und mir persönlich wichtiger, wenn die Kadenz dann nicht enorm groß ist, würde ich es, denke ich, garnicht bemerken

dargo
2008-01-23, 16:01:25
Die GTS-SLI wird wie die GT-SLI und auch 9800x2 massiv bei 8AA einbrechen und sich deutlich (in höheren Auflösungen mehr als 100%) unter der 3870x2 einordnen.
Öhm, 100% weniger als die HD3870X2 wären aber 0 fps. :D
Keine Sorge, ich weiß wie du es gemeint hast. :wink:

Coda
2008-01-23, 16:02:31
ich warte noch auf weitere reviews und preisentwicklungen...würde die Karte das alte 14*CrossfireAA bieten, wäre sie wirklich so gut wie gekauft...das ärgert mich echt
Das geht nicht, weil es keinen 6xMSAA-Modus gibt. Wenn dann müsste es 16x und 18x geben.

Tesseract
2008-01-23, 16:03:54
Ich weiss nicht, was soooo extrem schwer zu verstehen ist. Jemand sagte ATI hat die Krone wieder (bzgl. den Einzelkarten) und das ist nunmal Fakt, egal ob da 1, 2 oder 10 Chips drauf sind.

wenn sich diese karte aus softwaresicht wie eine einzige verhalten würde, dann wäre dieses argument absolut berechtigt.
solange man mit so einer karte aber alle nachteile von SLI mitschleppt ist sie aus softwaresicht einfach nicht legitim mit anderen singlechiplösungen vergleichbar.

diese karte mit all ihren nachteilen kannst du ohne mit der wimper zu zucken mit jeder SLI-lösung vergleichen wenn du die "performancekrone" bestimmen willst.

Raff
2008-01-23, 16:05:09
außerdem überlege ich grad was die beste SSAA-Karte wäre...wohl die GTS512, wegen ihrer massiven Füllrate (8 Cluster mit 650Mhz und noch viel OC-Potential)

Auch SSAA braucht Bandbreite und Speichermenge. ;)

MfG,
Raff

Coda
2008-01-23, 16:07:32
Zumal die extreme Füllrate der GTS nur bei rein bilinearer Filterung durchschlägt ggü. eines G80. Sehr praxisnah ;)

LovesuckZ
2008-01-23, 16:12:22
Wie siehts eigentlich bei "brilinearer" Filterung aus?

Eggcake
2008-01-23, 16:21:22
@Tesseract

Das ist mir bewusst, doch es ging ums Prinzip. Ob der Vergleich nun fair ist oder nicht, ist eine andere Frage (was ich auch etliche Male wiederholte).

reunion
2008-01-23, 16:24:26
Wie siehts eigentlich bei "brilinearer" Filterung aus?

Wenn die Frage ernst gemeint war dann bringen bei bri-Filterung die zusätzlichen TAs natürlich schon einen Vorteil beim bi-Band solange kein AF verwendet wird.

MadManniMan
2008-01-23, 16:40:13
wenn die Kadenz dann nicht enorm groß ist, würde ich es, denke ich, garnicht bemerken

Hm... mir stellt sich jetzt folgende Frage...

Ganz krasses Szenario: mit einer Karte wärens 30 FPS, die gleichmäßig kommen. Mit einer zweiten wird dann das Ganze (wird so in der Praxis nicht passieren) so ablaufen, dass immernoch 30 regelmäßige Frames kommen und wild dazwischen gewürfelt noch 15 Frames, die mal mitten zwischen den "runden" Frames der einen Karte, mal ganz knapp davor, mal ganz knapp danach kommen.

Die 30 FPS des einzelnen Chips sollten sich doch besser anfühlen, als diese völlig wirren 45, oder?

J0ph33
2008-01-23, 16:44:31
Dann nimm 16xCSAA oder gleich die Hybriden. 16xCSAA hat sogar den Vorteil, dass er durch die vier Color-Samples sogar noch ansprechend mit TSAA läuft. Die größere Auswahl ist klar ein Pluspunkt für die nVidia-Karten.
wer schrieb denn reines SSAA, natürlich denke ich an die Hybriden...aber die haben eben ja SSAA
die größere Auswahl ist bei nV allerdingstatsächlich ein großer Pluspunkt, da hast du recht
Lachhaft von der GTS512 soviel zu erwarten. Die leistet bei gleichen Takt maximal 10% mehr als die GT, egal bei welcher Einstellung.
Die GTS-SLI wird wie die GT-SLI und auch 9800x2 massiv bei 8AA einbrechen und sich deutlich (in höheren Auflösungen mehr als 100%) unter der 3870x2 einordnen.
die GTS512 ist und bleibt die Karte mit der höchsten Füllrate...egal wie schnell die GT ist...und ne Ultra geht eher selten auf 750 und mehr hoch
Das ist Quatsch bei dieser Auflösung haben die G80 sicher kein Problem bestenfalls unter Vista und extremeren Auflösungen, was ich dann eher auf Vista bzw. die Treiber schieben würde. Freiwillig würde ich allerdings kaum 8xMSAA nutzen , wofür gibts denn 8xS oder 16xS?
das erzähl mal Crysis mit entsprechender Config (jaaa, Crysis ist so ein schönes totschlagargument ;D), ich würde sehr gerne SSAA bei Crysis nutzen (8*S, 4*S), jedoch gibt es auch dafür momentan wohl keine hardware...selbst bei meiner auflösung
Das geht nicht, weil es keinen 6xMSAA-Modus gibt. Wenn dann müsste es 16x und 18x geben.
einleuchtende erklärung, warum haben sie dann nicht wenigstens die von dir genannten modi angeboten
Auch SSAA braucht Bandbreite und Speichermenge. ;)


fragt sich nur wo SSAA prioritäten setzt, generell sagt man, MSAA geht vorallem auf bandbreite, SSAA eher auf füllrate...davon hat eben die GTS512 ziemlich viel, wird dieser vorteil ggü. z.B. einer Ultra bei SSAA-Nutzung nun wieder durch mangelnde Bandbreite/Speichermenge komplett aufgefressen oder bleibt noch was übrig?

Schlammsau
2008-01-23, 16:45:09
Das zum Thema, langsamer als meine GTS 512...... ;) Ist deine GTS schneller als eine Ultra?
Sie schlägt eigentlich in allen Belangen die Ultra! Crysis und Lost Planet sind da die Ausnahme! Aber die beiden Games lagen ja ATI noch nie!
http://en.expreview.com/?p=219
und
http://forums.vr-zone.com/showthread.php?t=228355

http://img518.imageshack.us/img518/6875/1210234r680vs8800u08012sm1.jpg

4 Vitamins
2008-01-23, 16:47:46
ach bitte!
das teil ist absolut lächerlich! ein armseliger versuch, unwissenden geld aus der tasche zu ziehen!
Die 'karte' ist was für schwanzmarkwerte und signaturen, im alltag zickig und unbrauchbar wie eben alle multi-gpu-lösungen!
Und ATi hat keine Leistungskrone: Stellt doch mal 2 Ultra im SLI dagegen, dann bleibt nix übrig.

BTW:
Wie alt ist die Ultra inzwischen?

ATI`s highend (X2)vs. Nividia Highend (ultra)

Es ist egal ob es 2 oder 10 chips sind, hauptsache es ist eine platine!!
Und wir werden bald in tests sehen wie ultra SLI eine grosse klatche von einem X2-CF bekommt.


gruss

MadManniMan
2008-01-23, 16:55:41
ATI`s highend (X2)vs. Nividia Highend (ultra)

Es ist egal ob es 2 oder 10 chips sind, hauptsache es ist eine platine!!
Und wir werden bald in tests sehen wie ultra SLI eine grosse klatche von einem X2-CF bekommt.

Was hast Du davon, nur eine Platine zu haben, wenn die Software - und die und nichts anderes ist es, die Dir in für Dich verständliche Zeichen übersetzt, was die Hardware macht - das Ganze nur wie zwei einzelne Karten mit all ihren Problemen handhaben kann? :confused:

4 Vitamins
2008-01-23, 16:56:05
Hey,

Wie die meisten von euch sicherlich schon wissen steht die neue HD3870 X2 in den Startlöchern. Genauer gesagt, soll sie am 28.01.2008 vorgestellt werden.
Es handelt sich dabei um 2x HD3870 auf einem PCB. Auf der Karte wird jedoch "nur" GDDR3 Ram verwendet.
Hier ein paar Bilder:

http://www.abload.de/img/eah3870x2_19hk.jpg
http://www.abload.de/img/gecube-3870x2lfh.jpg
http://news.mydrivers.com/img/20080123/S04035505.jpg

Hier mal die Daten von der Asus Top 3870 X2:
http://resources.vr-zone.com//newspics/Jan08/23/asus3870x2specs.gif

Ganz Aktuell sind auch schon die ersten Benches/Tests rausgekommen:
http://www.insidehw.com/Reviews/Graphics-cards/ATI-Radeon-HD-3870X2-1-GB.html
und hier
http://www.fpslabs.com/reviews/video/amd-radeon-hd-3870-x2-review


Wenn ich mir die Benches von fpslabs so anschaue, sehe ich keinen Grund meine 8800GTS 512MB gegen eine X2 einzutauschen. Im Gegenteil, oft ist die GTS sogar schneller...
Bisher halte ich die X2 eher als flopp, was sich aber auch ändern kann, falls ATI mit den Treibern noch ordentlich Leistung aus der Karte rauskitzeln kann.

Gruß
n4p0

Oh man, ein nvidia jünger läuft amok!

Es gibt schon einen thread zum thema im grakaforum.

Mod bitte verschieben oder closen.

gruss

Gast
2008-01-23, 17:02:32
Was hast Du davon, nur eine Platine zu haben, :confused:

Das man kein CF MB braucht also es gehen alle MB INTEL, NV, ATI und fast alle Chipsätze.

n4p0
2008-01-23, 17:07:22
Oh man, ein nvidia jünger läuft amok!

Es gibt schon einen thread zum thema im grakaforum.

Mod bitte verschieben oder closen.

gruss

Mein Gott...
So typen wie du.. nc..
Klar bin voll der Nvidia Jünger ó_Ò
Hab nur blöderweise davor eine X1900XT im PC gehabt...
Aber ich steh voll auf nvidia... :D:D
Und hier will ich eig. nur die Meinung wissen, ob die Leute die Graka für sinnvoll oder nicht sinvoll halten... wo gibts so einen Thread??
Also das nächste mal bitte die ****** halten

Gast
2008-01-23, 17:08:17
Hey,

Auf der Karte wird jedoch "nur" GDDR3 Ram verwendet.

Ja und NV hat auch "nur" DDR3



[QUOTE=n4p0;6216952]
Wenn ich mir die Benches von fpslabs so anschaue, sehe ich keinen Grund meine 8800GTS 512MB gegen eine X2 einzutauschen.
Gruß
n4p0

Nich winen ATI hat zur Zeit die SCHNELLSTE GRAKA punkt......:P

Blaire
2008-01-23, 17:13:07
das erzähl mal Crysis mit entsprechender Config (jaaa, Crysis ist so ein schönes totschlagargument ;D), ich würde sehr gerne SSAA bei Crysis nutzen (8*S, 4*S), jedoch gibt es auch dafür momentan wohl keine hardware...selbst bei meiner auflösung


Nee die gibt es leider noch nicht. Crysis ist aber wirklich die Ausnahme. Selbst 4xAA stellt heutige Hardware schon an die Grenze des Machbaren. Ohne SLI sollte man besser nicht darüber nachdenken (1680x1050 oder höher). Die nächste Grafikkartengeneration wird das sicher auch bei einer Karte möglich machen.

n4p0
2008-01-23, 17:14:21
[QUOTE=n4p0;6216952]Hey,

Auf der Karte wird jedoch "nur" GDDR3 Ram verwendet.

Ja und NV hat auch "nur" DDR3

Nich winen ATI hat zur Zeit die SCHNELLSTE GRAKA punkt......:P

Und ? Wollte das nur hinschreiben das man den Unterschied sieht..
Da die normalen HD3870 GDDR4 verabut haben... Deshalb steht das "nur" auch in anführungszeichen... also näcshtes mal bitte genau lesen... ;)

o0.. wie ich es auch gesagt habe, bin ich von den tests von fpslabs ausgegangen, und weiter unten steht auch noch, das sich meine Meinung noch ändern kann...

Aber die ganze Einstellung hier im Forum nervt mich gerade schon wieder tierisch... Kann man hier ned mal nen Beitrag schreiben, ohne das i-jmd gleich wieder einen blöd anmacht?

Gast
2008-01-23, 17:15:05
[QUOTE=J0ph33;6217585
fragt sich nur wo SSAA prioritäten setzt, generell sagt man, MSAA geht vorallem auf bandbreite, SSAA eher auf füllrate...davon hat eben die GTS512 ziemlich viel, wird dieser vorteil ggü. z.B. einer Ultra bei SSAA-Nutzung nun wieder durch mangelnde Bandbreite/Speichermenge komplett aufgefressen oder bleibt noch was übrig?[/QUOTE]


SSAA braucht alles, bandbreite und füllrate und shaderpower.

mit MSAA lässt sich erstmal sehr viel füllrate und shaderpower einsparen, mit framebufferkompression (wie es heute üblich ist) auch sehr viel an bandbreite.

Gast
2008-01-23, 17:16:57
Es ist egal ob es 2 oder 10 chips sind, hauptsache es ist eine platine!!



es sind aber 2 zusammengebaute platinen :D

Nakai
2008-01-23, 17:24:18
es sind aber 2 zusammengebaute platinen :D

Woran erkennst du das?

Es ist doch wurscht, hauptsache es belegt einen PCIe-Slot und beansprucht nicht zuviel Volumen.


mfg Nakai

Rainman2k
2008-01-23, 17:26:37
Hi,
das ding skaliert ultimativ geil, - quasi wie richtiges CF.
au man, und die Karte im CF.. muuuh 4 Cores..

Da ham die Intel Q 6600 User ja endlich nettes spielzeug, für jeden Kern 1 Graka :)

Gruss

Eggcake
2008-01-23, 17:38:36
Ich war mir ne Weile nicht sicher ob hier wirklich einige dachten, dass die beiden Karten, wie man sie auf dem Bild sieht, zusammen"geklebt" sind :usad:

Sterems
2008-01-23, 17:41:59
jop, ich habe meine leistung auch am liebsten immer 100% sicher, ohne profile und so sachen wie microruckler. darum gibts immer die schnellste singlekarte und gut ist :D

mfg
Du hattest doch noch nie Sli.Du hast garkeine ahnung was mikroruckler sind.

Geht damit nicht auf die nerven.Eure Mikroruckler intressieren hier kein.;);););););)

K4mPFwUr$t
2008-01-23, 18:03:42
da scheinst du nur der einzigste zu sein, oder schaust du nur dem 3dmurks06 beim benchen zu da wo spielgefühl uninteressant ist?

Odal
2008-01-23, 18:14:10
Das man kein CF MB braucht also es gehen alle MB INTEL, NV, ATI und fast alle Chipsätze.

ausserdem das potentiell bessere gefühl eines niedrigeren stromverbrauchs und der runderen lösung....

wenn ich mir aussuchen könnte ob zwei oder eine karte da im rechner steckt fühlt sich eine karte subjektiv besser für mich an

wobei ich single GPU lösungen noch bevorzuge solang nicht gleicher speichjer genutzt werden kann und/oder im idle modus mal ein gpu kern abgeschaltet werden kann

pest
2008-01-23, 18:25:31
Hm... mir stellt sich jetzt folgende Frage...

Ganz krasses Szenario: mit einer Karte wärens 30 FPS, die gleichmäßig kommen. Mit einer zweiten wird dann das Ganze (wird so in der Praxis nicht passieren) so ablaufen, dass immernoch 30 regelmäßige Frames kommen und wild dazwischen gewürfelt noch 15 Frames, die mal mitten zwischen den "runden" Frames der einen Karte, mal ganz knapp davor, mal ganz knapp danach kommen.

Die 30 FPS des einzelnen Chips sollten sich doch besser anfühlen, als diese völlig wirren 45, oder?

Kommt drauf an. sind die 30 fps min so werden dich die zerwürftelten 45 auch nicht stören, average ist natürlich was anderes, statistisch aber einfach zu unsicher

MadManniMan
2008-01-23, 20:14:56
Das man kein CF MB braucht also es gehen alle MB INTEL, NV, ATI und fast alle Chipsätze.

Wie wäre es, wenn der Herr mal hinläse? Mir ging es einzig und allein darum, dass es für die Software schnurz ist, ob die beiden Chips auf einer oder zwei Karten sitzen.

Gast
2008-01-23, 20:43:49
ATI`s highend (X2)vs. Nividia Highend (ultra)

Es ist egal ob es 2 oder 10 chips sind, hauptsache es ist eine platine!!
Und wir werden bald in tests sehen wie ultra SLI eine grosse klatche von einem X2-CF bekommt.


gruss

Omg..... 2x X2 3870 (4 chips über cf????) gegen 2 ultras im SLi?

Gehts noch?

Die nachteile werden dir bestimmt bekannt sein...... *gggg

Mag das Mikro...... Wort nicht schon wieder erwähnen........ *lol*



Sollte es eine geben, werden sie die "klatsche" lächend hinnehmen.. ;)

Überleg mal wie lange die G80er/G92 schon am start sind......
Eigentlich ziemlich traurig das Ati da net mehr geschafft hat.......

Ich kann echt net verstehen wie man sich über sowas freuen kann...???

Also ich würd sagen das es nur nen bash thread ist............

MarcWessels
2008-01-23, 21:49:26
Edit: Und ich weiss nicht warum man bei jedem Post noch Mikroruckler erwähnen muss, ich denke das ist nun allgemein bekannt und es muss nicht jeder Post, der sich auf CF/SLI/Dual-Karten bezieht mit "wenn die Mikroruckler nicht wären" enden ... :)*lol*? Was will ich mit gefakter Speed?

Eggcake
2008-01-23, 21:51:02
*lol*? Was will ich mit gefakter Speed?

Weiss nicht.


Mir gehts nur darum, dass man seit ein paar Tagen kein Wort mehr über CF/SLI verlieren darf ohne mit Mikroruckler-Beiträgen bombardiert zu werden :)

Gast
2008-01-23, 21:59:11
Mir gehts nur darum, dass man seit ein paar Tagen kein Wort mehr über CF/SLI verlieren darf ohne mit Mikroruckler-Beiträgen bombardiert zu werden :)
Es ist aber erwähnenswert, das CF/SLI keine 90% mehr FPS sondern eher 20% mehr bringen.

Und das ist auch bei dem Vergleich wichtig zu erwähnen, in Wirklichkeit ist die 8800Ultra ein ganzes Stück schneller als die X2.

Liszca
2008-01-23, 22:01:40
Das kann dir keiner verbitten;)

Es endet nix dran dass :ATI die LEISTUNGSKRONE HAT!!!!


gruss

Olé olé olé

frägt sich nur wie lange...

Liszca
2008-01-23, 22:03:37
...
PS: Crysis könnte sich durch den offiziellen Launchtreiber noch ändern (siehe 8.1 Hotfix).

von crysis hatte ich auch viel mehr erwartet, aber wenigstens wird es nicht langsamer, das ist immer meine sorge bei multigpu!

Liszca
2008-01-23, 22:15:25
ach so wuste garnicht das die ATI mehr als 512 pro chip verbaut....soviel dazu...
stecken wir noch ne ultra dazu das es wieder ausgeglichen ist...2:2 und bensche den Krams nochmal...... :D
der Ultra Balken würde recht über den Rand fallen...ich weiß garnicht was diese dummen Vergleiche sollen..CF gegen Single und dann noch im 1-4 FPS Bereich....merkt ihr eigendlich noch was?
Mir sagt es nur eins die Karte ist ne Gurke..und die NV GX² wird das Ding füchterlich verbrügeln...und das ist wieder Mißt..denn jetzt können wir wieder noch länger auf eine anständige HighEnd Karte warten.

trink du dein echt kölsch wasser und lass uns die freude bis die 9800 gx2 kommt :P

vinacis_vivids
2008-01-23, 22:15:53
Es ist aber erwähnenswert, das CF/SLI keine 90% mehr FPS sondern eher 20% mehr bringen.

Und das ist auch bei dem Vergleich wichtig zu erwähnen, in Wirklichkeit ist die 8800Ultra ein ganzes Stück schneller als die X2.

Naja dann ist die Ultra SLI mit der von haus aus schlechten skalierung ca 10% schneller als eine Ultra. Und Triple SLI ca 15% schneller als eine Ultra. Keine rosige zukunft für Nvidia mit der 9800GX2, die ja nun viel langsamer als eine Ultra wird. Quasi nicht mal so schnell wie eine GTX und ca. so schnell wie eine GT mit bissel OC. Und das für über 500,- . Auf gehts alle 8800 Ultra kaufen, denn sie ist ja in "Wirklichkeit" das schnellste.

Liszca
2008-01-23, 22:18:01
Hatte 3dfx auch das Problem mit den Microrucklern?


mfg Nakai

nein, bei denen wurde es manchmal mit zwei chips so langsam wie mit einem chip!

Tigershark
2008-01-23, 22:21:25
Also nur um der Vollständigkeit halber nochmal auf die 1/2 PCBs Frage einzugehen, die X2 sollte doch eher so aussehen:

http://pics.computerbase.de/2/0/1/2/5/1.jpg

bzw. so

http://pics.computerbase.de/2/0/3/0/5/1.jpg

Liszca
2008-01-23, 22:24:01
Also da ist ne GTX für 320 die deutlich bessere ALternative, zumal man sie meist deutlich über UltraTakt übertakten kann.

an diesem satz stören zwei dinge: "meist deutlich" und "übertakten". Schon mal daran gedacht dass es leute gibt die ihre sachen innerhalb der spezifikationen bewegen?

Gast
2008-01-23, 22:24:02
http://www.abload.de/img/customwo8.jpg (http://www.abload.de/image.php?img=customwo8.jpg)

:up

Gast
2008-01-23, 22:25:44
an diesem satz stören zwei dinge: "meist deutlich" und "übertakten". Schon mal daran gedacht dass es leute gibt die ihre sachen innerhalb der spezifikationen bewegen?
....richtig und nicht die Garantie aufs Spiel setzen wollen.......:P

vinacis_vivids
2008-01-23, 22:30:19
an diesem satz stören zwei dinge: "meist deutlich" und "übertakten". Schon mal daran gedacht dass es leute gibt die ihre sachen innerhalb der spezifikationen bewegen?

Dafür gibs halt die "XFX XXXXXXXXXXXXXXXXXXXX^999 Ultra OC boooom bang baaang" =)

Gast
2008-01-23, 22:46:04
Schon mal daran gedacht dass es leute gibt die ihre sachen innerhalb der spezifikationen bewegen?

Selbst Schuld tät ich da mal sagen......

Andere gehen gern ans max........

Der ausgetestete crap landet dann bei dir......
Macht doch nix.......

Liszca
2008-01-23, 22:49:52
Selbst Schuld tät ich da mal sagen......

Andere gehen gern ans max........

Der ausgetestete crap landet dann bei dir......
Macht doch nix.......

und heulen nachher rum oh mein pc färbt sich braun wenn ich ein grünes icon anklicke ;D

Coda
2008-01-23, 22:53:34
Weiss nicht.


Mir gehts nur darum, dass man seit ein paar Tagen kein Wort mehr über CF/SLI verlieren darf ohne mit Mikroruckler-Beiträgen bombardiert zu werden :)
Ist auch richtig so. Das ist ein sehr ernsthaftes Problem, dass die ganzen FPS-Angaben in den Benchmarks eigentlich für total sinnlos erklärt.

Raff
2008-01-23, 22:57:28
Das war noch Multi-GPU-Skalierung:

http://3dcenter.de/images/voodoo5-6000/HeavyMetalFAKK2-PCGHTimedemo_1600x1200x32bpp.png

>100% je zusätzlicher GPU!

*Schnüff*

Dieser ganze AFR/SFR-Mist mag selten mal noch so gut skalieren, durch das Frametime-Problem bringt einem das nichts.

MfG,
Raff

Gast
2008-01-23, 22:57:34
und heulen nachher rum oh mein pc färbt sich braun wenn ich ein grünes icon anklicke ;D

nicht mein prob............

Kannst dir ja gern deine "OC ATI Radeon rape da world Xterminator" kaufen....

Gast
2008-01-23, 23:05:22
Und das für über 500,- . Auf gehts alle 8800 Ultra kaufen, denn sie ist ja in "Wirklichkeit" das schnellste.
Das wollte ich nicht bezwecken. Preis/Leistungsmäßig sind beide mies.

Ich wollte nur klarstellen, was man von der "Krone" halten kann.

deekey777
2008-01-23, 23:14:55
Das geht nicht, weil es keinen 6xMSAA-Modus gibt. Wenn dann müsste es 16x und 18x geben.
Wurde der Supersampling-Anteil nicht entfernt (SuperAA "18x")?

Coda
2008-01-23, 23:19:43
KA, ich hab kein Crossfire ;)

vinacis_vivids
2008-01-23, 23:23:41
Das war noch Multi-GPU-Skalierung:

http://3dcenter.de/images/voodoo5-6000/HeavyMetalFAKK2-PCGHTimedemo_1600x1200x32bpp.png

>100% je zusätzlicher GPU!

*Schnüff*

Dieser ganze AFR/SFR-Mist mag selten mal noch so gut skalieren, durch das Frametime-Problem bringt einem das nichts.

MfG,
Raff

Wenn ich das so angucke, frag ich mich was die ehemaligen 3dfx Ingenieure bei Nvidia machen. Keine einzige Technik aus der Zeit wurde implementiert, einfach armseelig wie sie 3fx ausgebeutet haben.

K4mPFwUr$t
2008-01-23, 23:25:44
3dfx hat eine ja afaik eine hardware basierente multi-gpu lösung gehabt.
heute ist es ja eigentlich nur noch über treiber gesteuert.

anderfalls ist komplexität von heutigen spielen weit aus umfangreicher als damals der fall war.

deekey777
2008-01-23, 23:29:02
Wenn ich das so angucke, frag ich mich was die ehemaligen 3dfx Ingenieure bei Nvidia machen. Keine einzige Technik aus der Zeit wurde implementiert, einfach armseelig wie sie 3fx ausgebeutet haben.
...

Was nun die Implementierung angeht so hat da mal nVidia und mal ATI die Nase vorn. Bei der Entkopplung von ALUs und TMUs liegt ATI schon lange vorne, da diese bei nVidia mit dem NV30 zum Teil und mit dem NV40 endgültig zu Gunsten des Rampage-Konzepts aufgegeben wurde. Die von nVidia verwendeten ALUs sind dagegen um einiges mächtiger als die ATI Lösung. Durch die TMUs in der Pipe ergab sich auch die Möglichkeit ein FP16 NRM mit einzubauen. Das Threadkonzept ist natürlich interessant zeigt sich aber bisher IMHO dem R420 Konzept nicht wirklich überlegen. Das Große Problem das ich dabei sehe, wenn die Einheit wirklich so funktioniert wie ATI behauptet, ist das die Komplexität nicht linear mit der Anzahl der unterlagerten Einheiten steigt.


Wie ist eigentlich die Edge-Detection-Performance? Hat sie sich seit der Einführung der HD2900 verbessert und wie ist sie, wenn man zwei Grafikkarten zusammenschaltet.

vinacis_vivids
2008-01-23, 23:29:30
3dfx hat eine ja afaik eine hardware basierente multi-gpu lösung gehabt.
heute ist es ja eigentlich nur noch über treiber gesteuert.

anderfalls ist komplexität von heutigen spielen weit aus umfangreicher als damals der fall war.

Bin mir sicher, dass es machbar ist trotz der Komplexität, werden wir aber wohl nie erfahren.....

Coda
2008-01-23, 23:29:38
Wenn ich das so angucke, frag ich mich was die ehemaligen 3dfx Ingenieure bei Nvidia machen. Keine einzige Technik aus der Zeit wurde implementiert, einfach armseelig wie sie 3fx ausgebeutet haben.
Das ist grober Schwachsinn. Das ganze CineFX-Design basiert auf Rampage (NV3x, NV4x) und auch das Motto "Fillrate is King" ist immer noch viel dominanter bei nVIDIA als bei ATi.

Und das damlaige Multi-GPU-Verfahren funktioniert heute ganz einfach nicht mehr.

Super-S
2008-01-23, 23:30:58
Für 360 Öcken nicht schlecht.... ;) ...bin momentan zufrieden mit meiner Einzel-3870. Stromverbrauch würd mich mal interresieren,,,

vinacis_vivids
2008-01-23, 23:32:47
Für 360 Öcken nicht schlecht.... ;) ...bin momentan zufrieden mit meiner Einzel-3870. Stromverbrauch würd mich mal interresieren,,,

Wird nicht höher sein als 2x3870....

AYAlf
2008-01-23, 23:36:50
ganz einfach .. diese karte ist TOP

vinacis_vivids
2008-01-23, 23:39:43
ganz einfach .. diese karte ist TOP

Jupp, schneller als ne Ultra und deutlich billiger ist TOP. Wird auch schneller sein als GTS-SLI.

Gast
2008-01-23, 23:50:00
GTS SLI wird schwer, GT SLI haut die weg, aber mal sehen was die GX2 bringt, ausser üblen Stromverbraucht ohne 2D Takt :D

dildo4u
2008-01-23, 23:52:16
Jupp, schneller als ne Ultra und deutlich billiger ist TOP. Wird auch schneller sein als GTS-SLI.
Wie soll das gehen wenn beide Varianten den SLI/Crossfire Nachteil haben aber die GTS der 3870 einzeln total überlegen ist?

vinacis_vivids
2008-01-23, 23:53:32
GTS SLI wird schwer, GT SLI haut die weg, aber mal sehen was die GX2 bringt, ausser üblen Stromverbraucht ohne 2D Takt :D

GTS SLI ist 10% schneller als GT SLI und würde sich damit auch unter 3870x2 ordnen, besonders unter 8AA.

Gast
2008-01-23, 23:55:49
mhh werden wir ja sehen, mir eigenlich egel ich hau mir eh davon 2 Stück rein, ich hoffe Quad CF geht dann auch :D

vinacis_vivids
2008-01-24, 00:00:39
Wie soll das gehen wenn beide Varianten den SLI/Crossfire Nachteil haben aber die GTS der 3870 einzeln total überlegen ist?

http://www.abload.de/img/rate1m1.jpg

Totale Überlegenheit sieht anders aus. Unter Extremer Auflösung bzw. hohen AA bricht die G92 massiv ein. Das wird sich mit SLI auch nicht ändern, zumal CF besser skaliert. Ergo wird der Abstand Größer.

LordDeath
2008-01-24, 00:06:31
Die hat vier DVI Anschlüsse??
Kann man Crossfire auch mit 4 Monitoren nutzen, oder muss man die vor dem Zocken erst deaktivieren?

Gast
2008-01-24, 00:16:53
Nein mit dem Cat. 8.1 ist auch Multimonitoring jetzt möglich mit Crossfire :D

Bin ma gespannt wann Nvidia das geschissen bekommt.

Gast
2008-01-24, 00:29:06
Totale Überlegenheit sieht anders aus. Unter Extremer Auflösung bzw. hohen AA bricht die G92 massiv ein. Das wird sich mit SLI auch nicht ändern, zumal CF besser skaliert. Ergo wird der Abstand Größer.

Schalt mal AI aus........ guck was dann noch übrig bleibt.........

Gast
2008-01-24, 00:35:50
Totale Überlegenheit sieht anders aus. Unter Extremer Auflösung bzw. hohen AA bricht die G92 massiv ein. Das wird sich mit SLI auch nicht ändern, zumal CF besser skaliert. Ergo wird der Abstand Größer.

Ähhh, wie alt ist der G80/G92 nochmal?????
Welche Single-Chip Karte ist IMMER noch die schnellste, IMMER NOCH?......
Wo gibts bei bedarf massig SS?
Geile AA Modis+Nhancer......
Profile??? Hallo??? Naja, braucht ja niemand......

Und du gibst auch noch nen lob aufs cf...

nene........

Coda
2008-01-24, 00:46:45
Das wird sich mit SLI auch nicht ändern, zumal CF besser skaliert.
CF skaliert NICHT besser.

Das sind technische Fakten die du langsam mal in deinen Schädel bekommen solltest!

Gast
2008-01-24, 00:47:15
Ähhh, wie alt ist der G80/G92 nochmal?????
Welche Single-Chip Karte ist IMMER noch die schnellste, IMMER NOCH?......
Wo gibts bei bedarf massig SS?
Geile AA Modis+Nhancer......
Profile??? Hallo??? Naja, braucht ja niemand......

Und du gibst auch noch nen lob aufs cf...

nene........

G92 ist ganz frisch.
Profile brauch ich net, und Hybrid AA auch nicht, weils eh unspielbar ist , sieht zwar net aus aber taugt nix.

Schalt mal AI aus........ guck was dann noch übrig bleibt.........

lol, muss ich jetzt dazu was sagen ?
Schalt ma bei NV die Optimierungen aus, mal sehen was dann noch übrig bleibt :D

AYAlf
2008-01-24, 00:47:21
Schalt mal AI aus........ guck was dann noch übrig bleibt.........

es ist immer das selbe .... wenn nvidia weeeeeit hinten liegt kommt immer wieder einer mit dem a.i. vorurteil ;D

fakt ist .. man sieht den unterschied bei bewegten bildern nicht.

und auch ohne a.i. ... (ach was solls)

Gast
2008-01-24, 00:47:57
CF skaliert NICHT besser.

Das sind technische Fakten die du langsam mal in deinen Schädel bekommen solltest!

blödsinn, das tut es sehr wohl, kannst jetzt deine CB Benches raus holen die taugen garnichts.

vinacis_vivids
2008-01-24, 00:49:14
Ähhh, wie alt ist der G80/G92 nochmal?????
Welche Single-Chip Karte ist IMMER noch die schnellste, IMMER NOCH?......
Wo gibts bei bedarf massig SS?
Geile AA Modis+Nhancer......
Profile??? Hallo??? Naja, braucht ja niemand......

Und du gibst auch noch nen lob aufs cf...

nene........

Was willst du von mir? Hab ne 8800GT hier und sehe selbst ein dass sie übermäßig stark einbricht. 8xSSAA ist begrenz nutzbar, vielleicht unter Doom3 und HL2 ganz sinnvoll.
Beim Defaultkühler wird die Karte fast 100°C heiß. Da kann ich schön Eier drauf braten. ;-/

AYAlf
2008-01-24, 00:50:09
Ähhh, wie alt ist der G80/G92 nochmal?????
Welche Single-Chip Karte ist IMMER noch die schnellste, IMMER NOCH?......
Wo gibts bei bedarf massig SS?
Geile AA Modis+Nhancer......
Profile??? Hallo??? Naja, braucht ja niemand......

Und du gibst auch noch nen lob aufs cf...

nene........

wayne?
die krone hat ati .. und nur das zaehlt .. beste bildquali, schnellste karte! ;)

vinacis_vivids
2008-01-24, 00:52:00
CF skaliert NICHT besser.

Das sind technische Fakten die du langsam mal in deinen Schädel bekommen solltest!

Das Thema hatten wir schonmal. CF skaliert theoretisch nicht besser aber in der Praxis sehr deutlich. Das ist was zählt.

Coda
2008-01-24, 00:55:51
blödsinn, das tut es sehr wohl, kannst jetzt deine CB Benches raus holen die taugen garnichts.
Nein tut es nicht. Es ist technisch exakt das gleiche Prinzip, wenn irgendwo was besser skaliert dann ist es schlicht und einfach der Treiber.

Die generelle Aussage "CF skaliert besser" ist schlicht und einfach falsch.

Das Thema hatten wir schonmal. CF skaliert theoretisch nicht besser aber in der Praxis sehr deutlich. Das ist was zählt.
Dazu hätte ich gerne mal ein paar mehr Benchmarks, als das was du dir so zusammensuchst. Bei den Crysis-Benchmarks die ich kenne skaliert CF noch schlechter als SLI.

vinacis_vivids
2008-01-24, 01:02:54
Nein tut es nicht. Es ist technisch exakt das gleiche Prinzip, wenn irgendwo was besser skaliert dann ist es schlicht und einfach der Treiber.

Die generelle Aussage "CF skaliert besser" ist schlicht und einfach falsch.


Dazu hätte ich gerne mal ein paar mehr Benchmarks, als das was du dir so zusammensuchst. Bei den Crysis-Benchmarks die ich kenne skaliert CF noch schlechter als SLI.

Dann kennste nicht die CF Benchmarks die ich kenne:

http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png

8800GT: 18,7 SLI: 26,7 --> 42,7%
3870: 16,8 CF: 25,2 --> 50%
Und das mit alten Treibern.

Die 4 Mio. $ von Nvidia in der Entwicklung von Crysis sind wohl nicht genug.

Coda
2008-01-24, 01:11:30
Schreibt Crytek denn die Treiber bei nVIDIA?

Außerdem könnte der Bottleneck auch noch wo anders sein. Die HD3870 hat dort eine niedrigere Grundgeschwindigkeit. Wenn dann sollte mann da noch ne 8600 mittesten, dann könnte man sagen was besser oder schlechter skaliert.

Gast
2008-01-24, 01:11:48
Schalt ma bei NV die Optimierungen aus, mal sehen was dann noch übrig bleibt :D

Hab ich..... Es kostet fast nichts @ G80 usw.........

Auf ner ATI wäre das schon nen derber fehler.........
also immer schön AI so hoch wie möglich.....
dann klappts auch mit den FPS....
und NEIN, die BQ leidet natürlich nicht darunter, niemals..........
je mehr AI umso besser wird sie ;)))

vinacis_vivids
2008-01-24, 01:18:43
Schreibt Crytek denn die Treiber bei nVIDIA?

Außerdem könnte der Bottleneck auch noch wo anders sein. Die HD3870 hat dort eine niedrigere Grundgeschwindigkeit. Wenn dann sollte mann da noch ne 8600 mittesten, dann könnte man sagen was besser oder schlechter skaliert.

Du bewegst dich auf dünnem Eis, ich hab jetzt einen Aktuellen Test vorgelegt, der deutlich belegt, dass Crysis in höhere Auflösung mit CF deutlich besser skaliert als vergleichbares SLI. Wie die 8600 skaliert, interessiert mich nicht die bohne. Von 0,0 auf 0,1 wäre schon eine unendliche skalierung also wayne. =)

Gast
2008-01-24, 01:19:56
http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png


Wie gesagt..... Schon scheisse wennst bei ATI mit nem Dualchip - Design in Krieg ziehen musst um nen EINZELEN G80 zu schlagen....

Ach, wie lange ist der Chip schon aufem Markt??

Tectrex
2008-01-24, 01:22:05
Ähhh, wie alt ist der G80/G92 nochmal?????
Welche Single-Chip Karte ist IMMER noch die schnellste, IMMER NOCH?......
Wo gibts bei bedarf massig SS?
Geile AA Modis+Nhancer......
Profile??? Hallo??? Naja, braucht ja niemand......

Und du gibst auch noch nen lob aufs cf...

nene........
Naja, mal an damals denken wo sich nVidia auch nicht weiter zu helfen wusste, wie mit der GX2 ;)

Btw alte Chips, der G80/G92 ist auch nicht älter wie der R600/RV670 ;)

Jede Firma geht es doch darum, das schnellste Model zu haben, und das ist ATI "endlich" mal wieder gelungen. Und ja, leider brauchen sie zwei Chips um das zu schaffen, jedoch sollte man auch bedenken, das der wichtigste Faktor der Preis ist. Dieser liegt hier genau richtig, schneller als ne Ultra, aber deutlich billiger. Mir wäre die Firma egal, von wo die Karte kommt, Hauptsache die Preisleistung stimmt. Finde es immer lustig, wenn jemand nur wegen dem Namen eine Karte hat...oder nur weil Firma X die schnellste Karte hat, sich eine langsamere, aber Hauptsache von der Firma besorgt.
Es gibt doch von beiden Firmen nice Karten, da sollte für jeden was bei sein.
Und was immer wegen CF und SLI gestritten wird, da nehmen sich beide nicht viel, auch da auf beiden Seiten Vor und Nachteile......

Wie gesagt..... Schon scheisse wennst bei ATI mit nem Dualchip - Design in Krieg ziehen musst um nen EINZELEN G80 zu schlagen....Wie geschrieben, immer an der GX2 denken ;)

Ach, wie lange ist der Chip schon aufem Markt??Genau so lange wie die anderen......


Shice für eine eine Dual GPU Karte ist, das sie für den Preis von einer Single GPU Karte verkauft wird, demnach auch nicht soviel Gewinn gemacht wird. Jedoch ist das sowieso ein Level wo nicht die Kohle mit verdient wird, sondern es eher ne art Werbung ist, das schnellste Modell zu haben.

Gast
2008-01-24, 01:22:05
beste bildquali, schnellste karte! ;)
Nein!
ATI hat kein SSAA (Mischmodi)
Dank Mikroruckler ist die CF Lösung nicht wirklicjh schneller als eine Single.


8xSSAA ist begrenz nutzbar, vielleicht unter Doom3 und HL2 ganz sinnvoll.
Es gibt genug Einsatzgebiete für SSAA.
Und wenn man sie nur in älteren Titeln nutzt, dann ist das gut um diese aufzupepeln, was macht man bei ATI und alten Titeln? Erfreut sich an 4stelligen FPS und mieser Optik.

Coda
2008-01-24, 01:22:13
Du bewegst dich auf dünnem Eis, ich hab jetzt einen Aktuellen Test vorgelegt, der deutlich belegt
Nein tut er nicht. Er sagt nur aus dass eine 3870 CF in diesem Fall besser skaliert, wobei sie von einer niedrigeren Geschwindigkeit einer Karte ausgeht.

Da aber z.B. die CPU oder das streaming auch limitieren, dann kannst du es nicht mehr vergleichen.

Wie die 8600 skaliert, interessiert mich nicht die bohne. Von 0,0 auf 0,1 wäre schon eine unendliche skalierung also wayne. =)
Das ist aber sehr relevant was die Aussage "CF skaliert besser" betrifft. Du kannst nicht von einem Test auf die Breite schließen, und schon gar nicht wie groß das "Potential" da noch ist.

Einen Vergleich der Effizenz der Multi-GPU-Techniken muss mit einer möglichst langsamen GPU (untertaktet z.B.) und einer möglichst schnellen CPU erfolgen, sonst kannst du auf gar nichts schließen.

Gast
2008-01-24, 01:23:11
Btw alte Chips, der G80/G92 ist auch nicht älter wie der R600/R680 ;)

G80 ist ein halbes Jahr älter als R600.
G92 kamm kurz vorm RV670.
R680 kommt jetzt erst.

Tectrex
2008-01-24, 01:28:29
G80 ist ein halbes Jahr älter als R600.
G92 kamm kurz vorm RV670.
R680 kommt jetzt erst.
Sry verschrieben^^ meinte natürlich den RV670
Der G80 ist zwar früher auf dem Markt gewesen, jedoch nur weil AMD/ATI derbe Probleme hatte. Von Alter sind sie gleich.

Blaire
2008-01-24, 01:30:01
dass Crysis in höhere Auflösung mit CF deutlich besser skaliert als vergleichbares SLI.

Was soll denn noch besser skalieren? Mehr als 90-100% sind nunmal nicht drin und eben die erreicht man auch mit SLI wenn nichts anderes limitiert...

vinacis_vivids
2008-01-24, 01:33:44
Nein tut er nicht. Er sagt nur aus dass eine 3870 CF in diesem Fall besser skaliert, wobei sie von einer niedrigeren Geschwindigkeit einer Karte ausgeht.

Da aber z.B. die CPU oder das streaming auch limitieren, dann kannst du es nicht mehr vergleichen.


Das ist aber sehr relevant was die Aussage "CF skaliert besser" betrifft. Du kannst nicht von einem Test auf die Breite schließen, und schon gar nicht wie groß das "Potential" da noch ist.

Du kannst soviel schreiben wie du willst, CF skaliert besser als SLI, wenn ich mal Zeit hab such ich noch mehr raus. Aber hier mal ein überblick von SLI wörtlich abkackt, G92 SLI reiht sich auf Augenhöhe der Ultra ein, CF ist in höheren Auflösungen und AA zu 20-180% schneller.

http://www.abload.de/img/cfskaliit1.jpg

Coda
2008-01-24, 01:42:59
Du kannst soviel schreiben wie du willst, CF skaliert besser als SLI, wenn ich mal Zeit hab such ich noch mehr raus. Aber hier mal ein überblick von SLI wörtlich abkackt, G92 SLI reiht sich auf Augenhöhe der Ultra ein, CF ist in höheren Auflösungen und AA zu 20-180% schneller.

http://www.abload.de/img/cfskaliit1.jpg
Das ist doch der alte Test mit alten Treibern und altem Crysis. Was soll das?

Und wenn es so wäre dann hat nVIDIA das größere Optimierungspotential und nicht ATI, denn die Hardware darunter ist vom Prinzip die gleiche. Die Skalierungseffizienz von CF und SLI kommt allein vom Treiber. Aber ich red eh gegen ne Wand.

Grestorn
2008-01-24, 06:57:45
Irgendwie finde ich das schon faszinierend. Da erringt ATI nach Ewigkeiten endlich mal wieder die Performance-Krone (meine ehrlichen Gratulationswünsche!) und schon kommen wieder einige Fans herbei und gießen jede Menge Häme über nVidia aus.

Das ist schon extrem hier. Und ich kann mich auch nicht erinnern, dass es umgekehrt vergleichbar zugegangen wäre, als der G80 erstmals auf den Markt gekommen ist.

ATI Fan zu sein muss schon sehr viel mit religiösem Glauben zu tun haben...

Meine - wiederholt geäußerte - Meinung dazu ist: Nur wenn ATI und nVidia vergleichbar stark sind, entwickelt sich der Markt effizient weiter. In so fern: Weiter so, ATI!

Ich würde mir persönlich wünschen, dass ATI endlich mal die Sturheit aufgibt und zwei grundsätzliche Treibermängel beseitigt: Die Fehlenden automatischen Profile und die Verknüpfung von internen Profilen (aka Shaderoptimierung und CF Anpassungen) mit den Qualitätseinstellungen.

Wenn sie da mal über ihren Schatten springen würden, käme ATI auch für mich wieder in Frage. Denn gerade was die Treiber angeht, hat sich nVidia in den letzten Jahren wahrlich nicht mit Ruhm bekleckert.

MartinRiggs
2008-01-24, 07:42:41
Irgendwie finde ich das schon faszinierend. Da erringt ATI nach Ewigkeiten endlich mal wieder die Performance-Krone (meine ehrlichen Gratulationswünsche!) und schon kommen wieder einige Fans herbei und gießen jede Menge Häme über nVidia aus.

Das ist schon extrem hier. Und ich kann mich auch nicht erinnern, dass es umgekehrt vergleichbar zugegangen wäre, als der G80 erstmals auf den Markt gekommen ist.

ATI Fan zu sein muss schon sehr viel mit religiösem Glauben zu tun haben...

Meine - wiederholt geäußerte - Meinung dazu ist: Nur wenn ATI und nVidia vergleichbar stark sind, entwickelt sich der Markt effizient weiter. In so fern: Weiter so, ATI!

Ich würde mir persönlich wünschen, dass ATI endlich mal die Sturheit aufgibt und zwei grundsätzliche Treibermängel beseitigt: Die Fehlenden automatischen Profile und die Verknüpfung von internen Profilen (aka Shaderoptimierung und CF Anpassungen) mit den Qualitätseinstellungen.

Wenn sie da mal über ihren Schatten springen würden, käme ATI auch für mich wieder in Frage. Denn gerade was die Treiber angeht, hat sich nVidia in den letzten Jahren wahrlich nicht mit Ruhm bekleckert.

Kann Grestorn da nur recht geben, nur wenn beide gute Karten(fast gleichwertige) bauen kommt der Markt weiter und es sei jedem das gegönnt was er bevorzugt.
Ich verstehe nicht warum immer so ne Hexenjagd ausgetragen werden muss nur wenn ein IHV mal ne schnellere Karte hat.
Wer ne G80 Ultra/GTX hat ist immer noch mehr als gut bedient, wer lieber ATI-Karten verbaut der kann sich jetzt ne HD3870X2 holen und ist auch gut bedient -> ergo alle glücklich warum dann bashen????

Ich z.b. habe meinen Umstieg von ATI auf NV nicht bereut, die 8800GT ist ein nettes Stück Hardware, was mich allerdings nicht hindern würde z.b. auf die nächste ATI umzusteigen, wenn die Karte demensprechend gut wird.

nagus
2008-01-24, 07:47:34
Du kannst soviel schreiben wie du willst, CF skaliert besser als SLI, wenn ich mal Zeit hab such ich noch mehr raus. Aber hier mal ein überblick von SLI wörtlich abkackt, G92 SLI reiht sich auf Augenhöhe der Ultra ein, CF ist in höheren Auflösungen und AA zu 20-180% schneller.

http://www.abload.de/img/cfskaliit1.jpg

genau. CF ist nunmal für hohe auflösungen und AA wie geschaffen... wer eine 3870er CF bzw die 3870 X2 mit kleinen auflösungen oder ohne hohe AA/AF einstellungen quält oder vergleiche in solchen "bimbo"-settings anstellt, hat was an der waffel :P

nagus
2008-01-24, 07:48:48
Das ist doch der alte Test mit alten Treibern und altem Crysis. Was soll das?.

*hüstl* ES GIBT AUCH NOCH ANDERE SPIELE!!! (verdammte shycis fanaticer!!!!)

seahawk
2008-01-24, 08:01:35
genau. CF ist nunmal für hohe auflösungen und AA wie geschaffen... wer eine 3870er CF bzw die 3870 X2 mit kleinen auflösungen oder ohne hohe AA/AF einstellungen quält oder vergleiche in solchen "bimbo"-settings anstellt, hat was an der waffel :P

Exakt mit 8xAA zeigt sich die Ptenz der RV670 Architektur am besten. Und wer mit niedrigeren Einstellungen spielt btaucht sicher keine CF Variante.

Es ist Wahnsinn wie sehr die bisher völlig unterschätzten R670 und CF nun dominieren.

MadManniMan
2008-01-24, 08:22:27
Der Thread platzt gleich vor Ironie, so wie ich das gerade sehe...

Fassen wir nochmal die Streitpunkte der letzten Seiten zusammen:

1) das eine AFR-Verfahren sei besser, als das andere
2) "Bimbo"-Settings seien idiotisch für SLI/CF
3) AFR-Systeme und ihre probleme

zu 1): wie soll das gehen? Je nach API zeigt sich doch, dass mal das eine, mal das andere mehr bringt - es liegt also nicht an irgendwelchen HW-Sachen, sondern einzig und allein am Treiber. Vom Prinzip funktionieren beide gleich.

zu 2): 8*MSAA funktioniert wirklich toll auf den aktuellen Radeons, zudem ist es vom tatsächlichen Output her wirklich gut mit dem von nV vergleichbar - und jetzt kommt das aber ins Spiel: keiner von uns hat noch einen Überblick darübe, wie CFAA, CSAA, TSAA und diverse nV-Mischmodi funktionieren, weils kein Schwanz mehr bencht! Die Reviewer sind stinkenfaul geworden und prägen damit das Bild der AA-Landschaft. Und AF-Qualitätskontrollen? Wozu? Wurde doch schonmal gemacht! ... pah!
Was ich sagen will: natürlich holt man sich ein CF-System für hohe Auflösungen und/oder 8*MSAA, aber wer holt sich ein SLI-System, um damit nicht ebenfalls an die Grenzen zu gehen? Und ich rede hier von SS-Modi, die die Radeons nicht mal bieten.
Ich will jetzt nicht sagen, dass eine Architektur besser ist, als die andere, aber die Testkultur geht mir auf die Ketten - und alle rufen ja und Amen :|

zu 3) Was zum Henker hat man davon, ob seiner Obsession für einen GPU-Hersteller die generelle Multi-Chip Problematik je nach Bedarf zu verschweigen? Es betrifft hier A, wie B - nur, wenn wir als Käuferschicht geschlossen unseren Stinkefinger zeigen, wird sich da seitens ATi und nV was tun. Wenn wir frei Schnauze das Ganze aber mal erwähnen und dann wieder mal nicht, nur um unsere eigenen persönlichen Flamewars, die langfristig soooo uuunwichtig sind zu gewinnen, dann wird sich da gewiss nix tun.

tombman
2008-01-24, 08:31:52
ATI`s highend (X2)vs. Nividia Highend (ultra)

Es ist egal ob es 2 oder 10 chips sind, hauptsache es ist eine platine!!
Nein, das ist eben nicht egal, solange sich die Karten beim Treiber als SLI oder CF melden :rolleyes:

Erst wenn die sich wie eine Karte verhalten würden, ohne CF oder SLI, DANN wäre es die neue Leistungskrone. So ist es nur SLI oder CF in EINEM pci-e slot, nicht mehr.
Man spart also nur einen slot, das ist alles...

btw, wie so eine dualchip Karte denn letztendlich aussieht, sprich auf 2 oder auf einer Platine, ist sowas von scheißegal...

Gut finde ich, daß die Preise für CF oder SLI jetzt bei 400€ angelangt sind. Dh, es kommt langsam aus dem Nischendasein heraus, und genau DAS muß die Hersteller zwingen gute Qualität zu liefern. Früher war SLI und CF eine 1000€ und mehr Sache-> fast unwichtig. Aber jetzt wirds interessant.

Lange werden die das frametime Problem nicht mehr ignorieren können, wenn Hinz und Kunz die Foren vollspammt und jeder "ES RUCKELT!!!!!" hinausschreit :cool:
Das ist der Tag an dem ich lachen werde ;)

Hydrogen_Snake
2008-01-24, 08:53:43
Da erste benches erscheinen ist es an der zeit für diesen topic.

http://www.pconline.com.cn/diy/graphics/reviews/0801/1210234.html

Dem Threadtitel nach habe ich erwartet das die Ultra verkloppt wird. Aber wir reden hier von 13FPS im 100er bereich, und dazu braucht es 2 der Stärksten ATI's um Nvidias Ultra paroli bieten zu können. Halte ich jetzt mal für hochgradig lächerlich.

iDiot
2008-01-24, 09:02:06
Mal eine blöde Frage am Rande: Ist ein CF auf 2 3870er karten gleich schnell wie die 3870x2 ?

Tarkin
2008-01-24, 09:03:11
Dem Threadtitel nach habe ich erwartet das die Ultra verkloppt wird. Aber wir reden hier von 13FPS im 100er bereich, und dazu braucht es 2 der Stärksten ATI's um Nvidias Ultra paroli bieten zu können. Halte ich jetzt mal für hochgradig lächerlich.

stell dir vor... die doppelte GTS (9800GX2) wird nicht viel (wenn überhaupt) schneller sein als eine 3870X2

Schockierend, nicht war? :wink:

http://www.xtremesystems.org/forums/showthread.php?t=171932

Tigershark
2008-01-24, 09:09:16
Mal eine blöde Frage am Rande: Ist ein CF auf 2 3870er karten gleich schnell wie die 3870x2 ?

Ja, weil es technisch gesehen dasselbe ist.

tombman
2008-01-24, 09:09:35
Ich finde sowohl X2 als auch GX2 langweilig.. ein kleiner Aufguß für die Massen, die Angst vor "echtem" CF oder SLI haben...

Ich will endlich einen neuen Megachip sehen- zb GT200 oder G100 :cool:

Gast
2008-01-24, 09:14:32
Na klar aber bei der 7900 GX2 haben alle gejubelt obwohl es der gleiche Scheiß war.

Grestorn
2008-01-24, 09:16:53
Na klar aber bei der 7900 GX2 haben alle gejubelt obwohl es der gleiche Scheiß war.

An Jubel kann ich mich nicht erinnern. Im Gegenteil. Die GX2 hat deswegen genügend Kritik einstecken müssen.

Die GX2 war damals nur so bemerkenswert, weil sie so günstig war, im Vergleich zu 2 7900 GTs - vorallem als die erste 7900GX2 verramscht wurde (und ich mir deswegen auch 2 davon geholt hatte).

seahawk
2008-01-24, 09:23:14
stell dir vor... die doppelte GTS (9800GX2) wird nicht viel (wenn überhaupt) schneller sein als eine 3870X2

Schockierend, nicht war? :wink:

http://www.xtremesystems.org/forums/showthread.php?t=171932

Warten wir mal ab, ob sich das Bild nicht bei den Single-Chip-Karten mit neueren Cat. Versionen auch einstellt. Wenn man 8XAA nutzt ist ATI schon heute dominant. :up:

Gast
2008-01-24, 09:24:53
Das war noch Multi-GPU-Skalierung:

http://3dcenter.de/images/voodoo5-6000/HeavyMetalFAKK2-PCGHTimedemo_1600x1200x32bpp.png

>100% je zusätzlicher GPU!

*Schnüff*

Dieser ganze AFR/SFR-Mist mag selten mal noch so gut skalieren, durch das Frametime-Problem bringt einem das nichts.

MfG,
Raff

Könnte mal mal endlich aufhören immer wieder die alten 3dfx-Chips rauszukramen, wenn einem etwas an SLI/CF stört? Die heutigen Verfahren AFR/SFR sind dem 3dfx-Verfahren überlegen, die Effizienz bei 3dfx' Konzept war nicht immer berauschend, da es zu jedermenge Verschnitt kommen konnte. Einzig mit SSAA, wo sich dann die Chips die Samples aufteilten gab es wirklich immer 100% Effizienz. Im übrigen genau wie bei CFAA, das nach dem selbven Prinzip arbeitet nur mit MSAA.

reunion

MartinRiggs
2008-01-24, 09:25:39
Ich finde sowohl X2 als auch GX2 langweilig.. ein kleiner Aufguß für die Massen, die Angst vor "echtem" CF oder SLI haben...

Ich will endlich einen neuen Megachip sehen- zb GT200 oder G100 :cool:

Was hat das mit Angst zu tun?
Solange die Lüfter leise sind(was ich allerdings noch bezweifele) ist es doch praktisch SLI/CF performance in nur einem Slot zu haben.
Hab z.b. grade erst erfahren das mein betagtes Gigabyte DS3 ein Beta-Bios für den Yorkfield bekommt, dazu ne 9800GX2/HD3870X2 und die Kiste rockt ohne ende und war viel günstiger als ein x38 oder ein NV 780i-Board mit 2 Karten.
Obwohl mir ein fetter Chip ala G100 oder wie auch immer auch am liebsten wäre.:biggrin:

J0ph33
2008-01-24, 09:26:42
ja, die GX2 war kurzfristig sehr nett....musste dann aber einer X1900XTX weichen, die schon damals fast an die GX2 rankam und heute wohl gnadenlos vorbeizieht...

sei's drum, hat mal jmd die AAA bzw. TAA-Modi eingehend getestet, kann ich z.B. bei der 3870X2 problemlos quality-AAA (also mit SSAA) aktivieren, oder bekomme ich nur noch EATM?
was ist eigentlich mit ASBT und dem ganzen zeug, deren unterschiede ich nie ganz kapiert habe...in X1900er Zeiten musste man da noch in der registry rumfriemeln, kann man das mittlerweile bequem z.B. in den ATTs (unterstützen die mittlerweile die 3800er-Serie?) einstellen oder sogar in Spieleprofile einbetten?

in conclusio: bekomme ich qualitativ gutes und trotzdem performantes adaptives Anti-Aliasing (die flimmernde Vegetation in Crysis würde ich sehr gerne bekämpfen)
was ist eigentlich aus Edge-Detect geworden, das ist irgendwie auch in der Versenkung verschwunden

MadManniMan
2008-01-24, 09:33:05
Warten wir mal ab, ob sich das Bild nicht bei den Single-Chip-Karten mit neueren Cat. Versionen auch einstellt. Wenn man 8XAA nutzt ist ATI schon heute dominant. :up:

Ja. Und wenn man SSAA-Mischmodi nutzt, ist nV heute schon dominant. Und CSAA. Und ATi wiederum bei CFAA.

Mein Gott ist die Welt denn so schwarz-weiß?

tombman
2008-01-24, 09:34:06
Was hat das mit Angst zu tun?
Solange die Lüfter leise sind(was ich allerdings noch bezweifele) ist es doch praktisch SLI/CF performance in nur einem Slot zu haben.
Hab z.b. grade erst erfahren das mein betagtes Gigabyte DS3 ein Beta-Bios für den Yorkfield bekommt, dazu ne 9800GX2/HD3870X2 und die Kiste rockt ohne ende und war viel günstiger als ein x38 oder ein NV 780i-Board mit 2 Karten.
Obwohl mir ein fetter Chip ala G100 oder wie auch immer auch am liebsten wäre.:biggrin:
Naja, aber X2 Karten sind immer nur Übergangslösungen. Für die fetten Brummer braucht man dann eh wieder echtes SLI/CF, deshalb bleibe ich bei 780i- da kann man mehr kranke Sachen mit machen ;)

akuji13
2008-01-24, 10:27:28
Dem Threadtitel nach habe ich erwartet das die Ultra verkloppt wird. Aber wir reden hier von 13FPS im 100er bereich, und dazu braucht es 2 der Stärksten ATI's um Nvidias Ultra paroli bieten zu können. Halte ich jetzt mal für hochgradig lächerlich.

Wenn gesagt wird, ein Intel Quad sei kein richtiger Quad, kommt immer das Argument "Wichtig ist, was hinten rauskommt!".
Vor allem wenn man mal schaut, das CF so weniger Strom frisst (im Idle) als eine einzelne 8800 Ultra (unter Last sind beide gleichauf).
http://www.hartware.de/review_777_11.html

Dieses Argument nehme ich jetzt in Anspruch (obwohl ich niemals eine solche Karte erwerben würde, weil die mir viel zu teuer ist).

:wink:

Gast
2008-01-24, 10:32:31
Wenn gesagt wird, ein Intel Quad sei kein richtiger Quad, kommt immer das Argument "Wichtig ist, was hinten rauskommt!".

Jo und was kommt bei Sli/CF raus?

Heisse Luft und tolle Benchergebnisse.

akuji13
2008-01-24, 10:58:46
Und was kommt beim Quad (Intel oder AMD völlig wurscht) raus?
4 Kerne die maximal 30% schneller sind! :biggrin:

Wer das Geld hat und es dafür ausgeben will:
Bitte!
Und der Spaß sei ihm/ihr/ihnen gegönnt!

:wink:

Matzi
2008-01-24, 11:01:00
Jo und was kommt bei Sli/CF raus?

Heisse Luft und tolle Benchergebnisse.

hast du überhaupt jemals sli/cf in anwendung gehabt ?:confused:
es kommt einfach drauf an wie viel arbeit du in die optimierung steckst, keine optimierung kann eben leicht ne schlechte skalierung bedeuten !

Gast
2008-01-24, 11:16:34
hast du überhaupt jemals sli/cf in anwendung gehabt ?:confused:
es kommt einfach drauf an wie viel arbeit du in die optimierung steckst, keine optimierung kann eben leicht ne schlechte skalierung bedeuten !
Unsinn.
Ich meinte damit Mikroruckler1111!!!!!
Oder wer hat etwas von gefakten FPS, wenn die wahren gefühlten schrecklich sind?


Und was kommt beim Quad (Intel oder AMD völlig wurscht) raus?
4 Kerne die maximal 30% schneller sind! :biggrin:

Das ist falsch.
Mit dem richtigen Anwender (anscheinend nicht du) bringt ein Quad die 4fache Leistung eines Single.

akuji13
2008-01-24, 11:38:56
Unsinn.
Das ist falsch.
Mit dem richtigen Anwender (anscheinend nicht du) bringt ein Quad die 4fache Leistung eines Single.

Ok, beweise es.
Ich beziehe mich auf Spiele (schließlich geht es hier auch um SLi/CF), zeig doch mal ein Spiel wo ein Quad die 4 Fache Leistung bringt...in einer realitätsnahen Auflösung und Qualitätseinstellungen bitte.

Da das ganze aufgrund der inzwischen veralteten SCs garnicht mehr nachstellbar ist, vergleich bitte eine Core2Duo mit einem Quad (der die doppelte Leistung bieten muss).

Ich fang mal an:
http://www.computerbase.de/artikel/hardware/prozessoren/2007/test_intel_core_2_extreme_qx9770_q9450/20/#abschnitt_performancerating

Selbst in Anwendungen schafft er nicht doppelt soviel, sondern maximal 33% mehr.
In Spielen lächerliche 3%.

:wink:

vinacis_vivids
2008-01-24, 11:46:22
Leute, die Quad CPU Diskussion gehört nicht hierhin. Haben schon genug mit der 3870x2 zu tun.

Gast
2008-01-24, 11:48:53
zeig doch mal ein Spiel wo ein Quad die 4 Fache Leistung bringt...in einer realitätsnahen Auflösung und Qualitätseinstellungen bitte.
Bitte:
Supreme Commander

Absoluter CPU Fresser, wunderbare Multicore Skalierung.

Gast
2008-01-24, 11:58:39
@vinacis_vivids

du hast gestern gesagt (heute früh) das die X2 die GX2 platt macht, ich sagte wird schwer.
Jetzt sag ich , die wird ungespitzt in den Boden gehämmert ohne probleme.

schonma lol wie die aussehen tut xD
http://forums.vr-zone.com/showthread.php?t=229189


und hier simuliert man die GX2 mit 2 GTS Karten:
http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=9959&Itemid=44&limit=1&limitstart=5

wenn ich sehe das die GX2 nur paar FPS schneller ist als 1x HD 3870,sieht es ganz schlecht aus für die GX2.


ATI ist back :love:

Matzi
2008-01-24, 12:04:58
Unsinn.
Ich meinte damit Mikroruckler1111!!!!!
Oder wer hat etwas von gefakten FPS, wenn die wahren gefühlten schrecklich sind?



Das ist falsch.
Mit dem richtigen Anwender (anscheinend nicht du) bringt ein Quad die 4fache Leistung eines Single.

@gast ..... dann sag doch einfach dazu was du meinst !

vinacis_vivids
2008-01-24, 12:25:13
Für alle die zu faul sind auf Links zu drücken: Ich fass nochmal zusammen:

Hier der erste Eindruck der 9800GX2, wenn da mal kein Wunder passiert.

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/Bioshock_1920.png

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/UT3_1920.png

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/Jericho_1920_aa.png

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/HL2_1920.png

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/WiC_1920_aa.png

http://pctuning.tyden.cz/ilustrace3/obermaier/2xG92/Crysis_1920.png

Naja, man müsste stolz auf Nvidia sein, sie habens ja nun geschafft ne fast gleichwertige Karte wie die alte Ultra für bissel billiger zu kreieren.

AnarchX
2008-01-24, 12:47:20
Die Werte stammen von einem untertaktetem 8800 GTS SLI und von keiner 9800 GX2:
http://www.xtremesystems.org/forums/showthread.php?t=171932&highlight=gx2+simulation

"At least 30%" verspricht NV momentan selbst gegenüber der 8800 Ultra. ;)


Und projizier mal dort eine 3870X2 hinein -> 3870*<1.8... :D

Gast
2008-01-24, 12:54:25
das wissen alle, ist doch das selbe in Grün, mehr Power bekommen sie net, noch weniger komtm dann wohl eher hin.

PCie 8x8 was die GX2 hat, wird gut an leistung kosten.

Es gab mal ein Test da haben sie ne GTX/Ultra auf PCIe 8x gezwungen in dem sie die Kontakte abgeklebt haben, es war ganz böse was es an Leistung gekostet hat und das selbe Leid wird die GX2 acuh erfahren.

Banshee18
2008-01-24, 13:00:01
Ich habe hier mal ordentlich entrümpelt. Noch habe ich keine Karten vergeben, was sich aber schnell ändern kann, wenn das Niveau nicht steigt und ich weiterhin "Nettigkeiten" hier lesen muss.

Bei den getesteten Spielen scheint Crossfire ja hervorragend zu funktionieren, ohne exe-Renaming. Die entscheidende Frage ist, wie gut CF bei weniger populären Spielen funktioniert.
Zumindest, wenn man nur populäre Spiele spielt und einen die Mikroruckler nicht stören, ist die x2 eine ausgezeichnete Karte, vor allem für hohe Auflösungen und mit viel AA. Unter diesen Bedingungen gibt es praktisch keine Alternative, zumindest nicht zu diesem Preis.

Ähnliche Mikroruckler treten anscheinend mit vSync + Triplebuffering auf. Damit kann also jeder selbst testen, ob ihn die Mikroruckler stören.

Gast
2008-01-24, 13:03:57
zum 100ten x, Micoruckler kann man bei CF Messen mit Fraps, aber merken tut man das nicht egal bei welchem Spiel.

Egal was Tombman sagt, er hat ja nur gemessen aber nicht gespielt mit seine loligen CF Test (wenn man das überhauot so bezeichenn kann).

SLI hats Crossfire nicht, ownet.

MadManniMan
2008-01-24, 13:04:43
Besten Dank für den Rundumschlag :up:




Zumindest, wenn man nur populäre Spiele spielt und einen die Mikroruckler nicht stören, ist die x2 eine ausgezeichnete Karte, vor allem für hohe Auflösungen und mit viel AA.

Freilich stellt sich die Frage, was "viel AA" bedeutet.
Es wird doch eh nur noch 4* und 8* MSAA getestet. Für die Redakteure existieren 2*MSAA, CFAA, CSAA, TSAA und Mischmodi faktisch gar nicht mehr. Wie soll man denn überhaupt noch ersinnen, wie es sich mit all diesen Modi verhält?

Durch diesen "AA-Rassismus" wird ein Bild geprägt, was die Möglichkeiten der Chips völlig außer Acht läßt. "Viel AA" kann auch ganz schnell was anderes heißen - und wie verhält es sich da? Wir wissen es nicht.

vinacis_vivids
2008-01-24, 13:08:59
Die Werte stammen von einem untertaktetem 8800 GTS SLI und von keiner 9800 GX2:
http://www.xtremesystems.org/forums/showthread.php?t=171932&highlight=gx2+simulation

"At least 30%" verspricht NV momentan selbst gegenüber der 8800 Ultra. ;)


Und projizier mal dort eine 3870X2 hinein -> 3870*<1.8... :D

Selbst bei den Prophezeiten 30% wird die Karte in höheren Auflösungen und AA nur das Hinterteil der 3870x2 sehen ;).

Naja, du bist wohl einer der wenigen Anhänger, die auf ein Wunder hoffen.
2x512MB GDDR3 und 256bit SI stehen schon mal fest, genauso wie 128 Stream Einheiten pro GPU. Spricht exakt den Angaben der G92-GTS, mich würds wundern wenn Nvidia plötzlich einen neuen Chip herauf zaubert. Selbst ein hochgezüchteter G92 kann nicht viel ausrichten, da ist immer noch der 256bit SI, der den G92 den Saft rauspresst.
Bei dem Preis von 449$ ist auch nichts anderes drin als 2xG92 GPU auf der Platine zu löten, GDDR4 ist zu teuer. Alles andere ist schönes Wunschdenken =)



Besten Dank für den Rundumschlag :up:





Freilich stellt sich die Frage, was "viel AA" bedeutet.
Es wird doch eh nur noch 4* und 8* MSAA getestet. Für die Redakteure existieren 2*MSAA, CFAA, CSAA, TSAA und Mischmodi faktisch gar nicht mehr. Wie soll man denn überhaupt noch ersinnen, wie es sich mit all diesen Modi verhält?

Durch diesen "AA-Rassismus" wird ein Bild geprägt, was die Möglichkeiten der Chips völlig außer Acht läßt. "Viel AA" kann auch ganz schnell was anderes heißen - und wie verhält es sich da? Wir wissen es nicht.


In vielen Testes wird nicht mal 8AA getestet :), das würde das Bild von Nvidia völlig zerstören.

8*MSAA vs 4*MSAA kannste hier selbst bestaunen:

4MSAA
http://www.abload.de/img/crysis642008-4aagcpsh8.jpg

8MSAA
http://www.abload.de/img/crysis642008-8aalxidkx.jpg

MadManniMan
2008-01-24, 13:10:53
Selbst bei den Prophezeiten 30% wird die Karte in höheren Auflösungen und AA nur das Hinterteil der 3870x2 sehen ;).

Ich frags gern nochmal: existieren nur noch 4* und 8* MSAA als einzige AA-Modi?

Gast
2008-01-24, 13:13:58
Für die Redakteure existieren 2*MSAA, CFAA, CSAA, TSAA und Mischmodi faktisch gar nicht mehr.
Ja das ist echt schade.
Dafür wird 1280x1024 ohne AA getestet. :ugly:



Bei dem Preis von 449$ ist auch nichts anderes drin als 2xG92 GPU auf der Platine zu löten, GDDR4 ist zu teuer. Alles andere ist schönes Wunschdenken =)
Erstaunlich, das der Preis überhaupt so billig ist.
2* GTS512 kosten doch ein Stück mehr als 449$.

Banshee18
2008-01-24, 13:14:37
Mit "viel AA" meinte ich 8xAA. Dass die ganzen anderen Modi nicht mehr getestet werden, ist natürlich sehr schade, vor allem bei Edge Detect würde mich interessieren, ob das inzwischen performanter ist.
Die andere Frage ist, ob man bei sehr hohen Auflösungen überhaupt 8xAA braucht. Ich persönlich kann ohne leben. 1600x1200 mit 4xAA reicht mir vollkommen. Wenn ich dann noch die Wahl zwischen 4xAAA und 8xAA habe, ist klar, worauf die Wahl fällt. Aber leider wird auch AAA nicht mitgetestet. Erbärmlich.:(

Gast
2008-01-24, 13:17:06
Ich denke die wird über 500 € kosten, die GTS kostet ja schon 300 € also können 2 nicht weniger kosten :ugly:

MSABK
2008-01-24, 13:17:22
Sehe ich das richtig, haben die bei NV 2 PCBs verwendet?

Werden das die neuen High End Karten? Oder kommen da noch Single Kard High End Karten?

vinacis_vivids
2008-01-24, 13:18:32
Mit "viel AA" meinte ich 8xAA. Dass die ganzen anderen Modi nicht mehr getestet werden, ist natürlich sehr schade, vor allem bei Edge Detect würde mich interessieren, ob das inzwischen performanter ist.
Die andere Frage ist, ob man bei sehr hohen Auflösungen überhaupt 8xAA braucht. Ich persönlich kann ohne leben. 1600x1200 mit 4xAA reicht mir vollkommen. Wenn ich dann noch die Wahl zwischen 4xAAA und 8xAA habe, ist klar, worauf die Wahl fällt. Aber leider wird auch AAA nicht mitgetestet. Erbärmlich.:(

Siehe mein edit mit Crysisshot von einem CF System.

seahawk
2008-01-24, 13:24:04
Siehe mein edit mit Crysisshot von einem CF System.

Immer wieder beeindruckend. ATI ist der BQ-King. :love:

vinacis_vivids
2008-01-24, 13:24:34
Ich frags gern nochmal: existieren nur noch 4* und 8* MSAA als einzige AA-Modi?

Es sind die, die am häufigsten benutzt werden. Was du hier in Frage stellst, betrifft nicht direkt die 3870x2 sondern generell alle Graka-Tests.
Der Aufwand für einen solchen Test mit Betrachtung von allen möglichen AA Kombis wächst exponentiell an, was für den Testenden einfach nicht mehr ökonomisch ist.

Liszca
2008-01-24, 13:25:10
Siehe mein edit mit Crysisshot von einem CF System.

also echt der unterschied zu mit der lupe zu suchen. auch an deiner markierung konnte ich jetzt nicht wirklich die verbesserung erkennen, imho hätte 6x aa max auch gereicht.

wie wärs mal mit niedrigerer auflösung und 8x aa?

Banshee18
2008-01-24, 13:27:23
Siehe mein edit mit Crysisshot von einem CF System.
Crysis ist eine der wenigen Ausnahmen, wo ich mir mehr als 4xAA wünsche. Aber ob man 8xAA auch noch bei 2560x1600 braucht? Crysis ist da sowieso nicht spielbar, aber es gibt auch noch andere Spiele (was einige manchmal vergessen;))

also echt der unterschied zu mit der lupe zu suchen. auch an deiner markierung konnte ich jetzt nicht wirklich die verbesserung erkennen, imho hätte 6x aa max auch gereicht.

wie wärs mal mit niedrigerer auflösung und 8x aa?
Hast du Crysis? Dann teste es selbst, den Unterschied zwischen 8xAA und 4xAA sieht man. Wenn die Grafikkarten mal schnell genug sind, würde ich aber dennoch 4xAAA den Vorzug geben.

vinacis_vivids
2008-01-24, 13:27:50
also echt der unterschied zu mit der lupe zu suchen. auch an deiner markierung konnte ich jetzt nicht wirklich die verbesserung erkennen, imho hätte 6x aa max auch gereicht.

wie wärs mal mit niedrigerer auflösung und 8x aa?

Du konntest selbst an der Markierung nichts erkennen? Dann isses ein klarer Fall vom schlechten Monitor oder schwache Augen. Ich werds gleich nochmal genauer zeigen.

vinacis_vivids
2008-01-24, 13:30:49
Crysis ist eine der wenigen Ausnahmen, wo ich mir mehr als 4xAA wünsche. Aber ob man 8xAA auch noch bei 2560x1600 braucht? Crysis ist da sowieso nicht spielbar, aber es gibt auch noch andere Spiele (was einige manchmal vergessen;))

Crysis ist die absolute Referenz was Grafikpracht angeht. Ich brauch jedenfalls bei HL2 mit 1920x1200 mehr als 4xAA. Doom 3 mit 8SAA bei der Auflösung tut auch gut. Für mich gilt immernoch : Egal welche Auflösung: AA ist immer eine Verbesserung.