PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie 2 kleine Zwillinge auszogen um das Monster zu verkloppen. (HD3870 X2 vs. Ultra)


Seiten : 1 2 [3]

Gast
2008-01-28, 10:22:37
Noch vor Ablauf des NDA? *Kopfschüttel*

Naja so ein NDA ist heutzutage eben nicht mehr allzu viel wert.

Gast
2008-01-28, 10:23:43
lol aber ich glaube ich verkaufe sie wieder. Habe in rfactor weniger frames als mit 8800 gtx

seahawk
2008-01-28, 10:25:15
Eigentlich Hammer was ATI da liefert.

- Die schnellste Karte am Markt
- die einzige High-End-Karte mit DX10.1
- überlegen mit 8xMSAA

und im 2Q/08 kommt RV770. Ich hätte nicht gedacht, dass man nach der X2900 Panne so schnell wieder den Markt beherrschen wird.

BlackBirdSR
2008-01-28, 10:29:35
Für interessant halte ich in diesem Fall die früheren Überlegungen, Nvidia-Karten hätten in DX10 keine Chance gegen die R6xx-Chips. Am Ende ist die HW auf der einen Seite wohl doch nicht so überlegen - auf der anderen Seite der Treiber nicht optimal.

Trotzdem sind die Benchmarks wie ich finde sehr gut für so eine Karte. Bis zu Nvidias Gegenschlag ein wilkommener Imagegewinn für ATI

Edit: hmm wie sollte man denn all die Beiträge jetzt zusammenführen? Zwei Threads brauchen wir eigentlich nicht. Zuständiger Mod da?

Skullcleaver
2008-01-28, 10:29:40
Ich hau mich weg echt XD Markt beherschen XD Der Nvidie Pendant ist noch garnicht da DirectX10 ist noch nichtmal wirklich verbreitet da ist Direct3D10.1 überflüssig wie ein Kropf
Wow es gibt ja auch nur einen AA Modi.

Leute echt. Markt beherschen *Kopfschüttel* Man kann sich höchstens drauf einiegen das sie endlich Anschluß gefunden haben. Von Marktbeherschen kann aber echt nicht die Rede sein nichtmal Ansatzweise.

Hydrogen_Snake
2008-01-28, 10:33:05
Wozu überhaupt eine Flagge hochhalten? Was das angeht bist Du nämlich unschlagbarer Meister. Du hältst nicht nur eine rote Flagge hoch, Du zündest einen ganzen Urwald rot leuchtend an.

Ha, sehr geil. Was läuft hier für ein mist ab? Ich brech ab, wie die x2 mit ner Single karte von CB getestet wurde, und die x2 gleich mal kreise dreht!?!? Sagt mal wirklich was über CB aus.

Gast
2008-01-28, 10:34:38
Edit: hmm wie sollte man denn all die Beiträge jetzt zusammenführen? Zwei Threads brauchen wir eigentlich nicht. Zuständiger Mod da?

Ich würde einen neuen, anständigen Thread aufmachen und die zwei jetztigen einfach schließen. Die laufen ohnehin schon völlig aus dem Ruder.

reunion

DrMabuse1963
2008-01-28, 10:35:49
seit Samstag www.stegpc.ch :-)
Wird im shop mit 1GB angegeben,hamse den Speicher einfach Addiert.
http://www.stegcomputer.ch/shop.asp

Gast
2008-01-28, 10:36:54
Man kann sich höchstens drauf einiegen das sie endlich Anschluß gefunden haben.


Nicht einmal das.
Man braucht zwei Chips um einen mehr als 12 Monate alten Einzelchip knapp zu schlagen, und das auch nur dort wo AFR funktioniert.

MadManniMan
2008-01-28, 10:41:02
Eigentlich Hammer was ATI da liefert.

Ich schätze Dich als durchaus mündigen, aufgeschlossenen, ja intelligenten Diskussionspartner, aber wenn es bei Dir um ATi geht, weiß ich echt nicht mehr, was Dich zu Deinen Aussagen bringt...

Entweder Du machst Dich über uns lustig und/oder polarisierst gern, oder Du verdingst Dich mit derartigen Aussagen. :confused:



- Die schnellste Karte am Markt

...mit allen Problemen von CrossFire.



- die einzige High-End-Karte mit DX10.1

...was vielleicht OEMs, nicht aber Gamer juckt.



- überlegen mit 8xMSAA

...ich kanns nicht mehr hören! Ja sie ist es, und sie bietet auch die tollen ED-CFAA-Modi - dafür aber auch tendenziell schlechteres AF und auf der anderen Hand eben auch nicht die Mischmodi von nV.


Beantworte mir bitte einmal endgültig, warum Du immer so bewusst einseitig postest! Bitte!



und im 2Q/08 kommt RV770. Ich hätte nicht gedacht, dass man nach der X2900 Panne so schnell wieder den Markt beherrschen wird.

Beherrschen? :ucatch:

Im Low-End obsiegt man gegen nV, ja. Im unteren Mainstream sind ATi und nV etwa gleichwertig, weil ATi mit dem Preis drückt, während nV mehr Performance bietet. Im oberen Mainstream ist ATi mit der 3850 256 freilich konkurrenzlos (8800 GS und 8800 GT 256 sind zu teuer), während im Performancesegement relative Ausgeglichenheit herrscht, nV aber die schnelleren, wenn auch teureren Modelle liefert. Und dann sind da noch die 8800 GTX und Ultra, die freilich auslaufen, aber die schnellsten Single-Chip Lösungen bieten.

Ich sehe da beim besten Willen kein Beherrschen seitens ATi, nur eine ziemliche Ausgeglichenheit über den gesamten Markt hinweg. Freilch kommt der RV770 im zweiten Quartal (zumindest hoffe ich das), aber nV wird die Füße auch nicht still halten.

MartinRiggs
2008-01-28, 10:46:18
Gibt es hier eigentlich keinen der zumindest etwas objektiv probiert an die Sache ranzugehen.

Pro HD3870X2
Schnell grade in hohen Auflösungen
schnell mit 8xAA
Preis ca. 390€
DX10.1(ob man es wirklich braucht:confused:)
Idle-Stromverbrauch

Contra HD3870X2
braucht viel Saft unter Last
nur wenn CF funktioniert hat man die volle Power
relativ lauter Lüfter(vielleicht reisst es die Asus-Karte raus??)
Passt wohl wie die Ultra nicht in jedes gehäuse


Pro 8800 Ultra
teilweise nur wenig langsamer
richtiger Single-Chip, also immer volle Leistung abrufbar
Hybrid-Modi(auch wenn die teilweise überschätzt werden, grade bei neuen Games geht jede Geforce damit ein, grade wenn es richtig fetzt auf dem Bildschirm)

Contra 8800 Ultra
immer hoher Verbrauch, egal ob Idle oder Last.
Preis, mit 508€(günstigster Versender bei Geizhals) absolut überteuert.
Passt auch nicht in jedes Gehäuse

Achso noch etwas zur Bildqualität
Ich hatte ne HD3870 und jetzt ne 8800GT und ich habe zwischen den beiden 16xAF kaum/keinen Unterschied gesehen.
Ich will nicht behaupten das es keine gibt, aber bis auf unsere Sensibelchen mit Lupe auf der Brille sollte die HD3870 /x2 für alle Ansprüche genügen.:wink:
Allerdings bilde ich mir ein das MSAA bei ATI besser aussah, allerdings ist das nur mein Subjektiver Eindruck

Fazit:
Faule Leute(so wie ich) werden wohl bei Single-Chip-Karten bleiben, da man IMMER die volle Leistung hat.
Für alle experimentierfreudigen mit P965/P35-Board oder ähnliche die nur einen Slot haben ist das ne interessante leistungsfähige Karte.
Allerdings muss man auch mal den Mumm haben ne Exe umzubenennen :biggrin: und man sollte nicht allzu Lautstärkeempfindlich sein(vielleicht hilft da Asus mit der Karte die zwei 80er Lüfter hat.



Ich denke die GX2 von NV wird sich ein Kopf an Kopf rennen mit der X2 liefern, über wohl und wehe entscheiden dann die Treiber.
Und bitte hört auf "euren" Hersteller über den Grünen Klee zu loben, beide IHV haben wohl genug Baustellen.

K4mPFwUr$t
2008-01-28, 10:48:58
seahawk scheint blind zu sein, die X2 ist eher ein armutszeugnis für ATI. so wie es die 7800/7900GX2 damals für NV war.

Skullcleaver
2008-01-28, 10:50:07
Fühl dich jetzt nicht auf den Schlippsgetreten aber das wurde doch alles schon genannt? Ok nicht in einem Post...

vinacis_vivids
2008-01-28, 10:53:54
seahawk scheint blind zu sein, die X2 ist eher ein armutszeugnis für ATI. so wie es die 7800/7900GX2 damals für NV war.

Hast was vergessen: Die 3870x2 ist kompakter als die 7900GX2 =)

mapel110
2008-01-28, 10:57:51
Pro HD3870X2
Schnell grade in hohen Auflösungen
schnell mit 8xAA
Preis ca. 390€
DX10.1(ob man es wirklich braucht:confused:)
Idle-Stromverbrauch

Contra HD3870X2
braucht viel Saft unter Last
nur wenn CF funktioniert hat man die volle Power
relativ lauter Lüfter(vielleicht reisst es die Asus-Karte raus??)
Passt wohl wie die Ultra nicht in jedes gehäuse
microruckler


Und obendrein bekommt man die 8800 GTX für 315 €
http://geizhals.at/deutschland/a259454.html
lassen sich auch sehr gut in Richtung Ultra via Takt anheben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=399631

Mugen
2008-01-28, 10:58:41
Im Vergleich zur 8800 Ultra mag die 3870 X2 ein gutes Preis/Leistungsverhältniss haben,
vergleicht man sie jedoch mit der 3870, kehrt sich das Bild eindeutig um, denn:

Man bezahlt 100% mehr beim Preis, für durchschnittlich 50% Mehrleistung.
Dieser (den software-technischen Grenzen geschuldeter) Umstand trifft ja zur Zeit auf alle
Dual-GPU Karten zu und macht sie allsamt für Preis/Leistung-Verhältniss bewusste User uninteressant.

Gast
2008-01-28, 11:02:23
Im Vergleich zur 8800 Ultra mag die 3870 X2 ein gutes Preis/Leistungsverhältniss haben,
vergleicht man sie jedoch mit der 3870, kehrt sich das Bild eindeutig um, denn:

Man bezahlt 100% mehr beim Preis, für durchschnittlich 50% Mehrleistung.
Dieses Problem trifft nebenbei auf alle Dual-GPU Karten zu und macht sie
allsamt für preisbewusste User uninteressant.

Wer das schnellste vom schnellen will musste schon immer überproportional mehr bezahlen. Im Osten nicht neues also.

reunion

[dzp]Viper
2008-01-28, 11:03:44
I
Man bezahlt 100% mehr beim Preis, für durchschnittlich 50% Mehrleistung.
Dieses Problem trifft nebenbei auf alle Dual-GPU Karten zu und macht sie
allsamt für preisbewusste User uninteressant.

Es war schon immer so, dass man für die absoluten High-End Karten verhältnismäßig wesentlich mehr zahlen musste als man dafür Leistung bekommen hat.

GTX 330€ >> Ultra 500€ - für ca. 5-10% mehr Performance

Das war schon immer so, und wird immer so sein

Ein Auto mit 140PS für 30 000€ fährt auch seine 210kmh
Ein Auto mit 240PS für 60 000€ fährt dann aber auch nicht aufeinmal 420kmh

- okay blöder Vergleich aber ich denke es zeigt, worauf ich hinaus will. ;)

Gast
2008-01-28, 11:08:23
Wer höchstmögliche Qualität haben will guckt sich das an: =)


wer höchstmögliche qualität haben will, wird sich sicher nicht mit ATIs AI-AF zufrieden geben.

seahawk
2008-01-28, 11:08:53
...mit allen Problemen von CrossFire.

Das ist richtig. Ein schneller Ersteindruck, der mir zugetragen wurde sagt zwar, dass die Micro-Ruckler kaum wahrnehmbar sein sollen, aber da handelte es sich auch mehr um Tests, die einem üblichen Benchmarkparcour entsprechen. Bei älteren Spielen soll es teilweise recht schlecht aussehen. Wer sich für CF entscheidet (bei SLI besteht das gleiche Problem, aber man kann mehr im treiber regeln) geht immer einen gewagten Kompromiss ein. Plug and Play ist die X2 sicher nicht und wird es nie sein.


...was vielleicht OEMs, nicht aber Gamer juckt.


Die Relevanz wird sich zeigen, auch wenn ich die Revelanz eher gering halte, aber tortzdem ist es mal ein Feature, dass vorhanden ist. NV lobte man ja auch für die frühe Implementierung von SM3.0.

...ich kanns nicht mehr hören! Ja sie ist es, und sie bietet auch die tollen ED-CFAA-Modi - dafür aber auch tendenziell schlechteres AF und auf der anderen Hand eben auch nicht die Mischmodi von nV.


Naja, ist ne schwierige Kiste. 8xMSAA ist eigentlich der einzige Modus der vergleichbar ist und es macht schon Sinn solche Karten in dem höchsten, halbwegs vergleichbaren, Qualitätsmodus zu testen. Zumindest weit mehr als es Sinn macht die "normalen" 3870 und 8800GT mit 8xMSAA zu vergleichen. Für mich persönlich sind die 8xMSAA-Werte aber auch drittranging.

[dzp]Viper
2008-01-28, 11:09:26
wer höchstmögliche qualität haben will, wird sich sicher nicht mit ATIs AI-AF zufrieden geben.

Bitte nicht wieder damit anfangen :usad:

MadManniMan
2008-01-28, 11:12:29
Das ist richtig. Ein schneller Ersteindruck, der mir zugetragen wurde sagt zwar, dass die Micro-Ruckler kaum wahrnehmbar sein sollen, aber da handelte es sich auch mehr um Tests, die einem üblichen Benchmarkparcour entsprechen. Bei älteren Spielen soll es teilweise recht schlecht aussehen. Wer sich für CF entscheidet (bei SLI besteht das gleiche Problem, aber man kann mehr im treiber regeln) geht immer einen gewagten Kompromiss ein. Plug and Play ist die X2 sicher nicht und wird es nie sein.

Die Relevanz wird sich zeigen, auch wenn ich die Revelanz eher gering halte, aber tortzdem ist es mal ein Feature, dass vorhanden ist. NV lobte man ja auch für die frühe Implementierung von SM3.0.

Naja, ist ne schwierige Kiste. 8xMSAA ist eigentlich der einzige Modus der vergleichbar ist und es macht schon Sinn solche Karten in dem höchsten, halbwegs vergleichbaren, Qualitätsmodus zu testen. Zumindest weit mehr als es Sinn macht die "normalen" 3870 und 8800GT mit 8xMSAA zu vergleichen. Für mich persönlich sind die 8xMSAA-Werte aber auch drittranging.

...OK - langsam begreife ich ;)

Skullcleaver
2008-01-28, 11:12:39
Viper;6231350']Bitte nicht wieder damit anfangen

Naja wo er recht hat... manche sehen es halt nicht ein ^^

Gast
2008-01-28, 11:13:28
rofl der Test bei Computerbase ist naja nicht sehr aussagekräftig

Nur als Bsp. Call Of Juarez (1280x1024)

im Test zur HD3870:

HD3870: 32,3 fps
8800 Ultra: 31,2 fps

im Test zur HD3870X2:
HD3870: 31,1 fps
8800 Ultra: 46,3 fps

:ulol:

schon mal daran gedacht, dass treiber auchmal erneuert werden?

vinacis_vivids
2008-01-28, 11:16:05
Der von vielen hochgelobte Super-Ultratakt wird hier nicht viel helfen:

http://www.abload.de/img/nvidiadeadro6.jpg

Man bräuchte Triple SLI 8800 Super Ultra um da aufzuschließen oder ca. 8 mal G92 Chip spricht Qual SLI 9800GX2. Wie auch immer.

DrMabuse1963
2008-01-28, 11:18:43
50% Steigerung in wieviel Wochen??

K4mPFwUr$t
2008-01-28, 11:18:45
ist schon toll wenn man eine CF karte mit non CF und non SLI systemen vergleicht :rolleyes:

Skullcleaver
2008-01-28, 11:19:03
Der von vielen hochgelobte Super-Ultratakt wird hier nicht viel helfen:

http://www.abload.de/img/nvidiadeadro6.jpg

Man bräuchte Triple SLI 8800 Super Ultra um da aufzuschließen oder ca. 8 mal G92 Chip spricht Qual SLI 9800GX2. Wie auch immer.
Jungen das hatten wir doch grade schonmal.

vinacis_vivids
2008-01-28, 11:22:18
Hab mich geirrt sry. Triple SLI reicht leider nicht um razukommen :redface: Man bräuchte ja mindestens eine Verdopplung, bei Triple SLi warens nur 83% ;(

http://www.abload.de/img/trisliqrw.jpg

Skullcleaver
2008-01-28, 11:25:21
Schön stell nen anderen Modi ein was dann?

AnarchX
2008-01-28, 11:28:45
Interessant ist aber, dass bei CB sich RV670s 8xMSAA-Stärke hauptsächlich unter D3D9 zeigt, während unter D3D10 eher die GF8 vorne liegen.
Ob da wohl dank Z-First-Pass dieser Renderer GF8 schliesslich doch seine brachiale Z-Power ausspielen kann? :|

Aber naja, lassen wir den etwas einfältigeren Fanboys doch die Freude, dass NV teilweise dochmal das Nachsehen hat:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/11/#abschnitt_f_e_a_r
X-D (Hier könnte man auf GF8 gar schon 16xS aktivieren, was genausoviel kosten sollte wie 8xMSAA @ 2560x1600)

mapel110
2008-01-28, 11:29:03
Der von vielen hochgelobte Super-Ultratakt wird hier nicht viel helfen:

http://www.abload.de/img/nvidiadeadro6.jpg

Man bräuchte Triple SLI 8800 Super Ultra um da aufzuschließen oder ca. 8 mal G92 Chip spricht Qual SLI 9800GX2. Wie auch immer.
Ist nur die Frage, wer mit 2560er Auflösung und 8xAA spielen will.

Clive Barker's Jericho
unspielbar langsam, keine fps-Angabe
Unreal Torunament 3
Absturz
Call of Juarez
3,4 fps
Company of Heroes
3,4 fps
Lost Planet
Absturz
Gothic3 ohne AA
12 fps

Nutzbar ist das Setting eher nicht.

seahawk
2008-01-28, 11:35:13
Vor allem sind alle Benches bei CB ohne TSSAA und AAA, wo im Ergebnis 4xMSAA + TSSAA/AAA immer besser aussieht als 8xMSAA. Schaltet man bei 8xMSAA die entsprechenden Glättungen für die Alphatexturen zu, dann liegt dieses Setting in allen Auflösungen ab 1600x1200 wahrscheinlich sowieo überwiegend im unspielbaren Bereich.

Ich persönlich würde nie mehr auf TSSAA verzichten und würde sogar 2xMSAA + TSSAA 8xMSAA vorziehen.

deekey777
2008-01-28, 11:38:00
Das Hauptproblem für die AMD-Karten dürfte wohl sein das Crysis einen Z-First-Pass macht, wo sich natürlich die höhere Z-Füllrate der NV-Karten auszahlt.

reunion
Das halte ich aber für einen Trugschluss. Einmal ist die Erstellung dieses Z-Buffers alles andere als aufwendig, andererseits liegt die Hauptlast weiterhin auf den "traditionellen" Schwerpunkten wie Texturierung, Berechnung der Farbwerte usw.

AnarchX
2008-01-28, 11:38:26
ack.
Ein 4x TMSAA-Vergleich wäre um einiges interessanter als 8xMSAA.
(Interessant ist ja auch 8xCSAA inkl. TMSAA -> Kanten besser als 4x, Alphatests mit ausreichendem, sparsamen 4x)

Gast
2008-01-28, 11:38:48
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/11/#abschnitt_f_e_a_r
X-D (Hier könnte man auf GF8 gar schon 16xS aktivieren, was genausoviel kosten sollte wie 8xMSAA @ 2560x1600)

Dazu hätte ich doch gerne mal Benchmarks, behaupten kann man bekanntlich viel. 16xS verwendet neben vier SSAA-Samples auch insgesamt nicht weniger als 16 MSAA Samples, wie das ähnlich schnell wie 8xMSAA sein soll, muss erstmal jemand erläutern.

reunion

MadManniMan
2008-01-28, 11:38:59
Es ist echt traurig, dass nur noch 1*/1*, 1*/16*, 4*/16* und 8*/16* gebencht wird - erinnert mich irgendwie an die Zeit vor 5 Jahren, als auch nur pauschal 1*/1*, 2*/4* und 4*/8* gebencht wurde.

Kein Schwanz hat überhaupt noch ne Ahnung, was die Grafikkarten tatsächlich können!

vinacis_vivids
2008-01-28, 11:39:02
Ist nur die Frage, wer mit 2560er Auflösung und 8xAA spielen will.

Nutzbar ist das Setting eher nicht.

Wenn man die Option überhaupt hat.... Wird noch häufiger vorkommen,dass Engines auch in nahezu perfekter Qualität genießbar werden.

http://www.abload.de/img/spielbarkeitsen.jpg

MadManniMan
2008-01-28, 11:40:24
Dazu hätte ich doch gerne mal Benchmarks, behaupten kann man bekanntlich viel. 16xS verwendet neben vier SSAA-Samples auch insgesamt nicht weniger als 16 MSAA Samples, wie das ähnlich schnell wie 8xMSAA sein soll, muss erstmal jemand erläutern.

Klingt wirklich ziemlich seltsam - aber nV muss ja auch übel Loopen, um auf 8*MSAA zu kommen.

seahawk
2008-01-28, 11:40:33
Stimmt TMSAA wäre mir auch recht, aber ohne Glättung der Alpha-Kanten mag ich heute nimmer mehr spielen. Und wenn ich die Zeit und die Lust hätte mir ein CF/SLI System zu halten, dann wäre es das Allerletzte auf das ich verzichten würde.

9800ProZwerg
2008-01-28, 11:43:42
Mikroruckler scheint CB wohl nicht anzusprechen? :|

Doch, am Ende in der Beurteilung;)

AnarchX
2008-01-28, 11:46:01
Dazu hätte ich doch gerne mal Benchmarks, behaupten kann man bekanntlich viel. 16xS verwendet neben vier SSAA-Samples auch insgesamt nicht weniger als 16 MSAA Samples, wie das ähnlich schnell wie 8xMSAA sein soll, muss erstmal jemand erläutern.

Nunja, 16xS wäre ja an sich nur 4xAA mit einer 4mal so hohen Auflösung, sprich die FPS müssten sich vierteln und das tut es ja hier auch schon von 4x auf 8xMSAA fast: 42 -> 12 bei der Ultra -> (29%).

Im Endeffekt bekäme man zum gleichen Preis auch ein 8x8 ERR für die Geometrie, aber zusätzlich noch ein 2x2 EER für den gesamten Rest.

Der Framebuffer dürfte eigentlich auch keine Probleme machen, da er gleich groß bleibt.

vinacis_vivids
2008-01-28, 11:46:40
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/11/#abschnitt_f_e_a_r
X-D (Hier könnte man auf GF8 gar schon 16xS aktivieren, was genausoviel kosten sollte wie 8xMSAA @ 2560x1600)

Naja, ich weiß nicht was du mit GF8 meinst, aber der Saft ist recht schnell leer:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6170556&postcount=868

tombman
2008-01-28, 11:49:14
Mir ist es ja echt zu blöd mich an so einer dämlichen Diskussion zu beteiligen... aber was du hier abziehst ist echt krank.

1. Tatsache ist, dass die 3870X2 BILLIGER ist als die Ultra - und das um min. €100,-!!!
Die Ultra geht mir doch am Arsch vorbei, wichtiger ist die GTX @ oc ;) Und die kostet knapp über 300€ und hat keine CF/SLI Problematik.
Btw, die Menge der Rufzeichen ist indirekt proportional zum IQ ;)

2. Tatsache ist, dass sie in den Computerbase Ratings ÜBERALL vor der 8800 Ultra landet - hier gerade die Grafik zu posten, in der die X2 nur knapp voran liegt.... naja, wie soll ich sagen.... leicht voreingenommen, findet du nicht?!
Es geht nicht darum zu zeigen, daß die X2 schneller ist, denn das MUSS sie sein, alles andere wäre peinlich. Sie sollte nur schneller, bei gleicher Kompatibilität (!), wie die kommende GX2 sein. Crossfire Karten, und ja, die X2 IST eine Crossfire Karte, mit single Karten zu vergleichen finde ich sowieso blödsinnig.
Es gab und gibt die Fraktion derer, die Karten anhand des Erscheinungszeitpunktes vergleichen- was IMO reiner Schwachsinn ist. Verglichen sollten immer Generationen werden, also logische Kontrahenden. Es ist ja wohl sonnenklar, daß die Ultra niemals die Konkurrenz der X2 ist, sondern daß das nur die GX2 sein kann.
Genauso waren die prä R600-Karten von ATI niemals Konkurrenz zur 8800GTX. Nvidia hatte zu dem Zeitpunkt einfach keine Konkurrenz.

3. Leider ist es nämlich so, dass die X2 sogar teilweise fast doppelt so schnell ist
In games und settings die fast keinen wirklich interessieren ;)
Hohe Auflösung + 4xAA ist wichtig. Und D3D10 ist wichtig. Und da ist sie nicht sehr prickelnd.
Eben zum Preis passend...

4. Das GESÜLZE von wegen "das sind ja zwei Chips auf einer Karte, das gilt nicht" - ist höchtsgradig schwachsinnig -
Das ist eben NICHT schwachsinnig, denn solange die Chips von CF abhängig sind, arbeitet die Karte NICHT wie eine single gpu Karte.

der Erste der hier einen blöden Thread startet mit "wie die 8800GX2 auszog um ihrer großen Schwester der Ultra den Hintern zu versolen" bist DU!
Bullshit, außerdem klingen meine subjects besser ;)

Also bitte tu uns den Gefallen und HALTE DEN RAND, ja?
Du sprichst hier für niemanden außer dich selbst, also verwende "uns" nicht. Tu MIR den Gefallen und halte das Niveau, oder du kannst mit dir selbst reden.

AnarchX
2008-01-28, 11:50:13
Naja, ich weiß nicht was du mit GF8 meinst, aber der Saft ist recht schnell leer:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6170556&postcount=868

Bei deinen Werten vierteln sich ja auch die FPS nicht von 4x auf 8x MSAA. ;)

Gast
2008-01-28, 11:51:05
Kennt hier jemand RFactor ? Also mit dieser ati 3870 x2 habe ich weniger fps als mit der 8800 gtx !

scheisse :-(

Mfg MIke

seahawk
2008-01-28, 11:54:49
Läuft CF nicht richtig. Kann mit dem nächsten Treiber weg sein, oder auch nicht. Wenn Dir da nach ist kannst Du Dich mal in das Thema .exe Renaming und CF einarbeiten. Etwas, was Dir mit ner CF Karte sowieso auf Dauer kaum erspart bleibt.

vinacis_vivids
2008-01-28, 11:56:23
Bei deinen Werten vierteln sich ja auch die FPS nicht von 4x auf 8x MSAA. ;)

Es ist das betagte Doom3 bei 1920x1200, aber du kannst ja gerne bei Fear dein 16xS AA und 2560x1600 einstellen. ;)

Gast
2008-01-28, 12:07:31
Sehawk

WIe mache ich das wo finde ich was im forum ?

Mfg Mike

Schlammsau
2008-01-28, 12:08:50
hier geht es nicht um Konkurrenz, ihr seht es als in einem falschen Blickwinkel! Wer hat gesagt, die X2 ist der Gegenspieler der Ultra......richtig, keiner!
Die X2 ist momentan die schnellste Grafikkarte auf dem Markt! Und daran ändern auch 2 Chips auf einem PCB nichts! Für mich, und auch noch vielen andere ist es eine Karte, da gibt es nichts zu rütteln!
Die Performance ist schlichtweg beeindruckend, vielleicht nicht bei allen Games aber durch die Bank wirklich sehr gut! Warum muss man immer alles schlecht reden......

Gast
2008-01-28, 12:10:35
Klingt wirklich ziemlich seltsam - aber nV muss ja auch übel Loopen, um auf 8*MSAA zu kommen.

Eigentlich muss nV nur einmal zusätzlich loopen, um auf 8 Samples zu kommen, AMD insgesamt viermal. Aber offensichtlich scheint es hier bei NV ein Problem zu geben.

reunion

=Floi=
2008-01-28, 12:11:29
weil es nicht so gut ist wie du es hinstellen willst
in der praxis ist CF und die ganze karte einfach nicht gut.

Gast
2008-01-28, 12:12:26
Die X2 ist momentan die schnellste Grafikkarte auf dem Markt!


Stimmt doch gar nicht. Oft ist die 8800 Ultra viel schneller. Also mit solchen Pauschalaussagen kommst du nicht weiter.

Gast
2008-01-28, 12:13:02
Es ist echt traurig, dass nur noch 1*/1*, 1*/16*, 4*/16* und 8*/16* gebencht wird - erinnert mich irgendwie an die Zeit vor 5 Jahren, als auch nur pauschal 1*/1*, 2*/4* und 4*/8* gebencht wurde.

Kein Schwanz hat überhaupt noch ne Ahnung, was die Grafikkarten tatsächlich können!

Was willst du denn sonst vergleichen? Das sind nunmal die einzigen Setting, die eine weitgehend gleiche Bildqualität bei weitgehend gleichem Aufwand sicherstellen. Alles andere sind nette Beigaben, auf die man natürlich hinweise sollte, die als Vergleichssettings aber völlig ungeeigent sind.

reunion

MadManniMan
2008-01-28, 12:13:44
@Schlammsau:

Ist ja schön und gut, dass es für Dich eine Grafikkarte ist - die ist es sicherlich für jeden hier. Aber was sagst Du denn nun dazu, dass es zwei Chips sind und somit nie die Effizienz und Problemlosigkeit einer Single-Chip Karte erreicht wird?



/OT: Erbärmlich, was sich nagus drüben im Computerbase-Forum (http://www.computerbase.de/forum/showpost.php?p=3734055&postcount=93) leistet...

sagmal sonst gehts dir schon noch gut oder? wie alt bist du eigentlich? 12? genau so stell ich mir dich vor... 12 jahre, vor pickeln nicht mehr aus den augen sehende, fetter, unterbelichteter sonderschüler.

sorry, aber das musste jetzt sein. wenn ich dafür eine verwarnung bekomme ist mir das auch wurscht. aber dieser Tomb-Trottel gehört einfach nur GELÖSCHT.

*hüstl* würde ihn bitte jemand zum schweigen bringen? wie kann man nur so ULTRA-DÄMLICH sein???

...können wir den hier dafür nicht auch bestrafen?

MadManniMan
2008-01-28, 12:19:44
Eigentlich muss nV nur einmal zusätzlich loopen, um auf 8 Samples zu kommen, AMD insgesamt viermal. Aber offensichtlich scheint es hier bei NV ein Problem zu geben.

Überhaupt scheint der Umstand, dass geloopt wird ein Problem für nV zu sein.

AMD wird - denke ich - einfach pro Loop verhältnismäßig wesentlich besser wegkommen. Die Architekturen unterscheiden sich eben doch deutlicher, als man denkt.


Was willst du denn sonst vergleichen? Das sind nunmal die einzigen Setting, die eine weitgehend gleiche Bildqualität bei weitgehend gleichem Aufwand sicherstellen. Alles andere sind nette Beigaben, auf die man natürlich hinweise sollte, die als Vergleichssettings aber völlig ungeeigent sind.

Für mich ist es wichtig, dass erläutert wird. Der Vergleich vergleichbarer Settings ist wichtig, aber durch die Beschränkung darauf werden die Alleinstellungsmerkmale der Karten völlig ignoriert. (Außerdem toleriert man beim Filtering durchaus spürbare Differenzen zwischen ATi und nV, da könnten genauso gut CSAA und CFAA danebengestellt werden.)

8*MSSA + Edge-Detect dürfte die besten Kanten geben, während nV mit Supersampling viel Flexibilität bietet. DANACH entscheidet garantiert niemand, der nur die Computerbase zu lesen bekommt. Beide IHVs streben nach Innovation - und werden von den kurzsichtigen und faulen Fachpresse mit Fließbandreviews abgestraft.
Das kanns nicht sein!

seahawk
2008-01-28, 12:20:51
Sehawk

WIe mache ich das wo finde ich was im forum ?

Mfg Mike

Im Grundsatz nennst Du die exe von rfactor in eine .exe um für die ein CF profil vorliegt. Prolbem ist, dass es eben manchmal nicht funktioniert. Ich habe leider kein CF System und kann Dir daher nicht im Detail helfen, aber evtl. mal im hiesigen ATI Forum nachhören, irgendwer wird schon nen CF System haben und Dir helfen können.

hier geht es nicht um Konkurrenz, ihr seht es als in einem falschen Blickwinkel! Wer hat gesagt, die X2 ist der Gegenspieler der Ultra......richtig, keiner!
Die X2 ist momentan die schnellste Grafikkarte auf dem Markt! Und daran ändern auch 2 Chips auf einem PCB nichts! Für mich, und auch noch vielen andere ist es eine Karte, da gibt es nichts zu rütteln!
Die Performance ist schlichtweg beeindruckend, vielleicht nicht bei allen Games aber durch die Bank wirklich sehr gut! Warum muss man immer alles schlecht reden......

Physiklaisch eine Karte ja, sie stellt sich dem benutzer aber wie ein Zweikartensystem da mit allen Vor- und Nachteilen. Und bevor ich Performanceaussagen treffen würde, empfehle ich mal abzuwarten bis jemand die Karte auf ältere und wenig populäre Titel los läst. Denn machen wir uns nichts vor eine 8800Ultra zeigt ihre Power in fast jedem Fall. Eibrüche von 50% sind extrem unwahrscheinlich. Bei CF reicht ein Spiel, dass CF nicht kennt und man verliert 50% Leistung.

Gast
2008-01-28, 12:27:56
Wann werden die Crysis anhänger denn endlich begreifen das Crysis einfach mies programiert ist und demnach nicht für hohe fps zahlen ausgelegt ist? Wenn jetzt selbst 2 GPUs nur 30fps schaffen, späterstens dann sollte man mal die Augen aufmachen...Und sich die fps Zahlen in anderen Spielen zum vergleichen anschauen...

puntarenas
2008-01-28, 12:35:12
Ist das hier jetzt der endgültige Review-Thread, oder geht es hier mehr um (Crysis-) Benchmarks?

Crysis ist mir egal, aber ich schreib hier trotzdem mal. Ich habe jetzt bei pcgh.de und computerbase.de die Tests gelesen und bin ein wenig enttäuscht. Enttäuscht zum einen von der Karte, ich hatte auf ein paar kleine Gimmicks gehofft, damit die X2 im Idle ein gewöhnliches CF-Gespann alt aussehen läßt, war wohl nichts.

Enttäuscht bin ich aber auch ein wenig von den Reviews. Habe ich was überlesen oder ist das Mikroruckler-Problem schon wieder Geschichte, den Abschnitt habe ich bei Computerbase vermisst. Das PCGH-Review scheint mir dagegen ein wenig vermurkst, wenn ComputerBase die Karte übertakten kann, dann sollte das dort doch auch gelingen.

Odal
2008-01-28, 12:36:26
@Schlammsau:

/OT: Erbärmlich, was sich nagus drüben im Computerbase-Forum (http://www.computerbase.de/forum/showpost.php?p=3734055&postcount=93) leistet...



...können wir den hier dafür nicht auch bestrafen?

ähm ich find das zwar auch nicht schön das so ein umgangston an den tag gelegt wird, aber eine hexenjagd über mehrere foren hinweg zu veranstalten halte ich doch für "etwas" zu gewagt.
Mitunter ist Tombman in der Rolle als Provokateur und Wendehals bekannt ;)
Und damit mein ich jetzt NICHT Wendehals im Sinne von "Tombman steckt sich immer die schnellste Hardware in den Rechner" sondern an dieser Aussage festmachend das Gegenteilmit dem Zusatz "solang das Logo darauf gefällt".

Die 3870 X2 ist derzeit die schnellste Karte das kann keiner bestreiten...es gibt Mängel die man sich damit erkauft...kann auch keiner bestreiten...

und das persönlich werdene Fanboy gebashe geht mir schon seit geraumer Zeit auf den Zeiger...

Wenn ich nun wo kein anderes Argument mehr zieht schon immer die NV hat das bessere AF Geschichte höre....die ist zwar nicht falsch...aber handelt es sich doch nur um Nuancen und bei leibe nicht mehr den riesen Unterschied wie z.B. zw. 7900GTX und X1900XT da sollte das als absolutes Totschlagargument nicht mehr ziehen (allerdings soll man es auch nicht unerwähnt lassen)

seahawk
2008-01-28, 12:37:41
Was mich eher nervt sind die neuen Benches. 4xMSAA+16xAF und 8xMSAA+16xAF, als ob TAAA nie erfunden wurde.

Exxtreme
2008-01-28, 12:37:43
Habe ich was überlesen oder ist das Mikroruckler-Problem schon wieder Geschichte, den Abschnitt habe ich bei Computerbase vermisst.
Ich vermute mal, die Websites wollen sich's nicht mit AMD und NV verscherzen. Es ist irgendwie beängstigend wie das Thema totgeschwiegen wird. :eek:

N0Thing
2008-01-28, 12:39:02
@Schlammsau:

Ist ja schön und gut, dass es für Dich eine Grafikkarte ist - die ist es sicherlich für jeden hier. Aber was sagst Du denn nun dazu, dass es zwei Chips sind und somit nie die Effizienz und Problemlosigkeit einer Single-Chip Karte erreicht wird?


Hast mich zwar nicht angesprochen, aber im Prinzip könnten auch acht RV635 auf einem PCB verbaut sein, die drastisch hinter der Effizienz einer Single-Chip Karte bleiben, solange die Karte insgesamt einen akzeptablen Stromverbrauch, einen passenden Preis und eine insgesamt gute Performance liefert, wie z.B. die 3870x2.

Ob ein Quadcore (CPU) in Spielen effizient arbeitet interessiert auch nicht jeden, trotzdem kaufen sich auch Spieler einen Quadcore, um doch noch 5 Frames mehr zu haben. Daß der 4. Kern meist grad mal 10% mehr Leistung bringt interessiert nicht. Nur ein kurzes Beispiel gedacht, ich vergleiche hier nicht GPUs mit CPUs, sondern deren Käufer. :wink:

Abgesehen von der Kompatibilität, bzw. der Unterstützung der Spiele durch Crossfire (und SLI im geringeren Maße) und den Microrucklern gibt es kein Argument, was gegen eine Mehrchiplösung spricht. Wenn die beiden Probleme irgendwann einmal gelöst werden, werden meiner Vermutung nach die Grafikkarten nur noch im Lowcostbereich eine Singlechiplösung sein, ähnlich wie im CPU-Bereich nur unter anderen Umständen und Voraussetzungen.

RoNsOn Xs
2008-01-28, 12:40:16
was habta denn?! :confused:

Falls man sich aktuell eine High-End-Grafikkarte kaufen möchte, führt dennoch eigentlich kein Weg an einer Radeon HD 3870 X2 vorbei. Die Performance, die Direct3D-10.1-Unterstützung und noch einige weitere Features sind positive Argumente für den Kauf. Eine gleichwertige Alternative zur ATi Radeon HD 3870 X2 gibt es zur Zeit nicht. Einzig das Multi-GPU-Problem mit den Mikrorucklern hinterlässt einen etwas faden Beigeschmack. Bei allen Multi-GPU-Lösungen.

steht auf der letzten seite im letzten satz. soll wohl darauf hinweisen, dass es noch immer besteht. ;):P

Skullcleaver
2008-01-28, 12:42:09
Kein Mensch wird sich NUR fürs Gamen nen Quadcore einbauen.

mapel110
2008-01-28, 12:44:17
Was mich eher nervt sind die neuen Benches. 4xMSAA+16xAF und 8xMSAA+16xAF, als ob TAAA nie erfunden wurde.
Es ist ohnehin kaum vergleichbar bei den IHVs. Deshalb find ichs gut, dass das abgeschaltet wird.

AnarchX
2008-01-28, 12:47:12
Es ist ohnehin kaum vergleichbar bei den IHVs. Deshalb find ichs gut, dass das abgeschaltet wird.

Aber mittlerweile sollte TMSAA bei beiden doch ziemlich vergleichbar sein, nachdem NV massiv nachgebessert hat.

tombman
2008-01-28, 12:47:49
/OT: Erbärmlich, was sich nagus drüben im Computerbase-Forum (http://www.computerbase.de/forum/showpost.php?p=3734055&postcount=93) leistet...

Und alles nur, weil er bei Bohlen beim Vorsingen durchgefallen ist ;D
Ne, der disqualifiziert sich dort drüben eh selbst indem das Niveau um ein paar Level gesenkt hat ;)

puntarenas
2008-01-28, 12:49:50
steht auf der letzten seite im letzten satz. soll wohl darauf hinweisen, dass es noch immer besteht. ;):P
Okay, dann habe ich den sehr dezenten Hinweis tatsächlich überlesen, die Lösung das Problem als eigenen Abschnitt zu behandeln fand ich aber wesentlich gelungener.

@Mods: Einen tollen Review-Thread wie so oft von AnarchX gepflegt wird es wohl für die 3870X2 nicht mehr geben, aber könnte ein Mod vielleicht den Threadtitel editieren? Dem fleißigen Gast ist dies ja leider nicht möglich und der gegenwärtige Titel...

4 Vitamins
2008-01-28, 12:55:04
Rofl, Nvidia muß ja sooo Angst haben ;)

http://img208.imageshack.us/img208/8241/atix2lolfj5.jpg (http://imageshack.us)

Im Vergleich zur G92 GTS sind das vielleicht max. 25%. SLI hat aber eine höhere Skalierung als 25% ;)

Tjo, die GX2 wird wohl wieder davonziehen.


was soll di e kinder auflösung von 1600x1200!!!
Mindestens ne nummer grösser wäre angebracht.

gruss

Gast
2008-01-28, 12:55:10
Hmmmmm profile ist das normal das man im ccc keine profile drin hatt ?
greets mike

tombman
2008-01-28, 12:56:18
was soll di e kinder auflösung von 1600x1200!!!
Mindestens ne nummer grösser wäre angebracht.

????
die 22er TFTs der Masse haben nur 1680x1050, also noch weniger....

N0Thing
2008-01-28, 12:58:50
Kein Mensch wird sich NUR fürs Gamen nen Quadcore einbauen.


Nein? :|

Fürs surfen wird sich auch keiner nen Quad kaufen, hoffe ich zumindest.
Aber ich bekomme in anderen Foren oft genug mit, daß viele den besten Gamer-PC oloollll!!111elf haben wollen und da muß natürlich für 100FPS in CS:S auch nen Quad-Core rein. Viele kann man mit einigem Aufwand überzeugen, daß ein Quad für Spiele den Aufpreis nicht wert ist, aber es gibt auch hoffnungslose Fälle.

Skullcleaver
2008-01-28, 13:01:10
Ok niemand mit verstand wird sich nur fürs gamen nen Quadcore einbauen. Wirklich sinnige Anwendungen für Quads gibts bisher weniger.

seahawk
2008-01-28, 13:03:22
Aber mittlerweile sollte TMSAA bei beiden doch ziemlich vergleichbar sein, nachdem NV massiv nachgebessert hat.

Das denke ich auch. Und selbst wenn es nicht vergleichbar ist, so gehören entsprechende Benches für mich dazu. TSSAA bzw.AAA kann ATI ja nicht mehr oder ist es mit den akutellen Treibern wieder da ?

dildo4u
2008-01-28, 13:04:39
Da wo man die Power bräuchte bei Crysis mit AA und AF versagt die Karte und in der hösten Auflösung geht die X2 total ein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis

ShadowXX
2008-01-28, 13:05:01
Hmmmmm profile ist das normal das man im ccc keine profile drin hatt ?
greets mike
Ja, das ist völlig normal. Du hast keine Möglichkeit das CF irgendwie zu beeinflussen.

Gast
2008-01-28, 13:05:22
Wirklich sinnige Anwendungen für Quads gibts bisher weniger.
Was ist sinnig?
Mit Anwendungen meinst du Spiele?

Fakt ist, ein paar Spiele schreien förmlich nach Quads.

=Floi=
2008-01-28, 13:05:30
ein quad braucht keine treiber und ist eine andere sache als eine gpu

MadManniMan
2008-01-28, 13:08:38
Da wo man die Power bräuchte bei Crysis mit AA und AF versagt die Karte und in der hösten Auflösung geht die X2 total ein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis

Und was haben wir jetzt davon, wenn wir wieder nur einen einzelnen Extremfall betrachten?

K4mPFwUr$t
2008-01-28, 13:08:43
@4 vitamins
du machst dich echt lächerlich mit deiner kindischen art.
schon alleine der threadtitel zeigt sandkasten niveau :rolleyes:

Wie 2 kleine Zwillinge auszogen um das Monster zu verkloppen.

zumal wie bereits von tombman gesagt wurde, die masse in der regel nur geringere auflösungen hat:

1280x1024
1680x1050
1600x1200

Skullcleaver
2008-01-28, 13:09:25
Sach an es ging nur ums kaufen rein fürs gamen. Ausser Supreme Commander fällt mir da grade nichts ein.

Sinnig hieß soviel wie Anwendungen wo er wirklich was nützt. Da gäbe es natürliche professionelle Anwendungen aber das ist kaum was für zuhause. Boinc wäre was oder videos codieren was für nen Heimanwender respektive normal gamer üblich wäre.

deekey777
2008-01-28, 13:09:46
Da wo man die Power bräuchte bei Crysis mit AA und AF versagt die Karte und in der hösten Auflösung geht die X2 total ein.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis
Und ihr geht der Speicher aus.

Gast
2008-01-28, 13:12:04
Aber mittlerweile sollte TMSAA bei beiden doch ziemlich vergleichbar sein, nachdem NV massiv nachgebessert hat.

Hilft aber nichts, da seit dem Cat. 8.1 EATM tot ist und man nur noch SSAA bekommt. Das ändert sich mittlerweile je nach Lust und Laune bei fast jeder Treiberversion. Ordnungsgemäß funktioniert hat es soweit ich weiß noch nie.

reunion

dildo4u
2008-01-28, 13:13:05
Und was haben wir jetzt davon, wenn wir wieder nur einen einzelnen Extremfall betrachten?
Crysis wär halt so mit das einzige Game was mit einer GTX oder Ultra nicht wirklich flüssig läuft mit AA und AF.Wo man also eine funzende Karte wie die X2 bräuchte.

4 Vitamins
2008-01-28, 13:16:46
:

Man bezahlt 100% mehr beim Preis, für durchschnittlich 50% Mehrleistung.
Dieser (den software-technischen Grenzen geschuldeter) Umstand trifft ja zur Zeit auf alle
Dual-GPU Karten zu und macht sie allsamt für Preis/Leistung-Verhältniss bewusste User uninteressant.

Und jetzt rechne mal die mehr kosten für ein CF-Mobo ab, da man die karte mit jedem board betreiben kann. Ein non CF-mobo verbraucht weniger saft, man ist nicht gezwungen mobo zuwechseln um CF zu haben. Dazu weniger wärme im gehäuse als mir 2 karten.

Alles "PRO" argumente.

gruss

seahawk
2008-01-28, 13:17:34
Hilft aber nichts, da seit dem Cat. 8.1 EATM tot ist und man nur noch SSAA bekommt. Das ändert sich mittlerweile je nach Lust und Laune bei fast jeder Treiberversion. Ordnungsgemäß funktioniert hat es soweit ich weiß noch nie.

reunion

SSAAaka TSAA kann NV auch. Und dann gehört das imho gebencht und wenn es bei ATI oftmals nicht funktioniert, bei NV aber schon, dann ist es ein dicker Punkt auf der Negativliste der Karte. Imho weit mehr als eine schlechte 8xMSAA Performance.

Tarkin
2008-01-28, 13:22:12
Die Ultra geht mir doch am Arsch vorbei, wichtiger ist die GTX @ oc ;) Und die kostet knapp über 300€ und hat keine CF/SLI Problematik.
Btw, die Menge der Rufzeichen ist indirekt proportional zum IQ ;)

Es geht nicht darum zu zeigen, daß die X2 schneller ist, denn das MUSS sie sein, alles andere wäre peinlich. Sie sollte nur schneller, bei gleicher Kompatibilität (!), wie die kommende GX2 sein. Crossfire Karten, und ja, die X2 IST eine Crossfire Karte, mit single Karten zu vergleichen finde ich sowieso blödsinnig.
Es gab und gibt die Fraktion derer, die Karten anhand des Erscheinungszeitpunktes vergleichen- was IMO reiner Schwachsinn ist. Verglichen sollten immer Generationen werden, also logische Kontrahenden. Es ist ja wohl sonnenklar, daß die Ultra niemals die Konkurrenz der X2 ist, sondern daß das nur die GX2 sein kann.
Genauso waren die prä R600-Karten von ATI niemals Konkurrenz zur 8800GTX. Nvidia hatte zu dem Zeitpunkt einfach keine Konkurrenz.

In games und settings die fast keinen wirklich interessieren ;)
Hohe Auflösung + 4xAA ist wichtig. Und D3D10 ist wichtig. Und da ist sie nicht sehr prickelnd.
Eben zum Preis passend...

Das ist eben NICHT schwachsinnig, denn solange die Chips von CF abhängig sind, arbeitet die Karte NICHT wie eine single gpu Karte.

Bullshit, außerdem klingen meine subjects besser ;)

Du sprichst hier für niemanden außer dich selbst, also verwende "uns" nicht. Tu MIR den Gefallen und halte das Niveau, oder du kannst mit dir selbst reden.

Ich weiß eh Tombmann... du bist hier der Gott, das Supergenie und nVidias Propaganda-Minister hier im Forum. Du darfst stolz sein auf dich... ich glaub 98% würde dich zum Präsidenten des 3DCenters wählen.

:rolleyes:

tombman
2008-01-28, 13:26:06
Ich weiß eh Tombmann... du bist hier der Gott, das Supergenie und nVidias Propaganda-Minister hier im Forum. Du darfst stolz sein auf dich... ich glaub 98% würde dich zum Präsidenten des 3DCenters wählen.

:rolleyes:
Schon klar, gehen die Argumente aus, muß man persönlich werden- immer die alte Leier :rolleyes:

PHuV
2008-01-28, 13:26:30
Ich weiß eh Tombmann... du bist hier der Gott, das Supergenie und nVidias Propaganda-Minister hier im Forum. Du darfst stolz sein auf dich... ich glaub 98% würde dich zum Präsidenten des 3DCenters wählen.

:rolleyes:

Wie kommst Du darauf? Tombman hatte auch schon ATI und Crossfire-Systeme, ihn als nVidias Propaganda-Minister zu beschimpfen ist mehr aus unsachlich. Wenn man nichts versteht, einfach mal das Nuhr-Zitat beherzigen. :| Im Gegensatz zu Dir und anderen hat er konkrete praktische Erfahrungen vorzuweisen.

deekey777
2008-01-28, 13:27:04
Ja, das Forum lebt von seiner Community. :uup:

nagus
2008-01-28, 13:28:00
Die Ultra geht mir doch am Arsch vorbei, wichtiger ist die GTX @ oc ;) Und die kostet knapp über 300€ und hat keine CF/SLI Problematik.
Btw, die Menge der Rufzeichen ist indirekt proportional zum IQ ;)

Es geht nicht darum zu zeigen, daß die X2 schneller ist, denn das MUSS sie sein, alles andere wäre peinlich. Sie sollte nur schneller, bei gleicher Kompatibilität (!), wie die kommende GX2 sein. Crossfire Karten, und ja, die X2 IST eine Crossfire Karte, mit single Karten zu vergleichen finde ich sowieso blödsinnig.
Es gab und gibt die Fraktion derer, die Karten anhand des Erscheinungszeitpunktes vergleichen- was IMO reiner Schwachsinn ist. Verglichen sollten immer Generationen werden, also logische Kontrahenden. Es ist ja wohl sonnenklar, daß die Ultra niemals die Konkurrenz der X2 ist, sondern daß das nur die GX2 sein kann.
Genauso waren die prä R600-Karten von ATI niemals Konkurrenz zur 8800GTX. Nvidia hatte zu dem Zeitpunkt einfach keine Konkurrenz.

In games und settings die fast keinen wirklich interessieren ;)
Hohe Auflösung + 4xAA ist wichtig. Und D3D10 ist wichtig. Und da ist sie nicht sehr prickelnd.
Eben zum Preis passend...

Das ist eben NICHT schwachsinnig, denn solange die Chips von CF abhängig sind, arbeitet die Karte NICHT wie eine single gpu Karte.

Bullshit, außerdem klingen meine subjects besser ;)

Du sprichst hier für niemanden außer dich selbst, also verwende "uns" nicht. Tu MIR den Gefallen und halte das Niveau, oder du kannst mit dir selbst reden.

:| dir habens ja wohl komplett ins H*** g*******

Gast
2008-01-28, 13:29:19
Wir haben 2008 und die Zunkunft heisst Dx10/.1
Und GENAU da ist die X2 nicht gut genug (maximal 18% schneller als EINE 1 Jahre alte 8800 ULTRA.) Ganz Großes KINO. rofl

nagus
2008-01-28, 13:29:56
Schon klar, gehen die Argumente aus, muß man persönlich werden- immer die alte Leier :rolleyes:

ich kann auch behaupten, dass ati 1000x schneller ist als alle anderen, mir dann das geschimpfe von anderen leuten anhöhren und dann behaupten "Schon klar, gehen die Argumente aus, muß man persönlich werden- immer die alte Leier :rolleyes:"

du bist sowas von PLEM-PLEM

MadManniMan
2008-01-28, 13:33:33
Das schreit nach ner laaaaangen Auszeit.

4 Vitamins
2008-01-28, 13:33:50
@4 vitamins

1.du machst dich echt lächerlich mit deiner kindischen art.

schon alleine der threadtitel zeigt sandkasten niveau :rolleyes:

(*)
zumal wie bereits von tombman gesagt wurde,


1.weist du :erwachsene spielen nicht mit grafikkarten, die haben wichtigeres zu tun.:P

Weist du woher ich die "inspiration"(*) zu diesem Threadtitel habe.
ps. ein kleiner hinweis ist in deinem post versteckt.:biggrin:

schöne grüsse dir.

Tarkin
2008-01-28, 13:34:40
Schon klar, gehen die Argumente aus, muß man persönlich werden- immer die alte Leier :rolleyes:

Ist diese abgedroschene Rhetorik alles was du zu beiten hast?

Ich werde hier sicher nicht anfangen dir Argumente aufzuzählen - es wäre reine Zeitverschwendung! Außerdem bist du selbst in der Lage Reviews zu lesen und dir eine Meinung zu bilden.

Aber am Ende des Tages kommt bei dir sowieso nur ein Fazit raus: Nvidia ist ATi überlegen.

Tarkin
2008-01-28, 13:38:20
Wie kommst Du darauf? Tombman hatte auch schon ATI und Crossfire-Systeme, ihn als nVidias Propaganda-Minister zu beschimpfen ist mehr aus unsachlich. Wenn man nichts versteht, einfach mal das Nuhr-Zitat beherzigen. :| Im Gegensatz zu Dir und anderen hat er konkrete praktische Erfahrungen vorzuweisen.

Was bitte? Nuhr Zitat? Ich versteh nur Bahnhof!

Ich hab nix übrig für drittklassige, deutsche Comedians.

4 Vitamins
2008-01-28, 13:39:14
Ja, das Forum lebt von seiner Community. :uup:

:biggrin: Wenn wir alle einer meinung hätten , wäre ich traurig, ausser wir wären meine meinung.

gruss

Gast
2008-01-28, 13:39:50
Im Grundsatz nennst Du die exe von rfactor in eine .exe um für die ein CF profil vorliegt. Prolbem ist, dass es eben manchmal nicht funktioniert.

das sollte bei der X2 eigentlich nichts mehr bringen.

angeblich ist jetzt AFR-rendering generell aktiviert und nur für den fall, dass ein profil existiert, in dem drinnen steht, dass AFR nicht ordnungsgemäß funktioniert wird CF entweder deaktiviert oder irgendwelche kompatibilitätssettungs aktiviert.

Odal
2008-01-28, 13:43:44
Wie kommst Du darauf? Tombman hatte auch schon ATI und Crossfire-Systeme, ihn als nVidias Propaganda-Minister zu beschimpfen ist mehr aus unsachlich. Wenn man nichts versteht, einfach mal das Nuhr-Zitat beherzigen. :| Im Gegensatz zu Dir und anderen hat er konkrete praktische Erfahrungen vorzuweisen.

da sollte man aber hinterfragen warum er das hatte..und entsprechenden thread lesen der er dann genüsslich eröffnete um ihn dann mit fadenscheinigen behauptungen aus seinen "praxiserfahrungen" zu füttern...

ansonsten find ich das der thread hier schon wieder zu sehr tombmanifiziert wird ;)

hier gehts um die X2 ^^

PHuV
2008-01-28, 13:45:15
Aber am Ende des Tages kommt bei dir sowieso nur ein Fazit raus: Nvidia ist ATi überlegen.

Nimm eine entsprechende GPU von Nvidia und verbaue sie im SLI-Modus, wie eine X2, und schon sieht die Sachlage ganz anders aus. Einfach mal tief Luft holen, nachdenken, die Fakten genau betrachten

http://www.pcgameshardware.de/?menu=browser&article_id=622505&image_id=740471

Wenn Du die Fakten nicht sehen willst, Dein Problem, aber dann bashe nicht so eine Grütze rum. Warten wir doch mal erst auf eine vergleichbare GX2-Karte (z.B. 9800 GX2 (http://www.pcgameshardware.de/?article_id=629460) von Nvidida.

Zitat

Im Forum von VR-Zone ist ein Eintrag zu finden, wonach eine 9800 GX2 mit einem Core 2 Quad Q9550 beim 3DMark06 Default 14.180 Punkte erreicht, beim 3DMark06 mit 4AA/16:1 AF noch 11.516 Punkte. Die Werte stammen ursprünglich aus einem Thread des asiatischen Forums der Website Chiphell.com.

Was bitte? Nuhr Zitat? Ich versteh nur Bahnhof!

Ich hab nix übrig für drittklassige, deutsche Comedians.

Googlen hilft, und Du solltest dieses Zitat wirklich mal beherzigen.

seahawk
2008-01-28, 13:46:43
das sollte bei der X2 eigentlich nichts mehr bringen.

angeblich ist jetzt AFR-rendering generell aktiviert und nur für den fall, dass ein profil existiert, in dem drinnen steht, dass AFR nicht ordnungsgemäß funktioniert wird CF entweder deaktiviert oder irgendwelche kompatibilitätssettungs aktiviert.

Käme halt auf einen Versuch an. Aber danke für die Info.

Gast
2008-01-28, 13:49:37
Stimmt doch gar nicht. Oft ist die 8800 Ultra viel schneller. Also mit solchen Pauschalaussagen kommst du nicht weiter.

Also bitte.... Du machst mit deiner Aussage doch haargenau dasselbe.

dildo4u
2008-01-28, 13:50:48
Nimm eine entsprechende GPU von Nvidia und verbaue sie im SLI-Modus, wie eine X2, und schon sieht die Sachlage ganz anders aus. Einfach mal tief Luft holen, nachdenken, die Fakten genau betrachten

http://www.pcgameshardware.de/?menu=browser&article_id=622505&image_id=740471

Wenn Du die Fakten nicht sehen willst, Dein Problem, aber dann bashe nicht so eine Grütze rum. Warten wir doch mal erst auf eine vergleichbare GX2-Karte (z.B. 9800 GX2 (http://www.pcgameshardware.de/?article_id=629460) von Nvidida.


Jup die 2 Wochen an der Sonne sollte man ATI gönnen am 14 Feb kommt die GX2 und dann hat sich der Streit hier eh wieder erledigt.

HarryHirsch
2008-01-28, 13:55:29
lol immer wieder geil wie hier einige wegen einer Grafikkarte abgehen. ;D

Gast
2008-01-28, 13:56:24
Jup die 2 Wochen an der Sonne sollte man ATI gönnen am 14 Feb kommt die GX2 und dann hat sich der Streit hier eh wieder erledigt.

Die GX2 kommt nicht vor März.

Tarkin
2008-01-28, 13:56:41
Nimm eine entsprechende GPU von Nvidia und verbaue sie im SLI-Modus, wie eine X2, und schon sieht die Sachlage ganz anders aus. Einfach mal tief Luft holen, nachdenken, die Fakten genau betrachten

http://www.pcgameshardware.de/?menu=browser&article_id=622505&image_id=740471

Wenn Du die Fakten nicht sehen willst, Dein Problem, aber dann bashe nicht so eine Grütze rum. Warten wir doch mal erst auf eine vergleichbare GX2-Karte von Nvidida.


Googlen hilft, und Du solltest dieses Zitat wirklich mal beherzigen.

"Hätt I, war I" - Wenn nvidia blah, blah, blah, dann... blah, blah, blah

Tja... leider haben sie noch nicht! Einfach mal die Fakten checken, okay? ;)

nVidia muss das erst mal "gebacken" bekommen.

2 Sachen sind nämlich zu beachten

1. SLI skalliert nicht so gut wie CF
2. nVidia wird nicht 2 GTS mit vollem Takt auf eine GX2 "pappen" können ohne dass der Verbraucht aber SOWAS VON DURCH DIE DECKE geht.
3. Wird die GX2 so wie es momentan ausschaut erst im Mrz. erhältlich sein.
4. Der Preis ... da brauch ich ned viel zu sagen, oder? 380,- für ne X2 sind mehr als fair. Eine Gespann aus 2 GT's würde deutlich mehr kosten - und man benötigt ein passendes Mobo- darf man auch nicht vergessen.

Ergo @Ati: Job well done!

seahawk
2008-01-28, 13:59:53
Da SLI und CF beide AFR nutzen ist eine unterschiedliche Skalierung sehr unwahrscheinlich. Könnten wir mal bitte wieder sachlich diskutieren ?

Eggcake
2008-01-28, 14:06:01
Witzig ists schon.
Da hat man die Resultate schwarz auf weiss und nach wie vor kommt "Ultra ist schneller".

Normalerweise kommt man mit "Ein CF-Gespann braucht man eigentlich für HOHE Auflösungen und nicht für niedrige!" - und nun kommt trotzdem "Spielt doch keiner in hohen Auflösungen! 1280x1024 - das zählt!"

Bisl lächerlich ists ja schon ;)
Nach wie vor muss man beachten, dass wir eine 550€ Grafikkarte mit einer 380€ Grafikkarte vergleichen.

dildo4u
2008-01-28, 14:06:49
2. nVidia wird nicht 2 GTS mit vollem Takt auf eine GX2 "pappen" können ohne dass der Verbraucht aber SOWAS VON DURCH DIE DECKE geht.
.

Kommt auf den Takt an wollte man nur die X2 schlagen hätte man natürlich wie beim Vergleich 8800GT vs 3870 das besser FPS/Energie Verhältniss.Da Nvidia sich seine Ziele aber selber setzt 30% schneller als die Ultra könnte es sogar sein das die GX2 20-30Watt mher braucht als die X2.Da wir hier aber vom Ultra-High End Bereich sprechen fällt das Stromverbrauchsargument eh eher schwach aus weil's diesen Kundenkreis whol wenig bis kaum interessiert.

Gast
2008-01-28, 14:06:58
Witzig ists schon.
Da hat man die Resultate schwarz auf weiss und nach wie vor kommt "Ultra ist schneller".
Man hat sie eben nicht!

Mikroruckler! Schon gehört?

ShadowXX
2008-01-28, 14:11:11
2. nVidia wird nicht 2 GTS mit vollem Takt auf eine GX2 "pappen" können ohne dass der Verbraucht aber SOWAS VON DURCH DIE DECKE geht.

Naja...das "Energiesparwunder" ist die ATI X2 mit ca. 200Watt unter Last auch nicht gerade.

das sollte bei der X2 eigentlich nichts mehr bringen.

angeblich ist jetzt AFR-rendering generell aktiviert und nur für den fall, dass ein profil existiert, in dem drinnen steht, dass AFR nicht ordnungsgemäß funktioniert wird CF entweder deaktiviert oder irgendwelche kompatibilitätssettungs aktiviert.
Glaub ich nicht, da das mehr Nachteile als Vorteile mit sich bringt....

Sinnig wäre es jetzt von ATI einen Schalter mit ins CCC einzubauen mit dem man AFR erzwingen kann (bzw. ausschalten).

tombman
2008-01-28, 14:12:14
@tombman

Das mit den Beiträgen @ CB schreiben musst du noch üben.
Aber wieso sind deine Beiträge eigentlich ins Aquarium gewandert?
Ich habe daran nichts schlimmes sehen können.
Da war auch nix schlimmes. Muß ein Spasst Admin dort sein. Die sinnfreien 100% offtopic Schimpftyraden von nagus hat er zb stehen lassen-> das sagt ja wohl alles über das Niveau von cb ;)
Aber wieviel die dort von mir löschen geht mir echt am Anus vorbei ;)

Odal
2008-01-28, 14:13:45
Kommt auf den Takt an wollte man nur die X2 schlagen hätte man natürlich wie beim Vergleich 8800GT vs 3870 das besser FPS/Energie Verhältniss.Da Nvidia sich seine Ziele aber selber setzt 30% schneller als die Ultra könnte es sogar sein das die GX2 20-30Watt mher braucht als die X2.Da wir hier aber vom Ultra-High End Bereich sprechen fällt das Stromverbrauchsargument eh eher schwach aus weil's diesen Kundenkreis whol wenig bis kaum interessiert.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/25/#abschnitt_leistungsaufnahme

ich glaube bei zwei vollwertigen 88GTS auf einer GX2 wäre eher knappe 100Watt mehr leistungsaufnahme vom system(zumindest im idle betrieb) realistisch....ausser nvidia überrascht uns indem sie endlich ne gescheite idle stromspaarfunktion anbieten (der favorit wäre ja das eine "Karte" [Doppelpcbkarte] im idle komplett inaktiv ist und beim Rest Takt sowie Spannungsabsenkung erfolgt)

dildo4u
2008-01-28, 14:17:46
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/25/#abschnitt_leistungsaufnahme

ich glaube bei zwei vollwertigen 88GTS auf einer GX2 wäre eher knappe 100Watt mehr leistungsaufnahme vom system(zumindest im idle betrieb) realistisch....ausser nvidia überrascht uns indem sie endlich ne gescheite idle stromspaarfunktion anbieten (der favorit wäre ja das eine "Karte" [Doppelpcbkarte] im idle komplett inaktiv ist und beim Rest Takt sowie Spannungsabsenkung erfolgt)
Die X2 kommt bei CB auf 207W(Kompletter Rechner)Idle das 8800GT SLI auf 230Watt also wenn dann sind für eine GX2 mit zwei G92GTS Chips 50 Watt und nich 100Watt mher im Idel als die X2 wahrscheinlich.Was mich aber eher interessiert wies unter Last aussieht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/28/#abschnitt_leistungsaufnahme

K4mPFwUr$t
2008-01-28, 14:21:45
nVidia meinte ja mal das ein stromsparmodus für den G92 nachträglich käme, das ganze soll dann nachträglich mit treiber geregelt werden.

OT:
dass das forum von CB ein absoluter tiefflieger in sachen niveau ist, ist ja nichts neues.
es gibt dort sehr viele spammer, spasten und vor allem assi mods + admins :rolleyes:
erinnere mich da nur an blackmamba ;D

Gast
2008-01-28, 14:23:17
nVidia meinte ja mal das ein stromsparmodus für den G92 nachträglich käme, das ganze soll dann nachträglich mit treiber geregelt werden.
Ist doch seit G80 ein running gag, da kam dann leider auch nichts :(

K4mPFwUr$t
2008-01-28, 14:25:22
@gast
verwechsel das nicht mit den älteren meldungen.
vor kurzem gab es eine aussage, der nach der G80 endgültig keinen stromsparmodus bekommt und beim G92 später folgt. wobei, man weiss ja nie ob das auch ein running gag ist ;)

aber bei der nächsten gen muss einer folgen, auch ohne diesen hyprid SLI mist.

PHuV
2008-01-28, 14:27:42
nVidia muss das erst mal "gebacken" bekommen.


Bau Dir einfach mal 2x8800(GT/GTS/GTX) rein, und schon hast Du im Prinzip das selbe wie eine GX2.


2 Sachen sind nämlich zu beachten

1. SLI skalliert nicht so gut wie CF


Ach, wie kommt es, daß bisherige Tests eine andere Sprache sprechen? Aber ich vergaß, Du bist ja der Experte, der bereits SLI- /und Crossfire-Systeme besessen hat, gelle. :|
Ach, Du hastes noch nie SLI und Crossfire? Und dann willst Du mitreden?


2. nVidia wird nicht 2 GTS mit vollem Takt auf eine GX2 "pappen" können ohne dass der Verbraucht aber SOWAS VON DURCH DIE DECKE geht.


Und, ATI ist das auch nicht gelungen.


3. Wird die GX2 so wie es momentan ausschaut erst im Mrz. erhältlich sein.


Abwarten. Bisher hat ATI beim Launch zwar eine Verfügbarkeit versprochen, leider spricht die Realität etwas ganz anderes.


Ergo @Ati: Job well done!

Wo den? Die Karte ist weder schneller als 2 x 3870, sehr laut und sehr energiefressend. Unter well done verstehe ich etwas anders. Schau mal die ersten Tests von einer 8800GTX vor 1,5 Jahren an, das war @Nvidia - Well done. Die Performance hat sich schlagartig um den Faktor 2 mit einem Single-Chip verbessert. ATI hat lediglich den Status Quo wieder hergestellt, aber mehr auch nicht. Aber klar, ein ATI-Fanboy muß natürlich so was feiern.

dildo4u
2008-01-28, 14:27:45
Ist doch seit G80 ein running gag, da kam dann leider auch nichts :(
Die GX2 bekommt eine neue Revision des G92(450).Imo könnte man hier die Stormsparfunktion nachgerüstet haben.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6231188#post6231188

Gast
2008-01-28, 14:35:21
das kurzfazit?
zuwenig vram + sli/cf-mikroruckler

4711
2008-01-28, 14:36:30
hmmm
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/
hab ich mir mal angetan....sind zwar einige Eigentümlichkeiten zb G3 und noch ein paar andere..aber im großen ganzen..wenns das Teil für 250€ geben würde würd ichs mir mal antun trotz dem graben CF,ein gutes hats ja NV muß ran und endlich aufhören den "billig" Ramsch :D neu erfinden und verkaufen.

4711
2008-01-28, 14:37:47
sli/cf-mikroruckler...stell mal ACPI aus :D.....wenn Du überhaupt so was hast.
das kurzfazit--zuwenig vram ?>>>>>>>>>>beim lesen des test fällt mir zuwenig vram garnicht auf..kannste mal zeigen wo?

Coda
2008-01-28, 14:40:27
Nein,d as hat nichts mit ACPI zu tun.

4711
2008-01-28, 14:41:41
Da möcht ich jetzt nicht wetten.....

Gast
2008-01-28, 14:43:24
sli/cf-mikroruckler...stell mal ACPI aus :D.....wenn Du überhaupt so was hast.
das kurzfazit--zuwenig vram ?>>>>>>>>>>beim lesen des test fällt mir zuwenig vram garnicht auf..kannste mal zeigen wo?

leider hast du keine ahnung woher die sli/cf mikroruckler kommen, sie sind ein nebenprodukt des aktuellen SLI/CF technik und sind solange vorhanden bis sie direkt im treiber beseitigt werden

zu zuwenig vram: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis

in 1600x1200 mit 4xAA fängts an auszugehen - in 2560 isses ganz extrem
man beachte - nur karten mit 768mb ram sind da noch schnell - die gt mit 512mb ram sackt sogar bei 1600 mit 4xaa schon extrem ab, weil ati anscheinend im speichermanagement sparsamer ist

Liszca
2008-01-28, 14:44:42
Nein,d as hat nichts mit ACPI zu tun.

wurde das schon sicher ausgeschloßen? sorry hab das irgendwann nicht mehr so sehr verfolgt...

4711
2008-01-28, 14:48:18
leider hast du keine ahnung woher die sli/cf mikroruckler kommen, sie sind ein nebenprodukt des aktuellen SLI/CF technik und sind solange vorhanden bis sie direkt im treiber beseitigt werden

zu zuwenig vram: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/21/#abschnitt_crysis

in 1600x1200 mit 4xAA fängts an auszugehen - in 2560 isses ganz extrem
man beachte - nur karten mit 768mb ram sind da noch schnell - die gt mit 512mb ram sackt sogar bei 1600 mit 4xaa schon extrem ab, weil ati anscheinend im speichermanagement sparsamer ist

ach nimm doch mal ein anders game...es wird langweilig......am besten U3 oder G3.....meine Herren....oder eins der anderen 20....

leider hast du keine ahnung woher die sli/cf >dann bin ich ja beruhigt ich hatte schon SLI da hast du das noch so SCHLI geschrieben.

dildo4u
2008-01-28, 14:49:00
ATI Radeon HD 3870 X2: 2 GPUs 1 Card, A Return to the High End

http://anandtech.com/video/showdoc.aspx?i=3209&p=2

4711
2008-01-28, 14:49:28
wurde das schon sicher ausgeschloßen? sorry hab das irgendwann nicht mehr so sehr verfolgt...
ich hab das nur so reingeworfen..ein paar Bekannte behaupten steif und fest ohne sind se weg....muß Tomb mal ran der hat ja eh nix zutun ;D

Liszca
2008-01-28, 14:52:13
ich hab das nur so reingeworfen..ein paar Bekannte behaupten steif und fest ohne sind se weg....muß Tomb mal ran der hat ja eh nix zutun ;D

ist tombman eigentlich rentner? scheint immer da zu sein, genau wie stefanv, den kann man nachts um 3 uhr anschreiben und paar minuten später gibts ne antwort sozusagen 24h service. nicht falsch verstehen ich finds praktisch.

nagus
2008-01-28, 14:53:32
gemeldet hab ichs...

ohhhh uhhhh ich zittere :P
pass lieber selbst auf dass dich keiner von den moderatoren löscht... bei dem blech was du verzapfst. ist ja nicht zum aushalten. da bekommt man ja augenkrebs von lesen deiner beiträge. aber als nvidiot ist man anscheinend immun dagegen.

davidzo
2008-01-28, 14:55:29
Nimm eine entsprechende GPU von Nvidia und verbaue sie im SLI-Modus, wie eine X2, und schon sieht die Sachlage ganz anders aus.


Zwei Nvidia GPUs heißt wohl 2x G92, denn alle anderen derzeitigen Nvidia chips haben nicht die Power auch nur annähernd mit dem rv670 mitzuhalten.

Prinzipiell hast du recht, ein einzelner G92 ist dem rv670 deutlich überlegen und zwei G92 SLI Karten ebenfalls. Allerdings kommen die auch zu einem anderen preispunkt. der RV670 ist eine mainstream und performancelösung, der G92 eine performance und highendlösung. Der rv670 ist nämlich preislich und vom Transistorenbudget hervorragend gegen den kleineren g94 positioniert.
Ich mag hier erinnern, dass der G94 wohl auf locker 250mm² hinausläuft (gemessene Kantenlänge ist 15.99 mm laut Fotos von PC-online mit Schieblehre am DIE).

G92s haben im Gegensatz zum rv670 aber entscheidende Nachteile:
- mit 289 mm² gegenüber 193mm² des rv670 und 754mio gegenüber 666mio zählen Größe und Transistorcount gegen den G92.
- Das Flipchip package des G92 ist auch deutlich größer, was die Integration auf der Karte aufwändiger macht.
- Der rv670 skaliert besser mit großen Auflösungen wie 1080i/p oder 2560*1200, was die zielgruppe einer solchen Karte ist
- Der rv670 skaliert besser mit hohen FSAA stufen (8x)
- Der rv670 hat große Taktreserven
- Der rv670 ist im 2dbetrieb einen deutlich geringeren Verbrauch, was der überweigende Zeitraum der typischen Nutzung ist

Preislich wird also eine G92x2 Karte nie mit dem rv670 konkurrieren können und es sieht auch nicht aus als wenn sie das anderweitig könnte. Das einzige wobei die Dualchipkarte von Nvidia wohl mitkommen wird ist die Leistung zumindest im niedriger und mittel auflösenden Bereich und bis 4xFSAA. In allen anderen Bereichen ist der rv670 allerdings überlegen, gleichauf oder sogar haushoch überlegen (z.B. Herstellungspreis). Nvidia wird nie mit dem preis nachkommen, denn sowohl die Karte ist deutlich aufwändiger herzustellen (PCB) und die Chips sind deutlich teurer, als auch die Kühllösung, welche erheblich aufwändiger wird um ähnliche idle geräusche zu produzieren wie die x2.
Das was preislich und energietechnisch auf dem niveau der x2 Läge wäre eine dual G94Karte, die mit Sicherheit deutlich langsamer als die x2 daherkommt. Wenigstens hätten dann beide architekturen 64 shader :D der 5Dkack ist doch mist, wer glaubt das schon.

FAZIT: Wenn die 9800GX2 in allen bereichen die bisherige dominierung wieder einführen soll, wird das nvidia eine Stange Geld kosten. AMD hat zwar derzeit keinerlei bare Reserven, im gegenteil, aber eine 9800gx2 kann Verluste einfahren, während die x2 preislich noch einen guten Gewinnspielraum behält.

Gast
2008-01-28, 14:55:30
ach nimm doch mal ein anders game...es wird langweilig......am besten U3 oder G3.....meine Herren....oder eins der anderen 20....

leider hast du keine ahnung woher die sli/cf >dann bin ich ja beruhigt ich hatte schon SLI da hast du das noch so SCHLI geschrieben.

auf persönliche beleidigungen gehe ich jetzt mal nicht ein

eine frage, warum sollte ich games hernehmen die weniger als 512mb vram benötigen um auf die wichtigkeit von mehr als 512mb vram hinzuweisen?
das würde ich machen wenn ich bei amd angestellt wäre :rolleyes:

fakt ist - wenn man 1920 mit AA nutzen will ist eine X2 nicht zukunftssicher
lieber auf eine version mit 2x 1gb warten

Eggcake
2008-01-28, 14:56:48
Man hat sie eben nicht!

Mikroruckler! Schon gehört?


Mh....machst du das mit Absicht? :)

Tarkin
2008-01-28, 15:00:19
Speziell für die Leute die hier immer wieder mit "Shysis" hausieren gehen...

http://www.hartware.de/review_785_9.html

Huch, was ist das? Eine einzelne 3870 "zersägt" hier die ach so tolle Ultra

... bitte jetzt nicht zum heulen anfangen Tombmann

;)

Gast
2008-01-28, 15:00:38
Mh....machst du das mit Absicht? :)
Ja.

Was willst du mit gefakten 30% mehr FPS? :)

tombman
2008-01-28, 15:01:55
ohhhh uhhhh ich zittere :P
pass lieber selbst auf dass dich keiner von den moderatoren löscht... bei dem blech was du verzapfst. ist ja nicht zum aushalten. da bekommt man ja augenkrebs von lesen deiner beiträge. aber als nvidiot ist man anscheinend immun dagegen.
Schimpf nur weiter, zeigst nur deine Unterlegenheit ;)
Und melden tu ich nicht, damit du was lernst oder zitterst. Ich handle einfach richtig.

Gast
2008-01-28, 15:04:51
Glaub ich nicht, da das mehr Nachteile als Vorteile mit sich bringt....

Sinnig wäre es jetzt von ATI einen Schalter mit ins CCC einzubauen mit dem man AFR erzwingen kann (bzw. ausschalten).

hat ati im bezug auf CF schon irgendetwas sinnvolles gemacht?

so lange es keine möglichkeit gibt selbst profile zu erstellen/zu bearbeiten bleibt CF ziemlich sinnlos.

Eggcake
2008-01-28, 15:05:03
Ja.

Was willst du mit gefakten 30% mehr FPS? :)

Darum sollte es erstmal nicht gehen. Dann müssen wir erst gar nicht über die X2 diskutieren, weil alle Tests für die Tonne wären. Aber wir diskutieren, also sollen die Tests bitte auch ernst genommen werden :P

dildo4u
2008-01-28, 15:05:11
Speziell für die Leute die hier immer wieder mit "Shysis" hausieren gehen...

http://www.hartware.de/review_785_9.html

Huch, was ist das? Eine einzelne 3870 "zersägt" hier die ach so tolle Ultra

... bitte jetzt nicht zum heulen anfangen Tombmann

;)
Nur leider scheint ATI für diese OpenGl "Wunderwerte" immer mal wieder 2 Jahre Treiberoptemierung zu brauchen(Doom3,Q4 etc) die sich bei anderen OpenGl Spielen nicht automatisch bezahlt machen. Bei aktuellen OpenGL Spielen siehts dann wieder eher düster aus.Da fehlen whol noch die "Anpassungen" die ATI whol bei jedem Opengl Game einzeln anpassen muss.(ATI scheint absolut unfähig das endlich mal Global für alle OpenGL Games zu lösen?)

http://images.anandtech.com/graphs/atiradeonhd3870x2_012708225732/16442.png

http://anandtech.com/video/showdoc.aspx?i=3209&p=6

tombman
2008-01-28, 15:06:12
Speziell für die Leute die hier immer wieder mit "Shysis" hausieren gehen...

http://www.hartware.de/review_785_9.html

Huch, was ist das? Eine einzelne 3870 "zersägt" hier die ach so tolle Ultra

... bitte jetzt nicht zum heulen anfangen Tombmann

;)
toll, hast ein Spiel gefunden von zig anderen :rolleyes: Schau dir lieber mal den Durchschnitt an- punktuell bewerten tun nur fanboys.

Schau du dir lieber mal anandtech und techreport Werte an. Da wurde gescheiterweise auch 8800GT (nicht GTS!) SLI mitgetestet.
Tjo, rat mal wer deutlich gewinnt ;)

Gast
2008-01-28, 15:11:03
Darum sollte es erstmal nicht gehen. Dann müssen wir erst gar nicht über die X2 diskutieren, weil alle Tests für die Tonne wären. Aber wir diskutieren, also sollen die Tests bitte auch ernst genommen werden :P
Das schreibe ich doch ständig.

Im Grunde sind alle Tests für die Tonne.
Man kann höchstens per Formel sagen, wie viele FPS es wirklcih sind. Also zb. die gefakten FPS * 0,6 = vergleichbare FPS. :)

Hakim
2008-01-28, 15:12:13
...... und man benötigt ein passendes Mobo- darf man auch nicht vergessen.


Wieso das denn? Die 79xxGX2 lief doch fast auf allen mobos. Bei einigen wenigen brachte ein Biosupdate Abhilfe.

RIPchen
2008-01-28, 15:13:33
"fakt ist - wenn man 1920 mit AA nutzen will ist eine X2 nicht zukunftssicher
lieber auf eine version mit 2x 1gb warten"

Das ist nun definitiv Murks. Erst die letzten tage wurde ein ausführlicher Test einer 8800GT 1GB gegen die 8800GT mit 512MB gemacht. Nicht einmal bei 2560*1600 gab es nennenswerte Unterschiede, nicht mal bei Crysis. Und das will was heissen.

Mag sein, dass das bei zukünftigen Spielen anders sein kann, denn die derzeitigen Speicherpreise begünstigen das durchaus. Aber jetzt auf eine Karte mit 2*1GB zu warten ist sinnlos.

Coda
2008-01-28, 15:13:41
wurde das schon sicher ausgeschloßen? sorry hab das irgendwann nicht mehr so sehr verfolgt...
Ja, das ist sicher ausgeschlossen. Die unstetigen Frametimes gibt's aus Prinzip immer mit AFR. Auch unabhängig vom IHV.

Solange das nicht behoben ist (was Performance kosten wird) werde ich mir weder SLI noch Crossfire antun.

Gast
2008-01-28, 15:15:11
"fakt ist - wenn man 1920 mit AA nutzen will ist eine X2 nicht zukunftssicher
lieber auf eine version mit 2x 1gb warten"

Das ist nun definitiv Murks. Erst die letzten tage wurde ein ausführlicher Test einer 8800GT 1GB gegen die 8800GT mit 512MB gemacht. Nicht einmal bei 2560*1600 gab es nennenswerte Unterschiede, nicht mal bei Crysis. Und das will was heissen.

Mag sein, dass das bei zukünftigen Spielen anders sein kann, denn die derzeitigen Speicherpreise begünstigen das durchaus. Aber jetzt auf eine Karte mit 2*1GB zu warten ist sinnlos.

quelle?
eine GT alleine reicht von der bandbreite her sowieso nicht mehr für crysis aus
wenn dann bitte 512mb gt SLI vs 1024mb gt SLI ;)

Tarkin
2008-01-28, 15:17:50
Nur leider scheint ATI für diese OpenGl "Wunderwerte" immer mal wieder 2 Jahre Treiberoptemierung zu brauchen(Doom3,Q4 etc) die sich bei anderen OpenGl Spielen nicht automatisch bezahlt machen. Bei aktuellen OpenGL Spielen siehts dann wieder eher düster aus.Da fehlen whol noch die "Anpassungen" die ATI whol bei jedem Opengl Game einzeln anpassen muss.(ATI scheint absolut unfähig das endlich mal Global für alle OpenGL Games zu lösen?)

http://images.anandtech.com/graphs/atiradeonhd3870x2_012708225732/16442.png

http://anandtech.com/video/showdoc.aspx?i=3209&p=6

pfff...

http://www.hothardware.com/articleimages/Item1093/et.png

tombman
2008-01-28, 15:18:14
8800GT SLI (= minimum GX2 perf.) vs HD3870X2

http://img251.imageshack.us/img251/1760/16434cf4.pnghttp://img253.imageshack.us/img253/8587/16428hu5.pnghttp://img251.imageshack.us/img251/6470/16439ow2.png
http://img254.imageshack.us/img254/97/16431ma5.pnghttp://img255.imageshack.us/img255/2028/16436uh6.pnghttp://img254.imageshack.us/img254/7177/16451aj8.png
http://img255.imageshack.us/img255/1262/16422ej7.pnghttp://img254.imageshack.us/img254/7663/16442ly4.png

*sing 50cent: I'll Whip Ya Head Boy*

:cool:

Gast
2008-01-28, 15:19:56
Das das GT SLI die X2 derbe wegrult war eh klar.

dildo4u
2008-01-28, 15:21:25
pfff...

http://www.hothardware.com/articleimages/Item1093/et.png
Selbes Fazit wie bei Anandtech die vergleichbare Nvidia Karte(Lösung) ist deutlich überlegen.

tombman
2008-01-28, 15:21:53
Ab 200€ LAGERND ;)
http://geizhals.at/eu/a307214.html

Und wehe Nvidia packt GTS chips auf ihre GX2- dann wirds GANZ traurig ;)

PHuV
2008-01-28, 15:25:07
Zwei Nvidia GPUs heißt wohl 2x G92, denn alle anderen derzeitigen Nvidia chips haben nicht die Power auch nur annähernd mit dem rv670 mitzuhalten.

So schauts aus:

Geforce 9800 GX2: Neue Fotos aufgetaucht (http://www.pcgameshardware.de/?article_id=629910)

Ein weiterer Ansatzpunkt für Vermutungen ergibt sich, wenn man den Aufdruck der GPUs betrachtet. So wird auf den Geforce 8800 GTS-512-Karten ein G92-400-A2 verbaut, hier ist nun die Aufschrift G92-450-A2 zu erkennen. Verwendet die Geforce 9800 GX2 doch nicht dieselbe GPU wie die Geforce 8800 GTS-512?


Prinzipiell hast du recht, ein einzelner G92 ist dem rv670 deutlich überlegen und zwei G92 SLI Karten ebenfalls. Allerdings kommen die auch zu einem anderen preispunkt. der RV670 ist eine mainstream und performancelösung, der G92 eine performance und highendlösung. Der rv670 ist nämlich preislich und vom Transistorenbudget hervorragend gegen den kleineren g94 positioniert.
Ich mag hier erinnern, dass der G94 wohl auf locker 250mm² hinausläuft (gemessene Kantenlänge ist 15.99 mm laut Fotos von PC-online mit Schieblehre am DIE).


Das bestreitet auch keiner, auch die Fertigung mit 55 nm ist sicherlich ein Fortschritt.


FAZIT: Wenn die 9800GX2 in allen bereichen die bisherige dominierung wieder einführen soll, wird das nvidia eine Stange Geld kosten. AMD hat zwar derzeit keinerlei bare Reserven, im gegenteil, aber eine 9800gx2 kann Verluste einfahren, während die x2 preislich noch einen guten Gewinnspielraum behält.

Wobei ich die 9800X2 nur für eine Zwischenlösung halte. Man muß sich mal vor Augen halten, daß Nvidia mit der G80-Architektur den Hammer schlechthin geliefert hat, und jetzt erst ATI mit einer Multi-GPU-Karte zu der höchsten Single-GPU-Karte aufschließen kann. In den 1,5 Jahren hat Nvidia bestimmt auch nicht geschlafen, und noch hat Nvidia nicht ebenfalls auf 55nm, sondern erst auf mit der 8800 GT auf 65 nm umgestellt. Es ist also noch deutlich Potential für Nvidia drin.

Spasstiger
2008-01-28, 15:27:14
Gibts eigentlich Benchmarks, bei denen konsequent adaptives AA und Transparenz-AA gefahren wird? Die Multisampling-Methode bei beiden IHVs reicht ja schon. Auf jeden Fall würde ich keine High-End-Karte kaufen ohne auch AAA/TMSAA zu fahren.

4711
2008-01-28, 15:27:26
Und wehe Nvidia packt GTS chips auf ihre GX2- dann wirds GANZ traurig>>>>
natürlich packen die,die lachen sich doch jetzt schon tot..Geld regiert die Welt..aber leider traurig da damit wieder eine HighEnd Single Karte in weite Ferne rückt.

4711
2008-01-28, 15:29:29
So schauts aus:

Geforce 9800 GX2: Neue Fotos aufgetaucht (http://www.pcgameshardware.de/?article_id=629910)

Ein weiterer Ansatzpunkt für Vermutungen ergibt sich, wenn man den Aufdruck der GPUs betrachtet. So wird auf den Geforce 8800 GTS-512-Karten ein G92-400-A2 verbaut, hier ist nun die Aufschrift G92-450-A2 zu erkennen. Verwendet die Geforce 9800 GX2 doch nicht dieselbe GPU wie die Geforce 8800 GTS-512?



Das bestreitet auch keiner, auch die Fertigung mit 55 nm ist sicherlich ein Fortschritt.






Wobei ich die 9800X2 nur für eine Zwischenlösung halte. Man muß sich mal vor Augen halten, daß Nvidia mit der G80-Architektur den Hammer schlechthin geliefert hat, und jetzt erst ATI mit einer Multi-GPU-Karte zu der höchsten Single-GPU-Karte aufschließen kann. In den 1,5 Jahren hat Nvidia bestimmt auch nicht geschlafen, und noch hat Nvidia nicht ebenfalls auf 55nm, sondern erst auf mit der 8800 GT auf 65 nm umgestellt. Es ist also noch deutlich Potential für Nvidia drin.


öööhmm "G92 450 A2"....

PHuV
2008-01-28, 15:30:59
Ab 200€ LAGERND ;)
http://geizhals.at/eu/a307214.html

Und wehe Nvidia packt GTS chips auf ihre GX2- dann wirds GANZ traurig ;)

Die billigste (lieferbare !!!) X2-Karte liegt momentan bei 439 € von MSI, wenn ich es richtig gesehen habe. Gut, einen Vorteil der Karte liegt wirklich auf der Hand, man braucht nur einen PCIe-16-Slot.

Gast
2008-01-28, 15:31:14
öööhmm "G92 450 A2"....

Was willst jetzt damit sagen?

davidzo
2008-01-28, 15:32:38
Zitat von Tarkin
Speziell für die Leute die hier immer wieder mit "Shysis" hausieren gehen...

http://www.hartware.de/review_785_9.html

Huch, was ist das? Eine einzelne 3870 "zersägt" hier die ach so tolle Ultra

... bitte jetzt nicht zum heulen anfangen Tombmanntoll, hast ein Spiel gefunden von zig anderen :rolleyes: Schau dir lieber mal den Durchschnitt an- punktuell bewerten tun nur fanboys.

Schau du dir lieber mal anandtech und techreport Werte an. Da wurde gescheiterweise auch 8800GT (nicht GTS!) SLI mitgetestet.
Tjo, rat mal wer deutlich gewinnt ;)

Wenn ich mir den dortigen Durchschnitt des Tests angucke bemerke ich dass die 3870x2 im Gegensatz zu dem dort mitgetesteten 8800GTS 512 SLI bei hohen Auflösungen durch die Bank besser skaliert. FSAA macht die Sache nur noch schlimmer,GTS SLI ist wenn dann nurnoch gleichschnell wie eine 3870x2. Wie da eine langsamer zu erwartende 9800gx2 mithalten soll is mir schleierhaft.

Ich gebe zu bedenken dass hier nicht das berüchtigte 8xFSAA verwendet wurde, was die Schwäche des G92 voll ausnutzt. Und es wurde außerdem nicht die berüchtigte 2560er Auflösung verwendet welche seit jeher die Schwäche der G8x basierten Chips ist. Dabei schneidet eine Ultra laut CB nur halbsoschnell ab wie eine 3870x2, geschweige denn vom G92, der völlig abgeschlagen ist!

Bildquelle: http://www.hartware.de/review_785.html

HL² LC: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage01.jpg
FEAR: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage02.jpg
Prey: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage04.jpg
Q4: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage05.jpg
Stalker: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage06.jpg
SC3: 1920 4xFSAA 16x Aniso
http://db.especdor.de/3870/Zwischenablage07.jpg


Was sollte die Domäne einer Highendkarte sein, wenn nicht hohe Auslösungen mit hohen Filtereinstellungen wie 4x oder 8x? Hartware-net hat nur mit "moderatem" 4xFSAA getestet und selbst da hängt die 3870x2 eine hereininterpolierte 9800GX2 in allen Tests ab oder zieht zumindest gleichauf mit.
Guck dir die Framerates an. Ab jetzt gilt das Argument beim single rv670 "Diese Auflösung ist sowieso unspielbar" nicht mehr, das sind alles optimal spielbare Framerates.
Mit 8x FSAA haben wir jetzt keine benchies, aber dazu mag ich nur die skalierungsgrafik von CB zeigen:

http://db.especdor.de/3870/Zwischenablage08.jpg

Je höher die Grafikeinstellungen also sind, desto düsterer wird es um die nvidiakarten und um die kommende 9800GX2. Allerdings sieht auch die 8800Ultra hier serh serh schlecht aus, die ganzen möchtegernexperten die eine Ultra bei hohen Auflösungen vornesehen sollten sich das mal reinziehen.


Siehst du Tombman was passiert wenn ich dich beim Wort nehme und mir mal den "Durchschnitt" ansehe?
Manchmal (will sagen Immer) hast du echt Tomaten auf den Augen und revidierst im nächsten Satz gleich deine letzte Aussage, so opportun bist du. Das wirst du jetzt vermutlich auch tun mit "So war das aber gar nicht gemeint" und dann irgendwelche herausgepickten Anandbildchen as "Beweise" liefern. Nur zu!

N0Thing
2008-01-28, 15:33:29
Ab 200€ LAGERND ;)
http://geizhals.at/eu/a307214.html

Und wehe Nvidia packt GTS chips auf ihre GX2- dann wirds GANZ traurig ;)



Dafür ist die 3870x2 günstiger und auch lagernd: http://geizhals.at/deutschland/a310038.html und braucht zumindest beim Vergleich mit zwei Karten im SLI kein spezielle Mainboard, sondern kann auf jedes PCIe Mainboard gesetzt werden, auf dem auch eine 3870 oder 8800GT funktionieren würde.

Ich würde nicht mehr Geld ausgeben, wenn ich dann von spielbaren FPS auf noch mehr FPS komme. Generell hat man zur Zeit in jedem Leistungsbereich einfach eine tolle Auswahl, man findet für jedes System die passende Karte, egal ob man Fanboy ist, auf das Preisleistungsverhältnis achtet oder nur eine passende Grafikkarte für sein Restsystem sucht.

Die Leistungskrone wird Nvidia wahrscheinlich mit der 9800GX2 wieder erlangen, ich kann mir aber nicht vorstellen, daß die Karte unter 450€ zu haben sein wird. Bis dahin hat AMD mit der 3870x2 in den meisten Fällen die schnellste Einzelkarte zu bieten. Ich rechne die 9800GX2 auch mal als Einzelkarte, auch wenn es "nur" zwei zusammengepappte geänderte G92 sind.

Schlammsau
2008-01-28, 15:37:54
.....


Physiklaisch eine Karte ja, sie stellt sich dem benutzer aber wie ein Zweikartensystem da mit allen Vor- und Nachteilen. Und bevor ich Performanceaussagen treffen würde, empfehle ich mal abzuwarten bis jemand die Karte auf ältere und wenig populäre Titel los läst. Denn machen wir uns nichts vor eine 8800Ultra zeigt ihre Power in fast jedem Fall. Eibrüche von 50% sind extrem unwahrscheinlich. Bei CF reicht ein Spiel, dass CF nicht kennt und man verliert 50% Leistung.

und? bei den "alten" Games reicht auch eine X1950 Pro oder ähnliches?
ich will doch nicht 200 oder mehr fps haben.....wofür auch? 40-60fps reichen doch aus! Hab mit meiner einzelnen 3850 512MB bei 1280x1024 und 4xAA/16xAF bei CSS auch mehr als 200fps...... also die Ausrede gilt nicht. Für "alte" Games hat die X2 mehr als aureichend Leistung!!!!!!!!

davidzo
2008-01-28, 15:38:14
Nach den SLI-Tests glaube ich nicht mehr dass die 9800gx² die 3870x² entscheidend schlägt. In niedrigen Auflösungen wird sie davonreiten, aber in dem Bereich worum es im Highend geht wird die 3870 die Krone behalten. Siehe benchies von hartware.net oben, die sich mich den anderen wuellen aus der Industrie decken.

Der Andantech Test ist absoluter Bullshit, denn es wird nur sehr selten AA verwendet, 70% der Tests wurden mit 0xFSAA durchgeführt.

dildo4u
2008-01-28, 15:41:20
http://db.especdor.de/3870/Zwischenablage08.jpg

Je höher die Grafikeinstellungen also sind, desto düsterer wird es um die nvidiakarten und um die kommende 9800GX2. Allerdings sieht auch die 8800Ultra hier serh serh schlecht aus, die ganzen möchtegernexperten die eine Ultra bei hohen Auflösungen vornesehen sollten sich das mal reinziehen.


Hast du dir die dazu gehörigen FPS Werte mal angeguckt?Die sind fast alle im unspielbaren Bereich und ob die ATI nun 10 statt 5fps bringt spielt in der nutzbaren Praxis keine Rolle.

Spasstiger
2008-01-28, 15:41:28
Warum bringt ATI die 3870 X2 eigentlich nicht als Singlechiplösung? Im 55-nm-Verfahren kann man sich das doch erlauben und man hätte dann eine wirklich potente High-End-Lösung (640 skalare Shadereinheiten, 32 fp16-TMUs, etc.).
Naja, bin mal gespannt, was ATI als nächsten High-End-Chip bringt. Man ist ja auf einem ganz guten Weg mit den jetzigen Chips, nur dass es halt noch ein wenig an maximaler Rechenpower mangelt. Dafür können die Chips ihre Power mit steigenden Quali-Anforderungen besser halten als die Nvidia-Chips.

Achja, hat jetzt jemand ein paar Benchmarks mit TRMSAA und AAA?

Gast
2008-01-28, 15:42:03
Nach den SLI-Tests glaube ich nicht mehr dass die 9800gx² die 3870x² entscheident schlägt. In niedrigen Auflösungen wird sie davonreiten, aber in dem Bereich worum es im Highend geht wird die 3870 die Krone behalten oder mindestens gleichziehen. Siehe benchies von hartware.net oben, die sich mich den anderen wuellen aus der Industrie decken.

Was fürn Sli test`? Deine lachhaften LINks daoben? roflllllllll
Die haben doch null ahnung von kragga tests und dem solln wir glauben?
Versuchs mal mit ana und xlabs DAS sind klasse seiten.

dildo4u
2008-01-28, 15:44:46
Warum bringt ATI die 3870 X2 eigentlich nicht als Singlechiplösung? Im 55-nm-Verfahren kann man sich das doch erlauben und man hätte dann eine wirklich potente High-End-Lösung (640 skalare Shadereinheiten, 32 fp16-TMUs, etc.).

Das wird der R700 im Q3 2008.Die X2 3870 sehe ich als Testkarte(Treiber) für diesen Chip.

AnarchX
2008-01-28, 15:47:31
Warum bringt ATI die 3870 X2 eigentlich nicht als Singlechiplösung? Im 55-nm-Verfahren kann man sich das doch erlauben und man hätte dann eine wirklich potente High-End-Lösung (640 skalare Shadereinheiten, 32 fp16-TMUs, etc.).

Ein zu hohes Risiko, was AMD wohl nicht mehr möchte.
Und ob 55nm für einen solche Chip wirklich schon bereit gewesen wäre, ist auch eine Frage.

Aber im Q2 soll ja mit dem RV770 ein fetterer Chip @55nm kommen. ;)

tombman
2008-01-28, 15:48:30
Wenn ich mir den dortigen Durchschnitt des Tests angucke bemerke ich dass die 3870x2 im Gegensatz zu dem dort mitgetesteten 8800GTS 512 SLI bei hohen Auflösungen durch die Bank besser skaliert.
Also ich sehe da bei DEINEN geposteten Werten Gleichstand. 3 zu 3. (brauchst nur die Balken ansehen).
FSAA macht die Sache nur noch schlimmer,GTS SLI ist wenn dann nurnoch gleichschnell wie eine 3870x2. Wie da eine langsamer zu erwartende 9800gx2 mithalten soll is mir schleierhaft.
Schau dir die Anandtech Werte einfach an- schaut nach Tatsache aus. Ist ja auch logisch, eine GTX oder eine GTS sind schneller als eine single 3870...

[...]
...und dann irgendwelche herausgepickten Anandbildchen as "Beweise" liefern. Nur zu!
"Herausgepickt?" Bis auf "Witcher" habe ich ALLE Werte von Anandtech gepostet. (bei Witcher war ~ Gleichstand)

Du kannst dir ja gerne aussuchen welchem "bencher" und welche Homepage du glaubst- ich tu das auch, und mir erscheinen die Werte von Anandtech logischer ;)

Odal
2008-01-28, 15:49:06
Was fürn Sli test`? Deine lachhaften LINks daoben? roflllllllll
Die haben doch null ahnung von kragga tests und dem solln wir glauben?
Versuchs mal mit ana und xlabs DAS sind klasse seiten.

was sind "kragga tests"?`:confused:
klingt irgendwie pervers ;D


aber das ist typisch kaum ist ein testausgang einem mal nicht genehm haben die tester keine ahnung

:biggrin:

davidzo
2008-01-28, 15:50:32
Was fürn Sli test`? Deine lachhaften LINks daoben? roflllllllll
Die haben doch null ahnung von kragga tests und dem solln wir glauben?
Versuchs mal mit ana und xlabs DAS sind klasse seiten.

LOl, mit 0xAA und 0x Aniso?
ne, der Anandtech test ist absolut für die Tonne, so siehts nämlich aus.

Zitat:Zitat von davidzo
Wenn ich mir den dortigen Durchschnitt des Tests angucke bemerke ich dass die 3870x2 im Gegensatz zu dem dort mitgetesteten 8800GTS 512 SLI bei hohen Auflösungen durch die Bank besser skaliert.

Also ich sehe da bei DEINEN geposteten Werten Gleichstand. 3 zu 3. (brauchst nur die Balken ansehen).

Ist dir die Bedeutung von "skalieren" bekannt? Skalieren sagt nichts über die absolute Performance aus, sondenr nur über ein Verhältnis! Klar steht es 3:3, allerdings für 8800GTS SLI, was mit einer 9800GX2 nur unterboten werden kann.
Dann guck dir nochmal an was bei den Anandtechtests meist oben drüber steht 0xAA und zu aniso wird nur selten überhaupt ne Angabe gemacht...
Soviel zu professionellem Test.

Übrigens gabs deinen Post mit den Anandtechbildern noch nicht als ich meinen verfasst habe.

GeneralHanno
2008-01-28, 15:51:03
ein X2 singelchip hätte etwa 400mm² die-size und würde ein weiteres tape out benötigen. da ist es wesentlich billiger einfach 2 RV670 auf ein PCB zu klatschen und gut ist. der RV770 wird vermutlich ein breiterer und überarbeiteter RV670 sein. der R700 besteht dann aus 2* RV770 ...

PHuV
2008-01-28, 15:52:49
quelle?
eine GT alleine reicht von der bandbreite her sowieso nicht mehr für crysis aus
wenn dann bitte 512mb gt SLI vs 1024mb gt SLI ;)

Die wüßte ich auch mal gerne. Schon bei 1920x1200 macht sich der Speicher bemerkbar

http://en.expreview.com/?p=159&page=13

http://img176.imageshack.us/img176/8792/crysiszn8.png (http://imageshack.us)

davidzo
2008-01-28, 15:57:05
So schauts aus:

Geforce 9800 GX2: Neue Fotos aufgetaucht (http://www.pcgameshardware.de/?article_id=629910)

Ein weiterer Ansatzpunkt für Vermutungen ergibt sich, wenn man den Aufdruck der GPUs betrachtet. So wird auf den Geforce 8800 GTS-512-Karten ein G92-400-A2 verbaut, hier ist nun die Aufschrift G92-450-A2 zu erkennen. Verwendet die Geforce 9800 GX2 doch nicht dieselbe GPU wie die Geforce 8800 GTS-512?



Das bestreitet auch keiner, auch die Fertigung mit 55 nm ist sicherlich ein Fortschritt.



Wobei ich die 9800X2 nur für eine Zwischenlösung halte. Man muß sich mal vor Augen halten, daß Nvidia mit der G80-Architektur den Hammer schlechthin geliefert hat, und jetzt erst ATI mit einer Multi-GPU-Karte zu der höchsten Single-GPU-Karte aufschließen kann. In den 1,5 Jahren hat Nvidia bestimmt auch nicht geschlafen, und noch hat Nvidia nicht ebenfalls auf 55nm, sondern erst auf mit der 8800 GT auf 65 nm umgestellt. Es ist also noch deutlich Potential für Nvidia drin.

na wenn alle nun sagen dass man auf die 9800gx2 warten soll um seine Schlüsse zu ziehen würde ich sagen warten wir doch einfach mal auf den rv770.
Das ist nämlich der erste Monsterchip von AMD seit dem R600 der es in Kosten und Größe mit G92 und co aufnehmen wird.

@wdragon: dass die nvidia g8x basierten karten einen vram bug haben wissen wir ja mittlerweile. danke

Eggcake
2008-01-28, 15:59:09
Die billigste (lieferbare !!!) X2-Karte liegt momentan bei 439 € von MSI, wenn ich es richtig gesehen habe. Gut, einen Vorteil der Karte liegt wirklich auf der Hand, man braucht nur einen PCIe-16-Slot.

Du vergleichst die Verfügbarkeit (bzw. den Preis, der jedoch direkt an die Verfügbarkeit gekoppelt ist) mit einer Karte, die schon seit Monaten auf dem Markt ist? :uclap:

Edit: Achja, und bitte bewertet mal nur die Fakten. Wie eine GX2 tatsächlich abschliessen wird wissen wir alle zusammen noch nicht.

StefanV
2008-01-28, 15:59:33
Je höher die Grafikeinstellungen also sind, desto düsterer wird es um die nvidiakarten und um die kommende 9800GX2.
Ja, alles wegen dem (laut einigen) nicht existenten VRAM Bug bzw dem Zustands das nVidia Karten aus irgendwelchen Gründen wesentlich mehr VRAM verbraten.

Und wenns aus ist, reagieren die auch entsprechend derb drauf, heißt derber Performanceinpact oder gar Absturz...

Blaire
2008-01-28, 16:01:43
Nach den SLI-Tests glaube ich nicht mehr dass die 9800gx² die 3870x² entscheidend schlägt. In niedrigen Auflösungen wird sie davonreiten, aber in dem Bereich worum es im Highend geht wird die 3870 die Krone behalten.

Bietet aber mit 8xMSAA leider nur Durchschnitt...Nvidia hat Hybriden das ist für Leute die auf BQ wert legen ganz sicher ein Argument.
Außerdem schau dir die Computerbase Scores an, Jericho ist nichtmal auf 2560x1600 ohne! AA spielbar mit einer X2, da liegt die Ultra sogar noch gut vorne. FEAR mit 8xAA ist ebenso unspielbar@2560x1600...Bei Crysis ist sogar EINE! 8800 Ultra schneller als eine X2...No Big Deal...;)

Odal
2008-01-28, 16:02:02
Das ist nich typisch das fakt. die haben und hatten noch nie ahnung. was typisch ist das solche leute wie er und du mitreden wollen wovon sie keine ahnung haben. ;D
Und wie du tickst sieht man ja ganz deutlich ;D ;D ;D

achja wie tick ich denn?

Gast
2008-01-28, 16:02:23
Ja, alles wegen dem (laut einigen) nicht existenten VRAM Bug bzw dem Zustands das nVidia Karten aus irgendwelchen Gründen wesentlich mehr VRAM verbraten.

Und wenns aus ist, reagieren die auch entsprechend derb drauf, heißt derber Performanceinpact oder gar Absturz...
Genau dieses schönreden dieser Abstürze kann ich als NV Fan nicht verstehen.

tombman
2008-01-28, 16:08:45
Dann guck dir nochmal an was bei den Anandtechtests meist oben drüber steht 0xAA und zu aniso wird nur selten überhaupt ne Angabe gemacht...
Soviel zu professionellem Test.

ok, nachdem Anandtech deiner Meinung nach so ein Idiot ist, hier der nächste Bilderspam- diesmal von TECHREPORT :cool:
(ALLE Bilder gepostet diesmal)

http://img148.imageshack.us/img148/2305/hl21920ec5.gifhttp://img149.imageshack.us/img149/5591/cod41920xl7.gif
http://img149.imageshack.us/img149/2374/crysis1680vy7.gifhttp://img301.imageshack.us/img301/7362/etqw1920fj4.gifhttp://img152.imageshack.us/img152/1821/ut3pi9.gif

Siehs endlich ein, ATI kann Nvidia derzeit nicht schlagen. Mit R700 mag alles anders werden, aber derzeit: nope ;)

reunion
2008-01-28, 16:08:58
ein X2 singelchip hätte etwa 400mm² die-size und würde ein weiteres tape out benötigen.


Ein "X2 Singelchip" hätte max. 350mm² Die-Size.

anddill
2008-01-28, 16:14:16
Euch kann man auch keinen halben Tag alleine lassen. Jetzt ist hier Ende im Gelände, zu und Feierabend. Und jetzt setz ich mich erst mal hin und mach Strichlisten, und werd dann einige Nutzerprofile mit bunten Karten verzieren.

<anddill>

Tarkin für sein Gebashe mit Tombman über mehrere Seiten: Rot
Tombman dito: Rot
Nagus mit mehreren Beiträgen auch mit Rot dabei
K4mPFwUr$t bekommst die allerletzte Verwarnung: Gelb
wdragon für das Nuhr-Zitat Verwarnung: Gelb
HarryHirsch Gelb für ein gelöschtes Posting

Ich werde keine PMs zu den hier verteilten Punkten und Verwarnungen beantworten! Ihr könnt sie Euch also einfach sparen!