PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9800 GX2: (P)Review-Thread


dildo4u
2008-03-18, 14:57:42
Anandtech Review

http://www.anandtech.com/video/showdoc.aspx?i=3266&p=2

Computerbase Review

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/

Firingsquad Performance Preview

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/

Guru3d BFG GeForce 9800 GX2 Review

http://www.guru3d.com/article/Videocards/512/

PCGH Review

http://www.pcgameshardware.de/aid,636620/Test/Benchmark/PCGH-Test_Geforce_9800_GX2/

Hexus NVIDIA (ZOTAC) GeForce 9800 GX2 Review

http://www.hexus.net/content/item.php?item=12294

Bjorn3d XFX 9800GX2 Review

http://www.bjorn3d.com/read.php?cID=1251

Legitreviews XFX GeForce 9800 GX2 Review

http://legitreviews.com/article/679/1/

Techpowerup Zotac GeForce 9800 GX2 Review

http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GX2

Tbreak ASUS GeForce EN9800GX2 Review

http://www.tbreak.com/reviews/article.php?id=592

Hothardware Review

http://www.hothardware.com/Articles/NVIDIA_nForce_790i_SLI_Ultra_and_GeForce_9800_GX2/

Hardware.fr Dossier : Nvidia GeForce 9800 GX2

http://www.hardware.fr/articles/708-1/dossier-nvidia-geforce-9800-gx2.html

Tomshardware Review

http://www.tomshardware.com/2008/03/18/nvidia_geforce_9800_gx2_review/

Driverheaven.net XFX 9800 GX2 Review

http://www.driverheaven.net/reviews.php?reviewid=538&pageid=14

9800GX2 Quad-SLI@zol.com (http://translate.google.com/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F85%2F850866.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

9800ProZwerg
2008-03-18, 15:02:08
Computerbase Review
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/

@Dildo
LOL:biggrin:

Gast
2008-03-18, 15:04:34
Solange man nicht 8AA aktiviert ist die Karte wie erwartet klar vorne. Mit 8AA ist die Leistung allerdings tw. echt erbärmlich.

Gast
2008-03-18, 15:05:44
Lautstärke und Leistungsaufnahme setzten allerdings wie erwartet neue Rekordmarken.

Mr. Lolman
2008-03-18, 15:10:39
Computerbase Review

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/



Aus diesem Grund lassen wir Testläufe ohne Anti-Aliasing sowie dem anisotropen Filter komplett weg, da diese Qualitätseinstellung für zwei Grafikkarten keine Herausforderung mehr ist. Somit werden die Tests ausschließlich mit 4xAA (beziehungsweise 8xAA) sowie 16xAF in 1280x1024, 1680x1050 und 2560x1600 durchgeführt.


Hab ich Halluzinationen, oder haben die doch noAA/AF mitgebencht?

MartinRiggs
2008-03-18, 15:15:15
ja sie haben auch ohne AA/AF gebencht.
Irgendwie ist die karte nicht Fisch nicht Fleisch, für hohe Auflösung und viel AA nicht zu gebrauchen, sackteuer, laut und stromfressend.
Da ist ja die HD3870x2 das kleinere übel und wenigstens ne ganze ecke günstiger.

Schlammsau
2008-03-18, 15:16:24
Leck mich am Allerwertesten.....brachiale Leistung zu einem brachialen Preis! Nur wundert mich schon, dass die X2 unter 8xAA zumeist schneller ist!
Egal, die Karte ist eh nichts für mich! Vielleicht wenn ich im Lotto Gewinne.... (Anschaffung, Stromverbrauch und Ohrenschützer kosten ja auch was :)) *LOL*

san.salvador
2008-03-18, 15:18:56
In CoH ist meine 8800GTS G92 in so ziemlich jedem Setting flotter. :ugly:

MechWOLLIer@IE
2008-03-18, 15:19:25
Hab ich Halluzinationen, oder haben die doch noAA/AF mitgebencht?
Dieser Absatz (ich vermute du hast ihn unter "Benchmarks" her?) bezieht sich einzig und alleine auf SLI/CF-Systeme. Damit meinen wir aber expliziet zwei Grafikkarten und nicht nur zwei GPUs. Da dieser Absatz aufgrund der Dual-GPU-Karten aber eh sehr schwammig ist, haben wir diesen nun entfernt.

MechWOLLIer@IE
2008-03-18, 15:20:06
In CoH ist meine 8800GTS G92 in so ziemlich jedem Setting flotter. :ugly:
Das liegt an einem Treiberbug, den Nvidia noch versucht nachzustellen.

=Floi=
2008-03-18, 15:27:27
zitat vom 3dmark06
Somit können Grafikkarten ohne FP16-Blending-Einheiten, unter anderem die X8x0-Serie von ATi, zwei Testszenen nicht ausführen, weswegen die Punktzahl dieser GPUs generell niedrig ausfällt.

den könnte man auch mal löschen ^^

Mr. Lolman
2008-03-18, 15:30:50
Dieser Absatz (ich vermute du hast ihn unter "Benchmarks" her?) bezieht sich einzig und alleine auf SLI/CF-Systeme. Damit meinen wir aber expliziet zwei Grafikkarten und nicht nur zwei GPUs. Da dieser Absatz aufgrund der Dual-GPU-Karten aber eh sehr schwammig ist, haben wir diesen nun entfernt.

Ok. Und das hier versteh ich auch nicht ganz:


Unter der Direct3D-10-API funktioniert bisher kein Anti-Aliasing, weil dieses nicht von der Applikation angefordert wird (technisch aber zumindest theoretisch möglich sein sollte). Deswegen verzichten wir auf die Kantenglättung in den Qualitätseinstellungen.

Ihr habt aber AA-Werte. Mit dem Catalyst 8.3 geht AA unter DX9 auch auf ATI-Karten - oder sind das gar DX10 AA-Werte?


EDIT - In eigener Sache: In COJ macht NV das AA wohl doch wieder mit den ROPs. Sonst kann ich mir die Leistungssteigerung vgl mit älteren Werten eigentlich nicht erklären.



EDIT2:
Dossier : Nvidia GeForce 9800 GX2

http://www.hardware.fr/articles/708-1/dossier-nvidia-geforce-9800-gx2.html

=Floi=
2008-03-18, 15:41:19
es sind dx10 werte
steht ja groß dort :rolleyes:

zumindest testet cb nun auch bei den anderen problematischen spielen nun mit AA

Mr. Lolman
2008-03-18, 15:43:27
es sind dx10 werte
steht ja groß dort :rolleyes:

zumindest testet cb nun auch bei den anderen problematischen spielen nun mit AA

Ja sicher stehts dort. Nur funktioniert das mWn ja nicht. Deswegen auch die Frage :rolleyes:

LovesuckZ
2008-03-18, 15:46:36
Das liegt an einem Treiberbug, den Nvidia noch versucht nachzustellen.

Wie kommt ihr auf das Performancerating? Wenn ich grob Nachshlage, müsste eine 9800X2 ca. 67% vor der 3870X2 in 1280*1024 Qualität liegen...

Gast
2008-03-18, 15:49:09
Alles wie erwartet Laut, Heiß ,Stromhungrig und bei höherem AA ist essig :rolleyes:

Für 399€ wäre die Karte vom P/L grad noch o.k.

Gast
2008-03-18, 15:55:48
zitat vom 3dmark06
Somit können Grafikkarten ohne FP16-Blending-Einheiten, unter anderem die X8x0-Serie von ATi, zwei Testszenen nicht ausführen, weswegen die Punktzahl dieser GPUs generell niedrig ausfällt.
den könnte man auch mal löschen ^^
Mein Gott, was für alte Leichen...ist entfernt, danke!
Ihr habt aber AA-Werte. Mit dem Catalyst 8.3 geht AA unter DX9 auch auf ATI-Karten - oder sind das gar DX10 AA-Werte?
Das sind DX10-AA-Werte. Mit aktuellen Nvidia-Treibern geht auch unter DX10 Anti-Aliasing.
EDIT - In eigener Sache: In COJ macht NV das AA wohl doch wieder mit den ROPs. Sonst kann ich mir die Leistungssteigerung vgl mit älteren Werten eigentlich nicht erklären.
Ja, in dem Spiel scheint dies wirklich so zu sein. Ältere Benchmarks von uns stammen zum Teil aus der Benchmarkversion, bei der dies noch nicht so war.
Wie kommt ihr auf das Performancerating? Wenn ich grob Nachshlage, müsste eine 9800X2 ca. 67% vor der 3870X2 in 1280*1024 Qualität liegen...
Wie kommst du denn dadrauf? Es gibt alleine nur 3 Spiele, wo die 9800 GX2 67 Prozent oder mehr shcneller als die HD 3870 X2 ist.

Das Auge
2008-03-18, 16:04:28
Imho ist die Karte ziemlicher Schrott. Wenn ich mir die holen würde, dann will ich doch nicht auf 4xAA beschränkt bleiben, weil ihr sonst der vram ausgeht.
Da hol ich mir lieber zwei 8800GT 1024 und kann Supersampling nutzen...wenn denn die Mikrorucklerproblematik nicht wäre, die natürlich wieder mal nicht angesprochen wurde. Schon blöd, wenn man den Kopf im Arsch der Industrie stecken hat.

LovesuckZ
2008-03-18, 16:06:41
Jericho, Gothic 3, UT3, CoJ. Der Durchschnittsvorspung beträgt hier ca. 157,5% (AMD:100%, nVidia:257,5%).
Mit den Wert der anderen komme ich auf insgesamt 171,7%.
Durch 2 und ich hab sogar 85%... Sehr strange...
Ich versteh nicht, wie der Vorsprung der GX2 aus Sicht der 3870x2 nur 33% betragen könnte, wenn allein bei den oben genannten SPielen die Karte fast immer doppelt so schnell ist und es nur zwei Spiele gibt, wo sie hinten liegt.

/edit: Mehr Transparenz wäre da nicht schlecht.

Gast
2008-03-18, 16:10:28
Alles wie erwartet Laut, Heiß ,Stromhungrig und bei höherem AA ist essig :rolleyes:

Für 399€ wäre die Karte vom P/L grad noch o.k.

?? Ärgert sich wohl jemand...

Gast
2008-03-18, 16:14:49
...wenn denn die Mikrorucklerproblematik nicht wäre, die natürlich wieder mal nicht angesprochen wurde. Schon blöd, wenn man den Kopf im Arsch der Industrie stecken hat.

Fazit nicht gelesen?

Auch hat die Karte wie jede SLI/CF-Lösung zurzeit noch mit dem Problem der Mikroruckler zu kämpfen

Erst lesen, dann posten.

Das Auge
2008-03-18, 16:18:41
Fazit nicht gelesen?



Erst lesen, dann posten.

Arbeitest du bei cb? Nein, hab ich nicht gelesen, sry. Ich bezog mich aber auch nicht explizit auf das cb-Review, welches ich tatsächlich nur überflogen hab ;)
Aber schön, daß ihr da auch Druck macht, hoffentlich kommt dadurch bald ein Treiberfix.

Schlammsau
2008-03-18, 16:25:39
Imho ist die Karte ziemlicher Schrott. Wenn ich mir die holen würde, dann will ich doch nicht auf 4xAA beschränkt bleiben, weil ihr sonst der vram ausgeht.
Da hol ich mir lieber zwei 8800GT 1024 und kann Supersampling nutzen...wenn denn die Mikrorucklerproblematik nicht wäre, die natürlich wieder mal nicht angesprochen wurde. Schon blöd, wenn man den Kopf im Arsch der Industrie stecken hat.

wurde doch....
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/27/#abschnitt_fazit

Godmode
2008-03-18, 16:28:53
Die Reviews bestätigen all meine Erwartungen, sinnlos hoch 2 diese Karte. Ich hoffe jetzt eigentlich nur mehr, dass GT200 bald kommt.

san.salvador
2008-03-18, 16:49:42
Ich schiebe die Probleme der Karte mal einzig und allein auf den mickrigen Vram, liege ich damit richtig?

Mit 2x1024MB könnte die Karte sicher feine Balken ausspucken (dank SLI-Ruckelei bleibt sie so oder so untauglch ;) ).

dildo4u
2008-03-18, 16:49:58
PC Gameing Dead? Nvidia vermarktet die GX2 als "Spielkonsole" im PC. :lol:

http://s7.directupload.net/images/080318/h5jgma2a.jpg

http://www.nvidia.de/page/home.html

Nach dem Motto spielt eure lausigen X-Box Ports in hoher Auflösung echte PC Games gibt nicht mher?Muss man sich beim Flagschiff der PC Grafikkarten jetzt schon beim "guten" Ruf der Konsolen bedienen?

dargo
2008-03-18, 16:51:28
Die Reviews bestätigen all meine Erwartungen, sinnlos hoch 2 diese Karte. Ich hoffe jetzt eigentlich nur mehr, dass GT200 bald kommt.
Das schöne an den GX2 Benchmarks ist die Tatsache, dass man sich an sehr hohe Frames mit einem GT200 (natürlich einiges höher als bei der GX2) jetzt schon freuen kann. :D

Ich schiebe die Probleme der Karte mal einzig und allein auf den mickrigen Vram, liege ich damit richtig?

In Crysis mit AA auf jeden Fall.

Adam D.
2008-03-18, 16:53:37
Die Reviews bestätigen all meine Erwartungen, sinnlos hoch 2 diese Karte. Ich hoffe jetzt eigentlich nur mehr, dass GT200 bald kommt.
Bald? Was habt ihr immer mit bald? Ist Herbst/Winter bald? :|

san.salvador
2008-03-18, 16:55:08
Bald? Was habt ihr immer mit bald? Ist Herbst/Winter bald? :|
Lies genau, er hat gesagt er hofft, dass G200 bald kommt.
Ich hoffe auch, dass es morgen 30°C hat... ;)

Gast
2008-03-18, 16:56:56
Ich hoffe auch, dass es morgen 30°C hat... ;)
Aber bitte ohne Mikro-Graupel!

Gast
2008-03-18, 16:57:42
Moin...

Eiegntlich wurde alles schon zu dieser Karte gesagt: sie ist einfach nur entäuschend !

Wieso haben die das Teil nicht mit 2x1024 MB Steinchen bestückt ? Die Kosten wären dann wohl noch höher, aber hätte besser dazu gepaßt. Aber vllt auf dem PCB keinen Platz mehr ? Vllt gab es ja auch Lieferschwierigkeiten bie Samsung :)

Nvidia ist auch dreist. Die lügen einfach auf ihrer eigenen Homepage bei der Produktpräsentation.

Die stellen ihre Karte nämlich mit 512-BIT SI und 1024 MB (und nicht 2x256 BIT SI und 2x512 MB) dar. ;)

MfG

Coda
2008-03-18, 17:00:10
Aber vllt auf dem PCB keinen Platz mehr?
Größere RAMs brauchen nicht mehr Platz.

Die stellen ihre Karte nämlich mit 512-BIT SI und 1024 MB (und nicht 2x256 BIT SI und 2x512 MB) dar. ;)
Naja. Lügen ist etwas anderes. Marketing halt. Zudem ist es auch völlig egal wie die Karten ihre Leistung erreichen.

Gast
2008-03-18, 17:11:26
Coda,

würde ein Anheben des Speichers die Kosten signifikant erhöhen?

Coda
2008-03-18, 17:12:58
Naja 1024MiB von dem High-Speed GDDR3 sollten schon einiges kosten. Die Karten wären wohl mindestens 100$ teurer.

Gast
2008-03-18, 17:13:37
Das verspricht nichts gutes für die GT200 und mehr VRAM. :)

Die gelbe Eule
2008-03-18, 17:15:08
Wie erwartet noch unter der Ultra, welche es bereits neu für 350€ gibt. Ablösung where?

Coda
2008-03-18, 17:16:59
Unter der Ultra? :|

Das verspricht nichts gutes für die GT200 und mehr VRAM. :)
Wieso das denn? Da reichen 1024MiB völlig, ist doch Single-Chip.

Gast
2008-03-18, 17:21:41
Jericho, Gothic 3, UT3, CoJ. Der Durchschnittsvorspung beträgt hier ca. 157,5% (AMD:100%, nVidia:257,5%).
Mit den Wert der anderen komme ich auf insgesamt 171,7%.
Durch 2 und ich hab sogar 85%... Sehr strange...
Ich versteh nicht, wie der Vorsprung der GX2 aus Sicht der 3870x2 nur 33% betragen könnte, wenn allein bei den oben genannten SPielen die Karte fast immer doppelt so schnell ist und es nur zwei Spiele gibt, wo sie hinten liegt.

/edit: Mehr Transparenz wäre da nicht schlecht.


Bei 1280x1024 mit 4xAA/16xAF fährt sie einen 36%-igen Vorsprung im Durchschnitt ein. Das ist auch das beste Ergebnis in allen Auflösungen.

Die HD3870 X2 ist allerdings schon bei 1600x1200 mit 8xAA/16xAF um 81% schneller als die GX2... im Schnitt aller Spiele.

Und bei der (zugegeben etwas kranken) Auflösung von 2560x1600 mit 8xAA/16xAF liegt sie um 190% vor der GX2.

9800ProZwerg
2008-03-18, 17:22:29
Wie erwartet noch unter der Ultra, welche es bereits neu für 350€ gibt. Ablösung where?

:confused:
Also ich finde die Leistung IMO in Ordnung!

Gast
2008-03-18, 17:24:57
Die HD3870 X2 ist allerdings schon bei 1600x1200 mit 8xAA/16xAF um 81% schneller als die GX2... im Schnitt aller Spiele.

Toll aber nirgends spielbar...

Jake Dunn
2008-03-18, 17:35:13
Bei 1280x1024 mit 4xAA/16xAF fährt sie einen 36%-igen Vorsprung im Durchschnitt ein. Das ist auch das beste Ergebnis in allen Auflösungen.

Die HD3870 X2 ist allerdings schon bei 1600x1200 mit 8xAA/16xAF um 81% schneller als die GX2... im Schnitt aller Spiele.

Und bei der (zugegeben etwas kranken) Auflösung von 2560x1600 mit 8xAA/16xAF liegt sie um 190% vor der GX2.

Ja, und zählt man alle Performancerating Ergebnisse zusammen (Vorsprung in %) und teilt diese dann durch die Anzahl der Tests (9), erhält man einen 12%-igen Leistungsvorsprung für die X2 von ATI.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating_qualitaet

tombman
2008-03-18, 17:45:56
Weckts mich wer auf wenn die quad-sli gebenched haben :cool:

Ja, toll, jetzt gibts noch ein bischen mehr fps für ein paar Dollar mehr :rolleyes:

@Nvidia: Leudde, ich will krasse Sprünge nach oben sehen- also her mit GT200 oder was sonst gerade fix fertig in der Schublade verstaubt (und aus marketing Gründen zurückgehalten wird) ;)

Es wird Zeit für einen nächsten "GPU-Schock", wie früher schon bei 9700PRO und 8800GTX :devil:

Mr. Lolman
2008-03-18, 17:53:03
Toll aber nirgends spielbar...

Auf Dual-GPU-fps-Werte würd ich generell nix geben ;)

Jake Dunn
2008-03-18, 17:55:14
Es wird Zeit für einen nächsten "GPU-Schock", wie früher schon bei 9700PRO und 8800GTX :devil:
Auf Dual-GPU-fps-Werte würd ich generell nix geben ;)

2x *zustimm* :D

tombman
2008-03-18, 18:09:42
Auf Dual-GPU-fps-Werte würd ich generell nix geben ;)
Solange es deutlich über 40fps sind isses ned so arg...trotzdem, bin gespannt ob Nvidia nur ein großes B-L-A bzgl frametimes und den neuen Sceduler von sich gibt, oder ob da per neuem TReiber wirklich was kommt ;)

LovesuckZ
2008-03-18, 18:12:42
Bei 1280x1024 mit 4xAA/16xAF fährt sie einen 36%-igen Vorsprung im Durchschnitt ein. Das ist auch das beste Ergebnis in allen Auflösungen.

Ja, konnte es selbst errechnen. Ist mir einfach zu kompliziert.


Die HD3870 X2 ist allerdings schon bei 1600x1200 mit 8xAA/16xAF um 81% schneller als die GX2... im Schnitt aller Spiele.


Tja, schade, dass man nicht 16xCSAA mit HQ-AF gegen 8xMSAA mit Standard A.I vergleicht. Das wäre fair, aber wohl zu logisch. :rolleyes:

dildo4u
2008-03-18, 18:15:14
Tja, schade, dass man nicht 16xCSAA mit HQ-AF gegen 8xMSAA mit Standard A.I vergleicht. Das wäre fair, aber wohl zu logisch. :rolleyes:
Jup da geht die GX2 recht gut.

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/images/obl1280.gif

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/images/lp1600.gif

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/images/cod41920.gif

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gx2_performance_preview/page11.asp

LovesuckZ
2008-03-18, 18:27:43
Es gibt noch weitere Reviews:
http://www.tomshardware.com/2008/03/18/nvidia_geforce_9800_gx2_review/
http://www.driverheaven.net/reviews.php?reviewid=538

seahawk
2008-03-18, 18:37:49
Naja, halt ne GX2 der GTS. Muss man nicth haben imho.

Das Auge
2008-03-18, 18:41:54
Naja, halt ne GX2 der GTS. Muss man nicth haben imho.

Richtig, wie ich schon sagte sind da zwei 1024MB-GT's um einiges sinnvoller (wenn man das passende Board hat ;)).

LovesuckZ
2008-03-18, 18:50:11
Naja, halt ne GX2 der GTS. Muss man nicth haben imho.

Genauso wie das Konkurrenzprodukt. ;)

seahawk
2008-03-18, 18:52:45
Genauso wie das Konkurrenzprodukt. ;)

Naja, da gab es aber keine 8800GTX/Ultra und auch keine echte Alternative zu 8800GTS und 8800GTS G92. Im Portofolio bei ATI macht die X2 schon etwas mehr Sinn, aber als Anwender braucht man auch die imho nicht.

dildo4u
2008-03-18, 19:09:51
DH hat übrigenz schon Assassins Creed getestet als einzige Seite bisher angeblich in einer Review Version die X2 scheint im Gegensatz zur GX2 noch kein Profil fürs Game zu haben.

http://www.driverheaven.net/reviews.php?reviewid=538&pageid=24

Blaire
2008-03-18, 19:15:51
Es wird Zeit für einen nächsten "GPU-Schock", wie früher schon bei 9700PRO und 8800GTX :devil:

Das kann man wohl so unterschreiben. :)
Was aber bei den ganzen Reviews viel zu kurz kommt das SLI generell sehr gut performt, was für sehr gute SLI Profile spricht. Bei der X2 kann man das nicht gerade behaupten...

AnarchX
2008-03-18, 20:18:35
9800GX2 Quad-SLI@zol.com (http://translate.google.com/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F85%2F850866.html&langpair=zh%7Cen&hl=de&ie=UTF-8)

dildo4u
2008-03-18, 20:27:04
9800GX2 Quad-SLI@zol.com (http://translate.google.com/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F85%2F850866.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
Wenns mal funzt gehts richtig ab. :eek:

http://s3.directupload.net/images/080318/77fukcry.png

http://s3.directupload.net/images/080318/5yqilci5.png

Mr. Lolman
2008-03-18, 20:29:53
Wenns mal funzt gehts richtig ab. :eek:

http://img2.zol.com.cn/product/18/457/cenDYiRaZxKys.png

http://img2.zol.com.cn/product/18/460/cex1JX7VeCeAM.png

Ja, indem man die Scores einfach addiert, kann man auch schön lange Balken basteln. :biggrin:

reunion
2008-03-18, 20:36:36
Wenns mal funzt gehts richtig ab. :eek:

http://s3.directupload.net/images/080318/77fukcry.png

http://s3.directupload.net/images/080318/5yqilci5.png

Und wenn nicht dann hat man ein extrem lautes Heizwerk das gerade mal die Fps einer Karte erreicht und das noch garniert mit jeder menge Microrucklern. Genial.

Gast
2008-03-18, 20:39:53
Was ist denn eigentlich das Prerender-Limit bei Quad-SLI und welche Latenz fängt man sich dadurch eigentlich ein? Kommt die zur Latenz meines TFT oben drauf oder wird die darunter "versteckt"?

Mr. Lolman
2008-03-18, 20:43:43
Was ist denn eigentlich das Prerender-Limit bei Quad-SLI und welche Latenz fängt man sich dadurch eigentlich ein? Kommt die zur Latenz meines TFT oben drauf oder wird die darunter "versteckt"?

Kommt dazu. Bei 60fps hast du ne Latenz von 66.6ms.

seahawk
2008-03-18, 20:47:39
Du meinst 16,7 ms.

PHuV
2008-03-18, 20:47:41
Und wenn nicht dann hat man ein extrem lautes Heizwerk das gerade mal die Fps einer Karte erreicht und das noch garniert mit jeder menge Microrucklern. Genial.

Wenn es so stimmt, ist es immer noch besser als das Crossfire mit HD 3870 X2. Aber nee, Flop darf ich das CS-Gespann nicht. :|

Gast
2008-03-18, 20:47:45
Kommt dazu. Bei 60fps hast du ne Latenz von 66.6ms.
Danke, das ist ja nun auch nicht so doll. Manch einer würde auf einem Monitor mit so einer Latenz nichtmal spielen und wenn das oben drauf kommt... :(

Mr. Lolman
2008-03-18, 20:52:42
Du meinst 16,7 ms.

Ein Frame dauert 16.7ms. Mit Quad-SLI im AFR hat man ne Latenz von 4 Frames.

Danke, das ist ja nun auch nicht so doll. Manch einer würde auf einem Monitor mit so einer Latenz nichtmal spielen und wenn das oben drauf kommt... :(

Sofern das bei den unregelmässigen Frametimes überhaupt noch sooo auffällt. ;)

san.salvador
2008-03-18, 21:24:05
Ein Frame dauert 16.7ms. Mit Quad-SLI im AFR hat man ne Latenz von 4 Frames.

Ist da das Prerenderlimit schon drin?
Im Extremfall kämen noch 2-3 Frames vom TFT dazu.. *g*
"Speilen sie heute, sehen sie morgen!" ;D

Schlammsau
2008-03-18, 22:00:27
Wer kauft eigentlich so ein Ding? Das sind ja immerhin über 500€!!!
Und laut CB ist sie ja "nur" rund doppelt so schnell wie eine 8800GT oder 3870 (nicht SLI oder CF). Ergo sollte sie nicht teurer als 350€ sein!? Wenn man nur die effektive Leistung betrachtet!
Jeder der sich das Teil zulegt, dem ist nicht mehr zu helfen!

Gast
2008-03-18, 22:05:45
Wer kauft eigentlich so ein Ding? Das sind ja immerhin über 500€!!!
Und laut CB ist sie ja "nur" rund doppelt so schnell wie eine 8800GT oder 3870 (nicht SLI oder CF). Ergo sollte sie nicht teurer als 350€ sein!? Wenn man nur die effektive Leistung betrachtet!
Jeder der sich das Teil zulegt, dem ist nicht mehr zu helfen!

Es gibt ja auch Leute die für 350€uro ne X2 kaufen um sich dann rumzuärgern das nur 1 Chip funktioniert ;) Dir scheinen nicht die Kosten bewusst was zwei PCB kosten oder?

Gast
2008-03-18, 22:09:10
so ist es, wenn die Karte mal ca 320 kostet werden sich schon einige solch ein "Unfall" kaufen.

mike49
2008-03-18, 22:10:09
Wie erwartet: Laut, heiß, stromhungrig und bricht bei vram fordernden Settings sogar unter das Niveau der 8800U ein. Und das zu einem Preis > 500€

Leider kann sich nV zur Zeit scheinbar alles erlauben, siehe auch die aktuelle Verarsche mit 9800GT/GTX... :|

Gast
2008-03-18, 22:10:24
Es gibt ja auch Leute die für 350€uro ne X2 kaufen um sich dann rumzuärgern das nur 1 Chip funktioniert ;) Dir scheinen nicht die Kosten bewusst was zwei PCB kosten oder?

Komisch ich hab ne X2 und CF funzt zu 95 % immer.

Im XP nicht das ist richtig, aber XP ist eh tot und völlig egal, im Vista gehts richtig rund.

dildo4u
2008-03-18, 22:12:00
Wer kauft eigentlich so ein Ding? Das sind ja immerhin über 500€!!!

Die Leute die vorher schon bei der GTX oder der Ultra 500€ für 30% gegenüber der alten GTS bzw dann noch mal 10% Leistung gegenüber der GTXs für die Ultra ausgegben haben.Der Punkt ist das Top Modell ist und war schon immer Unverhältnissmäßig teurer siehe auch Intels Extreme Edition kein Plan was daran jetzt so "Neu" ist.

http://geizhals.at/deutschland/?phist=224909&age=2000

http://geizhals.at/deutschland/?phist=254950&age=365

Gast
2008-03-18, 22:22:19
Eines lässt sich jetzt schon sagen die Leute die sich damals eine oder zwei 8800GTX gekauft hatten, haben alles richtig gemacht. Bis heute wurde sie nicht geschlagen. Die Konkurrenz braucht schon 2 Chips um sie einigermaßen schlagen zu können. Die 9800GX2 ist nur die logische Konsequenz. :-)

uweskw
2008-03-18, 23:52:26
Bin ich blind?

Suche nach Benchmarks in den wichtigsten Auflösungen
1280X1024 und 1600x1200, natürlich mit standesgemäßem 8fach AA

nur bei CB und selbst da fehlt die Hälfte?

Greetz

Uwe S.

Schlammsau
2008-03-19, 08:51:20
Es gibt ja auch Leute die für 350€uro ne X2 kaufen um sich dann rumzuärgern das nur 1 Chip funktioniert ;) Dir scheinen nicht die Kosten bewusst was zwei PCB kosten oder?

ja sicher.... 2x 8800GT, a ~160€ sind laut Adam Riese ungefähr 320€!
Mir ist auch klar, dass die X2 viel zu teuer ist! Aber zwischen 306€ (http://www.hardwareschotte.de/hardware/preise/proid_9224188/preis_SAPPHIRE+Radeon+HD3870X2+21122-05-xxR) (X2) und 519€ (http://www.hardwareschotte.de/hardware/preise/proid_9255445/preis_ZOTAC+GeForce+9800GX2+ZT-98TEY2P-FSP) (GX2) sind auch Welten. Hab jetzt Preise von lieferbaren Modellen gepostet!
Das sind Preise *kopschüttel* ....für das Geld hab ich mir vor 10 Jahren, mein erstes Auto gekauft! :cool:
Ergo, die Karte ist nur was für absolute Freaks wie z.B. Tombman und wie sie alle heissen!

Bin ich blind?

Suche nach Benchmarks in den wichtigsten Auflösungen
1280X1024 und 1600x1200, natürlich mit standesgemäßem 8fach AA

nur bei CB und selbst da fehlt die Hälfte?

Greetz

Uwe S.

so wichtig sind die Auflösungen nicht mehr....mittlerweile haben die meisten schon WS TFT´s.

Gast
2008-03-19, 10:25:50
alle Single-Card WRs, also mit einer 9800GX2 in 3DMark:

29.970 - 3DMark 06

38.391 - 3DMark 05

94.000 - 3DMark 03

117.000 - 3DMark 01

http://www.xtremesystems.org/forums/showthread.php?t=180875

Gast
2008-03-19, 11:11:02
ja sicher.... 2x 8800GT, a ~160€ sind laut Adam Riese ungefähr 320€!
Mir ist auch klar, dass die X2 viel zu teuer ist! Aber zwischen 306€ (http://www.hardwareschotte.de/hardware/preise/proid_9224188/preis_SAPPHIRE+Radeon+HD3870X2+21122-05-xxR) (X2) und 519€ (http://www.hardwareschotte.de/hardware/preise/proid_9255445/preis_ZOTAC+GeForce+9800GX2+ZT-98TEY2P-FSP) (GX2) sind auch Welten. Hab jetzt Preise von lieferbaren Modellen gepostet!


Schau dir mal die Launch preise der X2 an und vergleich nochmal ... jetzt X2 und GX2 Preise zu vergleichen ist lächerlich.

... nebenbei sind die GX2 ab 500€ lieferbar.

Mr. Lolman
2008-03-19, 11:21:36
Schau dir mal die Launch preise der X2 an und vergleich nochmal ... jetzt X2 und GX2 Preise zu vergleichen ist lächerlich.


So kann man das nicht verlgeichen. Sonst wär demnach eine zB GF2 Ultra im Nachhinein eine extrem miese Karte. Wenn man die Leistung mit heutigen GraKas vergleicht und sich überlegt wie hoch damals die Launchpreise waren...

The_Invisible
2008-03-19, 11:49:46
Die Leute die vorher schon bei der GTX oder der Ultra 500€ für 30% gegenüber der alten GTS bzw dann noch mal 10% Leistung gegenüber der GTXs für die Ultra ausgegben haben.Der Punkt ist das Top Modell ist und war schon immer Unverhältnissmäßig teurer siehe auch Intels Extreme Edition kein Plan was daran jetzt so "Neu" ist.

http://geizhals.at/deutschland/?phist=224909&age=2000

http://geizhals.at/deutschland/?phist=254950&age=365

ich mag kein sli/cf, dazu nur 512mb und 256bit speicherinterface?

ich hoffe mal die gt200 macht alles richtig. obwohl, mehr leistung bräuchte ich nur in crysis dx10, und das habe ich schon durch. der g80 war einfach zu gut. :)

mfg

Gast
2008-03-19, 11:53:04
So kann man das nicht verlgeichen. Sonst wär demnach eine zB GF2 Ultra im Nachhinein eine extrem miese Karte. Wenn man die Leistung mit heutigen GraKas vergleicht und sich überlegt wie hoch damals die Launchpreise waren...

Man kann es auch übertreiben, oder einfach nicht kapieren :rolleyes: zwischen den launches liegen wochen und nicht Jahre ... die Karten sind direkte Konkurrenten ... beides Multichip lösungen

Sorkalm
2008-03-19, 12:15:13
Nvidia setzt die 9800 GX2 aber über der 3870 X2 an, sieht man auch auf deren Folien.

Der MSPR liegt für die 9800 GX2 auch deutlich über der 3870 X2. Man kann das also schon vergleichen. ;)

Mr. Lolman
2008-03-19, 12:24:41
Man kann es auch übertreiben, oder einfach nicht kapieren :rolleyes: zwischen den launches liegen wochen und nicht Jahre ... die Karten sind direkte Konkurrenten ... beides Multichip lösungen

Solang NV mit der GraKa die Performancekrone hat, werden die sich wohl hüten, die GX2 zu verschleudern. War ja mit der GTX nicht anders.

Gast
2008-03-19, 12:30:24
Nvidia setzt die 9800 GX2 aber über der 3870 X2 an, sieht man auch auf deren Folien.

Der MSPR liegt für die 9800 GX2 auch deutlich über der 3870 X2. Man kann das also schon vergleichen. ;)

Von der Performance her plättet die GX2 die X2 in den meisten games , folglich ist der mehrpreis absolut gerechtfertigt ... wobei ich denk das der Preis sich bald richtung 400€ bewegen wird. Klar, MIX-Computer hat die X2 für kanpp über 300€, das ist aber nur ein abgebot und nicht die Regel.

horn 12
2008-03-19, 12:45:59
Unter 450 Euro wird es die Karte nicht schaffen und dies sind ca. 50% mehr als die X2 von ATI kostet. Dafür ist die GX2 Karte einfach zu aufwendig gewesen und hat sicherlich zu viel Kosten getragen. Bei 430 Euro ist max. Schluss, aber die X2 wandert schon langsam unter die 300 Euro Marke!

Schlammsau
2008-03-19, 13:27:36
Weniger als 450€ kann ich mir für die GX2 auch nicht vorstellen. Dafür sind die 2 verbauten Grafikkarten zu teuer!
Denke dass die X2 schon um einiges billiger herzustellen ist, wegen der 55nm und nur einer Platine!

4711
2008-03-19, 15:02:28
Alles Bandbreitenkrüppel!
Wenns sich mit dem G200 nicht ändert wird es bis dahin auch der Dümmste geschnallt haben.
Ich versteh ATI nicht,die sehen doch den Schrott wieso hauen die da nicht dazwischen,keine Kohle?

tombman
2008-03-19, 15:16:57
9800GX2 Quad-SLI@zol.com (http://translate.google.com/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F85%2F850866.html&langpair=zh%7Cen&hl=de&ie=UTF-8)
Wieso weckt mich denn keiner auf? ;D

Die Leistung ist natürlich beeindruckend, aber schaut euch doch mal die absoluten fps an: bis auf Crysis @ maxed sehe ich kein Spiel wo zb GTX SLI nicht deutlichst auf 1920x1200 ausreichen würde. Fps gibts genug.

Da bleibt nur mehr eine Anwendung: die Mikroruckler mit brutaler Gewalt der fps zum Schweigen zu bringen ;D
Bei >100 "SLI FPS" können einem diese auch schon egal sein, weil man es nicht mehr sieht, denn wenn man 40ms für 4 frames hat (= 10ms für einen = 100fps), und der schnellste nicht schneller als 5ms sein kann, dann ist die schlimmste Kadenz, die passieren kann, 5-5-5-25,
wobei 25ms immer noch 40fps entsprechen-> Operation gelungen, Patient tot gedopt :devil:

Ne, quad sli ist ein Krampf und wird auch immer ein Krampf bleiben, zumal man noch dazu zu Vista gezwungen wird und die Lebensdauer mit ein paar Monaten (bis zu GT200) auch verdammt kurz ist.

Fazitsmiley: :rolleyes:

*schnarch*

Gast
2008-03-19, 15:20:14
bis auf Crysis @ maxed sehe ich kein Spiel wo zb GTX SLI nicht deutlichst auf 1920x1200 ausreichen würde. Fps gibts genug.

Den (SS)AA Schalter kennst du aber schon? ;)

Hier rammt dein GTX SLI das GX2 Quad in den Boden. :D

tombman
2008-03-19, 15:21:28
Den (SS)AA Schalter kennst du aber schon? ;)

Hier rammt dein GTX SLI das GX2 Quad in den Boden. :D
SSAA ist viel zu teuer bei modernen games, außerdem bin ich viel zu faul es einzuschalten, oder Profile zu basteln :redface: :weg:

mictasm
2008-03-19, 22:20:05
Ich hätte damals nicht gedacht, dass aus dem 8800GTX SLI mal eine Langzeitinvestition wird...

=Floi=
2008-03-19, 22:42:07
vor allem hat der refresh nicht die 40% mehrleistung gegenüber der alten generation! G80->G92
Ich wollte auch den G80 überspringen, aber jetzt ist es doch ein g92 geworden. Die 9800GTX ist auch ein bischen ernüchternd und das einzig gute daran ist der gute und langanhaltende treibersupport dieser architektur!

Panasonic
2008-03-19, 23:39:00
Was ist denn von Nvidias Ankündigungen, die Microruckler mit einem neuen Treiner auszuschalten, zu halten?

Coda
2008-03-19, 23:51:38
Ich bin da sehr skeptisch.

redpanther
2008-03-19, 23:53:42
Wo gabs denn da ankündigungen seitens nvidia?
Link wär nett.

Panasonic
2008-03-20, 00:05:45
"Auch hat die Karte wie jede SLI/CF-Lösung zurzeit noch mit dem Problem der Mikroruckler zu kämpfen – hier stellt Nvidia für zukünftige Treiber aber eine Lösung in Aussicht."

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/27/#abschnitt_fazit

Radeonator
2008-03-20, 10:16:43
Hmmm, also nen Monster ist as ja nicht gerade...weg ~10fps mehr so viel Kohle ausgeben, never ever!

Adam D.
2008-03-20, 10:18:00
"Auch hat die Karte wie jede SLI/CF-Lösung zurzeit noch mit dem Problem der Mikroruckler zu kämpfen – hier stellt Nvidia für zukünftige Treiber aber eine Lösung in Aussicht."

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/27/#abschnitt_fazit
So wie sie damals Stromsparmaßnahmen für den G80 mit zukünftigen Treiber in Aussicht gestellt haben? Haha :rolleyes:

Gast
2008-03-20, 11:22:48
@Adam D.

damit machst du es dir ja einfach^^ - geht natürlich auch...


@Coda

wieso bist du skeptisch? wieso sollten sie ihren Scheduler nicht zusammengeschmiedet bekommen? Habe da ein bissl zu wenig wissen um gleich so skeptisch zu sein. Welche schweren technischen Hürden müssten gemeistert werden?

Schlammsau
2008-03-20, 15:07:03
wie kommen eigentlich diese unterschiedlichen Werte bei den Verbrauchsmessungen zustande?
Beim CB Review z.B. verbraucht die GX2 unter Last mehr als eine X2 und bei PCGH ist es genau anders herum! Welchen Seiten kann man nun trauen?

Coda
2008-03-20, 15:10:31
wieso bist du skeptisch? wieso sollten sie ihren Scheduler nicht zusammengeschmiedet bekommen? Habe da ein bissl zu wenig wissen um gleich so skeptisch zu sein. Welche schweren technischen Hürden müssten gemeistert werden?
Erstens gestalltet sich das Problem wirklich nicht so einfach und zweitens glaube ich nicht dass NVIDIA da auch nur einen Finger rührt beim bisherigen Medienecho.

dildo4u
2008-03-20, 16:31:03
Hmmm, also nen Monster ist as ja nicht gerade...weg ~10fps mehr so viel Kohle ausgeben, never ever!
Man könnte auch mal einfach die lustigen AA Möglichkeiten die NV anbietet nutzen das sind durchaus auch mal mher als 10fps. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6364489&postcount=47

4711
2008-03-20, 19:16:23
Wie erwartet: Laut, heiß, stromhungrig und bricht bei vram fordernden Settings sogar unter das Niveau der 8800U ein. Und das zu einem Preis > 500€

Leider kann sich nV zur Zeit scheinbar alles erlauben, siehe auch die aktuelle Verarsche mit 9800GT/GTX... :|

Stimmt nicht hab heute ein paar Stündchen damit gespielt,nach Stunden 78 Grad laut ist wie immer relativ,meinen Kopfhörern isses eh wurscht und im idle hört man sich nicht....und dann immer,da geht der Ram aus ich kann nimmer hören,los alle ihre G92 verkaufen,alles billiger Müll der nicht taugt und spielen kann man damit eh nicht,das sind zwei GTS92 und der Preis dafür ist in Ordnung und 2. muß sie keiner kaufen.
Man laufen hier verarschte umher mit ihren G92,sagenhaft.
Und andauernd der beknackte Vergleich im nachhinein mit den G80ern.
Hat irgendwo NV verlauten lassen sie wollen mit der Karte den G80 vernichten :D
und auch hiernoch mal mit der Karte kann man genau das selbe veranstalten wie mit einem Single G92 nur mit dem Unterschied man hat mehr FPS.Crisis Leute wird freuen.
Und auch nochmal 1920x1200 ist G80 Sli Zone!

Gast
2008-03-22, 06:50:19
So, hier ein kurzer Erfahrungsbericht mit der GX2 im Vergleich zur einfachen Ausführung der GTX (mein P5B hat noch den 965'er Intel-Chipsatz und demzufolge ist an eigentliches SLI nicht zu denken):

Nachdem ich mir vorgestern spontan die Karte geholt habe, kann ich bisher noch von keinen Problemen mit dem Teil berichten.
Erst mal zum Preis: Ich habe die Karte für 509 € bekommen, was im Vergleich zu den 640 € für die GTX im Nov06 vergleichbar günstig ist, hier kommt einem der zur Zeit recht hohe Euro/Dollar-Kurs entgegen. Die 640€ für die 8800GTX (als Alternative stand damals ja eh nur die 640 MB GTS für ca. 500€ zur Verfügung, ich bin froh, die nicht geholt zu haben, da die ja spätestens seit dem Erscheinen des G92 als abgelöst angesehen werden muss, die GTX hat selbst jetzt noch eine Berechtigung) waren zwar ne Menge Kohle, die Karte habt aber für den damaligen 1600x1200 TFT (mittlerweile ersetzt durch einen 19x12 24") meistens genug Leistung gehabt, um fast alles in nativer Auflösung zu zocken.
Dass man seinerzeit aber noch 3-4 Monate warten musste, bis es halbwegs ausgereifte Treiber gab (nur zu erinnern, der DX10-Treiber kam erst im Febr. 07, diverse Games waren anfangs ziemlich verbuggt, ich erinner mich da z.B. an Splintercell 4, ein Titel wegen dem ich damals von der 1900XTX umgestiegen bin). Treibermäßig habe ich bis jetzt noch überhaupt kein Problem mit der GX2, da ja SLI auf dem G92-Chip ja auch nichts neues ist (wie seinerzeit der Extra-Treiber für die 8800'er Grakas) gehe ich mal davon aus, dass es da in nächster Zeit keine Überraschungen mehr geben wird.

Wie gesagt, da es mir nicht möglich ist, ein SLI-System aufzubauen (die vor 1,5-Jahren verfügbaren NV-Lösungen (590'er und 680'er Chipsätze) sind bei beim RAID (Mode 5 insbesondee) der Southbridge meines Wissens nach deutlich langsamer als die ICH8 oder ICH9 von Intel) habe ich mir um dann zumindest auch mal SLI-Erfahrungen zu sammeln die GX2 angeschafft. Die GTX wurde auch wirklich langsam langweilig und musste raus. :)

Zur Leistung und zum Lärm:
Aufheulen beim Booten für ca. 5 sec., danach wird die Karte erstaunlich leise.
Bisher hab ich mal so die alten 3dMarks durchlaufen lassen, das mussten bisher alle neuen Karten/Systeme bei mir hinter sich bringen, hier gab es auch nichts erstaunliches zu vermelden (da ich stets die Standard-Einstellungen verwendet habe, vor 4 Jahren war wohl kaum an mehr zu denken (mit GF4, Radeon 9700/9800)).

Allerdings bin ich dann zu Call of Duty 4 umgestiegen und wie erhofft hat sich da gewaltig was getan. Mit der GTX habe ich das Game als entspannt spielbar bei 1680x1050 mit 2X AA gezockt, jetzt ist endlich die volle Auflösung von 1920x1200 bei 4X AA möglich, und das ganze kommt mir sogar noch weicher als vorher vor. Von Mikrorucklern kann ich imo nicht klagen. Das ganze macht soviel Spass, dass ich jetzt seit ca. 12 Stunden mit kurzer Unterbrechung zwecks Raus-Switchen zum Browser für gelegentliches Surfen, das Game am Laufen habe und sogut wie durch bin.

Zum Stromverbrauch des Gesamtsystems: der Rechner braucht ca. 30-40 Watt mehr Strom unter Last beim Zocken (insgesamt sind das für das Gesamtsystem + Monitor und Audio-Receiver, hängt alles an einer Steckdose mit Messgerät, 450-460 Watt, vorher mit der GTX kam ich in der Spitze auf 420W).

Zum Lärm unter 3D-Last: es macht tatsächlich einen hörbaren Unterschied, ob man mit VSync oder ohne zockt! Bei eingeschaltetem VSync, also mit konstant 60 fps in meinem Fall, die auch zu 95% gehalten werden :) unter 19x12 mit alles max und 4X AA wird die Karte gerade mal 70-71°C warm und der Lüfter ist kaum hörbar.
Testweise habe ich mal 10 min ohne VSync gezockt, nur mal um zu sehen, wo so in der Regel die fps liegen (im Regelfall bei ca. 95-110). Dabei war dann doch eine gewisse Steigerung der Lüfterdrehzahl zu hören, die Temperatur der Karte bleibt aber trotzdem bei max. 72 °C. Unter diesen Umständen erinnert mich die Karte dann doch wieder etwas mehr an die Zeiten mit meiner Radeon 9800 (die bisher lauteste Karte, die ich hatte, abgesehen von der GF4200 mit Lüfterschaden). Aber das ganze geht im Umgebungslärm beim zocken auf jeden Fall unter, und unter 2D bzw. Aero schaltet der Lüfter schnell runter.


Fazit: für das Zocken unter 19x12 hat sich die Karte jetzt schon gelohnt, vermutlich werde ich demnächst dann mal endlich anfangen, Crysis anzuzocken, denn auf 10x7 oder 12x10 Auflösung für High hatte ich bisher keine Lust. Jetzt sollte eigentlich High mit 16x12 bei moderatem AA (also 2X oder vlt. auch noch 4X?) durchaus spielbar sein.


Tja, bis zum Erscheinen des G200 bin ich auf jeden Fall mit der Karte zufrieden und rege mich dann nicht mehr bei der ersten Terminverschiebung der nächsten Grafikchips gleich mal auf :)

frohe Ostern
U.

PS: noch eine Anekdote zur Karte: Ich habe z.Z. ein 600W Enermax mit 2 6pin-PCI-Express-Steckern, also genau das, was die GTX braucht. Die neue GX2 braucht ja bekannterweise einen 8pin und einen 6pin Stecker. Vor Kauf habe ich telefonisch beim Händler nachgefragt, ob denn irgend ein Adapterkabel auf 8pin der Karte beiliegt, Antwort war positiv, daher der Kauf (ich hab übrigens das Sparkle-Modell). Leider war der Adapter aber ein Y-Kabel von 2X6pin auf 1X8pin. Daher musste ich noch das der GTX beiliegende Adapterkabel von 2X4pin_Molex auf 6pin aus der Ecke kramen, um den mir jetzt fehlenden 3. 6pin-Stecker zu erhalten :-/, also an der Karte hängen jetzt insgesamt 4 Verbindungen vom NT, aber es läuft! Nächstes Mal wird dann wohl doch wieder ein passendes Netzteil fällig werden, wenn das mit der Stecker-Evolution so rapide weitergeht wie bisher, sprich: ein für die aktuelle Zeit überdimensioniertes NT mag zwar in 4-5 Jahren noch genug leisten, allerdings muss man wohl Glück oder die entsprechenden Adapterkabel in Massen haben, um aktuelle Hardware noch damit laufen zu lassen :(

dargo
2008-03-22, 15:40:12
Hehe, schöne Grüße an LovesuckZ. :wave2:
Wie war das nochmal, eine G9800GX2 würde nie 380€ kosten? :D
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+9800GX2&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Viel fehlt da nicht mehr. Wir schauen in 4-6 Wochen nochmal nach. ;)

=Floi=
2008-03-23, 07:08:34
das sind aber versionen ohne spdif...

HD-Ronny
2008-03-23, 10:05:38
das sind aber versionen ohne spdif...
Braucht man den zum zocken? :rolleyes:

LovesuckZ
2008-03-23, 14:04:36
Hehe, schöne Grüße an LovesuckZ. :wave2:
Wie war das nochmal, eine G9800GX2 würde nie 380€ kosten? :D
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+9800GX2&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Viel fehlt da nicht mehr. Wir schauen in 4-6 Wochen nochmal nach. ;)

Toll, deine Vorhersagen sind immer so toll. :rolleyes:
Von 380€ sehe ich da nichts.

d1CK135
2008-03-23, 20:27:34
Ich sehe es nicht ein schon wieder 2K Euro auszugeben, nachdem ich erst 4x 8800 Ultra gekauft hab :P Sorry NVIDIA - Diese Runde ohne mich *hrhrhr*

dargo
2008-03-23, 20:31:30
Toll, deine Vorhersagen sind immer so toll. :rolleyes:
Von 380€ sehe ich da nichts.
Abwarten, dauert nicht mehr lange. ;)
Wobei, ich ging damals von 449$ UVP aus. Afaik liegt die UVP heute aber bei 599$.

r3ptil3
2008-03-26, 23:13:36
Liegt eigentlich bei jeder 9800 GX2 ein 8Pin Stromadapter bei?

Gast
2008-03-27, 00:07:56
http://img219.imageshack.us/img219/7421/111mk1.th.jpg (http://img219.imageshack.us/my.php?image=111mk1.jpg)

http://img219.imageshack.us/img219/2391/222hl9.th.jpg (http://img219.imageshack.us/my.php?image=222hl9.jpg)

http://img264.imageshack.us/img264/6220/333dt7.th.jpg (http://img264.imageshack.us/my.php?image=333dt7.jpg)



1280x1024 0xAA
ATI X2 =36.72 FPS
NV GX2=19.70
http://www.abload.de/thumb/1280s65.jpg (http://www.abload.de/image.php?img=1280s65.jpg)

1280x1024 4xAA
ATI X2=27.55
NVGX2 =27.29
http://www.abload.de/thumb/12804xaa7jo.jpg (http://www.abload.de/image.php?img=12804xaa7jo.jpg)

1680x1050 0xAA
ATI X2= 31.10
NV GX2= 28.62
http://www.abload.de/thumb/1680fsy.jpg (http://www.abload.de/image.php?img=1680fsy.jpg)

Gast
2008-03-27, 00:08:37
In den MIN FPS ist die X2 schneller.

Gast
2008-03-27, 00:34:49
Hat nix zu sagen. Weil die Minimumfps durch Festplattenzugriffe entstehen das hat also nix mit der GPU zu tun, die Nachlader beeinflussen auch nach dem 3 oder 4.Run die Minimumfps.
Während ich heut nachmittag noch 22 fps Minimum hatte , sind es gerade eben nur noch 16 fps...

Gast
2008-03-27, 00:36:06
irgendwas musst ja kommen :ugly:

Gast
2008-03-27, 00:59:33
irgendwas musst ja kommen :ugly:

Stimmt ja auch ist wirklich so.

Gast
2008-03-27, 10:11:03
Hat nix zu sagen. Weil die Minimumfps durch Festplattenzugriffe entstehen das hat also nix mit der GPU zu tun, die Nachlader beeinflussen auch nach dem 3 oder 4.Run die Minimumfps.
Während ich heut nachmittag noch 22 fps Minimum hatte , sind es gerade eben nur noch 16 fps...

Grober Unfug

Gast
2008-03-27, 15:07:46
blödsinn, selbst PCGH hat gestätigt das nachladeruckler (MIn FPS) bei einer HD 2900Xt besser sind wie beine 8800GT die schneller ist.

Ja lol in MAX FPS kann sie von mit aus 10000 FPS schneller sein, bringt ihr bloss nichts wenns eng wird.

dargo
2008-03-29, 00:10:39
Hehe, schöne Grüße an LovesuckZ. :wave2:
Wie war das nochmal, eine G9800GX2 würde nie 380€ kosten? :D
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+9800GX2&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Viel fehlt da nicht mehr. Wir schauen in 4-6 Wochen nochmal nach. ;)
7 Tage sind vergangen und ein neuer Tiefpreis von 420€ (lieferbar) ist erreicht:
http://www.bestseller-computer.de/?ID=17877

puntarenas
2008-03-29, 01:23:29
Sehr schönes Review bei ht4u.net: Klick! (http://www.ht4u.net/reviews/2008/zotac_geforce_9800_gx2/)

Ich bleib dabei, die schönste Karte, die ich jemals gesehen habe :)

Gast
2008-03-29, 01:43:44
Erstaunlich wie die GX2 sogar mit 8xAA performt. Die meisten Test gewinnt sie gegen die 3870X2 !

http://www.ht4u.net/reviews/2008/zotac_geforce_9800_gx2/index52.php

puntarenas
2008-03-29, 01:47:33
Erstaunlich wie die GX2 sogar mit 8xAA performt. Die meisten Test gewinnt sie gegen die 3870X2 !

Schade ist halt, dass kein SLI-Verbund aus zweimal 8800GTS 512MB gegenübergestellt werden konnte, beim Stromverbrauch schneidet die 9800GX2 schonmal deutlich besser ab und erscheint fast schon wieder sparsam. :eek:

Gast
2008-03-29, 02:01:15
Stimmt aber viel wird sich das sicher nicht nehmen mit 2xGTS...ist nur der hohe Preis aber die Dinger sollen ja noch günstiger werden. Ab 350€uro könnt ich schwach werden. :-)

Gast
2008-03-30, 21:21:13
http://youtube.com/watch?v=UXlR-Sjwg4w

tombman
2008-03-30, 23:28:31
http://youtube.com/watch?v=UXlR-Sjwg4w
Impressive ;)

Aber: Crysis ist durchgespielt, und ansonsten gibt es keinen Bedarf an solcher Leistung ;)

Ich werd mal ein Video von GT5p @ PS3 @ HD Beamer machen -> das hat mich um einiges mehr geflashed gestern Nacht :cool:

LovesuckZ
2008-03-30, 23:32:38
Zeig daneben mal Crysis.

dildo4u
2008-04-03, 19:05:42
EVGA bringt übertaktete GeForce-9800-GX2-Karten

Den Anfang macht die EVGA GeForce 9800 GX2 SC (SuperClocked Edition), dessen TMU-Domäne mit 625 MHz taktet, während die ALUs mit einer Frequenz von 1562 MHz angesteuert werden. Der zwei mal 512 MB große VRAM wird mit 1000 MHz betrieben. Im Vergleich dazu arbeitet das Referenzdesign mit nicht allzu geringeren Taktfrequenzen. Auf diesem wird die TMU-Domäne mit 600 MHz, die Shaderdomäne mit 1512 MHz und der Speicher mit ebenso hohen 1000 MHz getaktet.

Einen Schritt weiter geht die EVGA GeForce 9800 GX2 KO (Knock-Out Edition), die die Taktschraube ein klein wenig enger dreht. Auf dieser Grafikkarte laufen die meisten Chipteile mit 650 MHz, die Shadereinheiten mit 1620 MHz und der Speicher mit 1025 MHz. Das schnellste GeForce-9800-GX2-Modell von EVGA wird die so genannte SSC-Version, die Super-SuperClocked Edition, werden. Auf dem 3D-Beschleuniger erhöhen sich die Taktraten der TMU-Domäne um weitere 25 MHz auf 675 MHz, die der Shaderdomäne um 50 MHz (1674 MHz) und die des Speichers um 25 MHz auf 1050 MHz.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/evga_geforce-9800-gx2-karten/

4711
2008-04-03, 23:11:15
Dafür brauchs aber keine eVGA da reicht auch eine popelige Club3D
http://img3.imagebanana.com/img/qz0iony4/thumb/Unbenannt.jpg (http://img3.imagebanana.com/view/qz0iony4/Unbenannt.jpg)

die ist dann die superduberko³4711späscheledischen ;D

http://img3.imagebanana.com/img/v8h72uy9/thumb/ss_reck_040308_181606_l05_bar.jpg (http://img3.imagebanana.com/view/v8h72uy9/ss_reck_040308_181606_l05_bar.jpg)

Temps nach Stunden Stalker 72 Grad,bei 70% Lüfter (natürlich mit kopfhörer),absolut stabil,natürlich "nakisch" die Karte,ist etwas blöd zu belüften da der Lüfter oben liegt.

4711
2008-04-04, 14:16:02
Wer das nachmachen will,den 120er an der Stelle zukleben wo die Lüftungschlitze der Karte sind!!!!!!!!!!!!
http://img3.imagebanana.com/img/intev5z/thumb/IMG_0128.JPG (http://img3.imagebanana.com/view/intev5z/IMG_0128.JPG)

Gast
2008-04-04, 16:49:32
Alles wie erwartet Laut, Heiß ,Stromhungrig und bei höherem AA ist essig :rolleyes:

Für 399€ wäre die Karte vom P/L grad noch o.k.?? Ärgert sich wohl jemand...
Ne, da ärgert sich keiner, denn für Fast 399€ ist der Preis im Moment für die Leistung mehr als ok.
Leider liegt der Preis im Land wo die Bürgersteige aus (schwarz, rot,) Gold sind, immer noch leicht über 399€.

In dem Land wo die Bürgersteige aus (schweizer) Schokolade sind, bekommt man Sie aber für umgerechnet unter 399€.

JMSC
2008-04-04, 23:59:26
Hi all

Habe für meine etwas über 400€ bezahlt.
Bin sehr zufrieden mit der Leistung, die für den Preis geboten wird.
Bis auf Crysis ist die Leistung in 1680x1050 in allen Games mit guten Qualtätssettings absolut fein, alles nicht zu vergleichen mit meiner alten 8800GTS 640. Also Ziel erreicht, was will ich mehr.:cool:

Gast
2008-04-05, 09:01:39
in 1680x1050?
Ich spiele alles in 1900x1200 wie mit der Ultra nur schneller.

Captain Future
2008-04-05, 10:00:22
in 1680x1050?
Ich spiele alles in 1900x1200 wie mit der Ultra nur schneller.
Spiel mal UT3 mit 8xAA :P

Gast
2008-04-05, 10:06:48
und dann?Null probs!
Wer sich mit SLI nicht auskennt soll die Finger davon lasse!
Und 8xAA was ein Quatsch in der Auflösung da spielt man 8xSQ mit MSAA und gut ist und das rennt wie Harry!

4711
2008-04-07, 08:46:26
Gebt der Karte im Mobo Bios mehr PCIe Takt,anstatt 100,105 mhz.

Mr. Lolman
2008-04-07, 09:25:03
Was soll das bringen?

Gast
2008-04-07, 10:35:04
Keine Ahnung .... Instabilität?

Gast
2008-04-07, 12:26:47
nett schwätze,testen zb Crysis.

Gast
2008-04-08, 19:07:37
http://www.xbitlabs.com/articles/video/display/zotac-9800gx2_16.html#sect0

Krass wie die 9800GX2 sogar TripleCrossfire verheizt, schaut euch das mal an. Da sieht man mal wieder was für ein Schrott das Crossfire ist.

Schlammsau
2008-04-08, 19:44:02
traue keiner statistik die du nicht selbst gefälscht hast! ;)
jedes review spuckt ein anderes ergebniss aus!

http://www.xbitlabs.com/images/video/zotac-9800gx2/crysis10_hdr.gif

man sieht eigentlich, dass CF bis 3 Chips sehr gut skaliert....
http://www.pcper.com/images/reviews/523/crysis-1280vh-bar.jpg

Gast
2008-04-08, 19:49:12
Da sieht man mal wie Ati seine Kunden verarscht, bringen eine X2 mit Triple und CF-X Support und liefern keine vernünftigen Treiber. Stattdessen wurde nur auf 3DMark optimiert.

Gast
2008-04-08, 19:54:40
traue keiner statistik die du nicht selbst gefälscht hast! ;)
jedes review spuckt ein anderes ergebniss aus!

http://www.xbitlabs.com/images/video/zotac-9800gx2/crysis10_hdr.gif


Das ist ein aktuelles Review... Und es geht nicht nur um Crysis sondern viele andere Games du musst mal lesen und nicht gleich weinen und alles anzweifeln.

Gast
2008-04-09, 18:15:49
man sieht eigentlich, dass CF bis 3 Chips sehr gut skaliert....
http://www.pcper.com/images/reviews/523/crysis-1280vh-bar.jpg

ja, aber nur in der timedemo die crysis mitliefert, überall anders sieht es schon deutlich schlechter aus.

Gast
2008-04-12, 00:18:08
http://uk.youtube.com/watch?v=EvJe0ApvN4s

dargo
2008-04-19, 00:36:45
Toll, deine Vorhersagen sind immer so toll. :rolleyes:
Von 380€ sehe ich da nichts.
Nach knapp 4 Wochen fehlen noch 25€. ;)
http://nubit.de/artikeldet.php?artnr=1007828

dargo
2008-04-30, 17:11:10
G9800GX2 für 390€ lieferbar. ;)
http://www.csv-direct.de/artinfo.php?artnr=A0640105&pva=geizhals

Es fehlen nur noch 10€. Ca. 1 Woche habe ich ja noch Zeit. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6373746&postcount=103

Die gelbe Eule
2008-04-30, 18:09:14
traue keiner statistik die du nicht selbst gefälscht hast! ;)
jedes review spuckt ein anderes ergebniss aus!

http://www.xbitlabs.com/images/video/zotac-9800gx2/crysis10_hdr.gif

man sieht eigentlich, dass CF bis 3 Chips sehr gut skaliert....
http://www.pcper.com/images/reviews/523/crysis-1280vh-bar.jpg

Man sieht aber auch das CF mal überhaupt nicht skaliert, weils einfach komplett den Dienst verweigert:

http://www.xbitlabs.com/images/video/zotac-9800gx2/hellgate10_4x.gif

dargo
2008-05-19, 23:43:09
Ok, es hat doch etwas länger gedauert als die von mir max. 6 genannten Wochen. Nach knapp über 7 Wochen kostet eine G9800GX2 nun 368€.
http://www.drivecity.de/product_info.php?products_id=426209&pid=geizhals

So wie es aussieht macht man langsam aber sicher Platz für den GT200. ;)

=Floi=
2008-05-20, 09:06:45
wirklich optimal ist die 9800GX2 ja leider nicht. Am schlimsten finde ich die lautstärke.

Schlammsau
2008-05-20, 09:35:34
Ok, es hat doch etwas länger gedauert als die von mir max. 6 genannten Wochen. Nach knapp über 7 Wochen kostet eine G9800GX2 nun 368€.
http://www.drivecity.de/product_info.php?products_id=426209&pid=geizhals

So wie es aussieht macht man langsam aber sicher Platz für den GT200. ;)

Ich glaube eher, dass der Preis so stark sinkt, weil sie keiner kauft! nächsten Monat stehen auch bei ATi neue Karten an....soll sogar ein paar Tage früher als nV sein, und die X2 ist nicht so drastisch im Preis gefallen!
Seit dem Launch der GX2 vor rund 3 Monaten ist der Preis um über 150€ gefallen.
Seit dem Launch der X2 vor rund 5 Monaten ist der Preis um 120€ gefallen!

Adam D.
2008-05-20, 11:23:38
Ich glaube eher, dass der Preis so stark sinkt, weil sie keiner kauft! nächsten Monat stehen auch bei ATi neue Karten an....soll sogar ein paar Tage früher als nV sein, und die X2 ist nicht so drastisch im Preis gefallen!
Seit dem Launch der GX2 vor rund 3 Monaten ist der Preis um über 150€ gefallen.
Seit dem Launch der X2 vor rund 5 Monaten ist der Preis um 120€ gefallen!
Du gibst dir die Begründung doch selbst: noch weiter kann die X2 im Preis nicht fallen, irgendwie muss ATi noch Geld machen. Dass vor einer neuen Generation die Preise des alten High-Ends fallen, ist absolut normal, die Karten will dann ja keiner mehr haben, aber los werden muss man sie trotzdem.

dargo
2008-05-20, 12:41:11
Seit dem Launch der GX2 vor rund 3 Monaten ist der Preis um über 150€ gefallen.

Das ist doch Unsinn. Wie kann man nur den "Schlechte-Verfügbarkeit-Händler-Aufpreis" da mitberücksichtigen. Der Preis ist mit Sicherheit nicht um 150€ gefallen. Ich könnte mir aber durchaus vorstellen, dass die UVP von 599$ auf 499$ reduziert wurde.

Es ist aber erstaunlich zu sehen wie dur dir wieder alles schön Richtung AMD/ATI auslegst. :D

AnarchX
2008-05-30, 09:46:58
http://img49.imageshack.us/img49/778/121210435913718e28351ij4.jpg (http://imageshack.us)

Für den Gamer nicht sinnvoll, aber die Forschung freut sich offenbar sehr über 3 TFLOPs für 1200€:
How much computing power can you cram into a single desktop PC? In our research on image reconstruction we often have to perform large-scale scientific computations, which can easily take weeks on a normal PC. To tackle this problem, we have developed a special PC that is capable of performing our computations just as fast as a cluster consisting of hundreds of PCs. Using this superPC, which consists mainly of gaming hardware and costs less than 4000 euro, we can now perform our three-dimensional reconstructions within a few hours: over 100 times as fast.
http://fastra.ua.ac.be/en/index.html

;)

Schlammsau
2008-05-30, 09:55:31
http://img49.imageshack.us/img49/778/121210435913718e28351ij4.jpg (http://imageshack.us)

Für den Gamer nicht sinnvoll, aber die Forschung freut sich offenbar sehr über 3 TFLOPs für 1200€:

http://fastra.ua.ac.be/en/index.html

;)

1200€ nur für die Karten + den passenden Quadcore nochmal 1500€! :freak:

AnarchX
2008-05-30, 10:01:07
1200€ nur für die Karten + den passenden Quadcore nochmal 1500€! :freak:
http://fastra.ua.ac.be/en/specs.html (die 4000€ sind wohl eher ziemlich hoch gegriffen)
;)

Das Video ist aber cool gemacht.;D

dargo
2008-06-05, 16:55:41
359€ für die G9800GX2.
http://www.alternate.de/html/product/details.html?artno=JCXUK1

Schön weiter machen. Wir brauchen Platz für die G260GTX. ;)

Anarchy-HWLUXX
2008-06-05, 17:56:57
1200€ nur für die Karten + den passenden Quadcore nochmal 1500€! :freak:
Öm, nein - ein idiotisch teurer Intel Prozessor der fast nix zur Rechenleistung beiträgt nicht wird benötigt ... nen Phenom langt dicke.

Schlammsau
2008-06-05, 18:25:25
359€ für die G9800GX2.
http://www.alternate.de/html/product/details.html?artno=JCXUK1

Schön weiter machen. Wir brauchen Platz für die G260GTX. ;)

die GX2 wird sowieso bald verschwunden sein! Das ist jetzt nur ein Lagerleerräumen!

Coda
2008-06-05, 19:08:36
1200€ nur für die Karten + den passenden Quadcore nochmal 1500€! :freak:
Ist denn wirklich ein so teurer Prozessor verbaut? Ich glaube kaum dass das nötig ist.

Anarchy-HWLUXX
2008-06-05, 19:24:53
Ist denn wirklich ein so teurer Prozessor verbaut? Ich glaube kaum dass das nötig ist.

Phenom 9850 is da drin ;) Siehe Link weiter oben ...

Coda
2008-06-05, 19:29:30
Ja eben. Von wegen 1500€

Gast
2008-06-05, 22:38:45
wirklich optimal ist die 9800GX2 ja leider nicht. Am schlimsten finde ich die lautstärke.
ach?
Ich hab eine und hören tut man sie nicht,schon eigenartig deine Erkenntnisse.

Gast
2008-06-05, 22:43:54
359€ für die G9800GX2.
http://www.alternate.de/html/product/details.html?artno=JCXUK1

Schön weiter machen. Wir brauchen Platz für die G260GTX. ;)

Was hast du andauernd und im jedem fred mit deiner Kohle?
Haste nix zum Gamen,du nervst langsam echt!
Und ehe du deine 260er hast gibt es schon 10 neue,manman.

Gast
2008-06-05, 22:52:20
ach?
Ich hab eine und hören tut man sie nicht,schon eigenartig deine Erkenntnisse.


dürfte wohl stark von der gehäuselüftung abhängen, der lüfter ist ja geregelt.

wenn diese nicht optimal ist dürfte das teil doch ziemlich laut werden.

dargo
2008-06-12, 19:31:31
Was hast du andauernd und im jedem fred mit deiner Kohle?
Haste nix zum Gamen,du nervst langsam echt!
Und ehe du deine 260er hast gibt es schon 10 neue,manman.
G9800GX2 für 349€. ;)
http://geizhals.at/deutschland/a324511.html