PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 9: 9800GTX und GX2 Teil 2


Seiten : 1 2 3 4 [5]

K4mPFwUr$t
2008-03-06, 14:21:59
SI x 3 sieht man nicht wirklich oft, eher x2 oder x4.

wenn die karte so kommt, wäre schonmal ein knackpunkt weniger bei der 98GTX.

pest
2008-03-06, 15:11:28
vielleicht waren die 3DMark06 Werte der angeblichen 9800GTX Werte der neuen 9800GTS :confused: und GPU-Z hat's nur falsch ausgelesen

AnarchX
2008-03-06, 15:15:53
Nein, die 9800 GTS ist wohl eher ein Fake.

Und die 9800GTX kommt wohl eindeutig nur mit 256Bit und 512MiB, zudem gibt es auch ein paar neuere Benchmarks:
http://img257.imageshack.us/img257/4823/200803065e3dbf1ccccc9adka3.th.jpg (http://img257.imageshack.us/my.php?image=200803065e3dbf1ccccc9adka3.jpg)
Nur war wohl kein Kühler dabei:
http://img510.imageshack.us/img510/8456/200803061403be8b23b7e39fp5.th.jpg (http://img510.imageshack.us/my.php?image=200803061403be8b23b7e39fp5.jpg)
:D

Superheld
2008-03-06, 15:16:26
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6125&Itemid=1

9800GTX mit 768MB, also 384Bit SI?

darum vielleicht so lang:|

AnarchX
2008-03-06, 15:17:39
darum vielleicht so lang:|

Es sind 8 Speicherchips (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6328079&postcount=926)!

HonK_DD
2008-03-06, 15:26:18
Ich les jetzt schon seit ner Weile hier mit.
Ich glaub zwar auch nicht an die 9800GTX mit 384Bit SI, da das Ding ja auf dem G92 basieren soll.
Auf der anderen Seite kann ich mir nicht vorstellen, daß Nvidia sich die Blöße gibt und die 9800GTX langsamer als ne 8800GTX macht.
Vielleicht ist ja doch was an der News von Fud?

Hvoralek
2008-03-06, 15:26:30
Und die 9800GTX kommt wohl eindeutig nur mit 256Bit und 512MiB, zudem gibt es auch ein paar neuere Benchmarks:
http://img257.imageshack.us/img257/4823/200803065e3dbf1ccccc9adka3.th.jpg (http://img257.imageshack.us/my.php?image=200803065e3dbf1ccccc9adka3.jpg)Eine 8800 GTX liefert bei SM2/SM3 jeweils rund 5000 Punkte. Da liegt eine 9800 GTX demnach ein gutes Stück drüber. Die Frage ist nur, wie viel von der Mehrleistung übrig bleibt, wenn es anders im 3DMark mal auf die Bandbreite ankommt. Und 512 MiB ist erst recht knapp.

=Floi=
2008-03-06, 15:33:38
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/maerz/nvidia_geforce_9800_gtx_die_platine_detail/

mehr bilder und mehr details

deekey777
2008-03-06, 15:34:09
... . Was passiert denn nun wohl wenn man dynamisches branching anlegt und dazu in einem handgemeisterten synthetischen Test wie der von Damien wo keiner der IHVs Zugang dazu hat?

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=fr_de&url=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F671-5%2Fati-radeon-hd-2900-xt.html


...
Was mann sieht, ist die Performance der HD2900XT in Damiens Test vor fast einem Jahr.
Erst wenn dieser Test genau so öffentlich wäre wie 3D Mark und dessen Status hätte, dann würde die Treiberabteilung vielleicht da was tun (zB den Shadercompiler tweaken). AMD hat bei Rightmark schon eindrucksvoll bewiesen, wie egal ihnen die Performance in solchen Tests ist (es hat einge Zeit gedauert, bis die Probleme entfernt wurden, aber bis heute ist die Performance in diesem Test mager, aber interessiert das jemanden wirklich?).

Blacksoul
2008-03-06, 15:37:55
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/maerz/nvidia_geforce_9800_gtx_die_platine_detail/

mehr bilder und mehr details

Nicht für ungut, aber glaubst du wirklich, dass CB schneller ist, als der Thread hier? :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6328079&postcount=926


t.b.d

Anarchy-HWLUXX
2008-03-06, 16:02:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6125&Itemid=1

9800GTX mit 768MB, also 384Bit SI?
Nur wenn die Pics der 9800GTX mit schwarzem PCB, 3-way-SLI connectors usw. die Teuerste verarsche aller zeiten warn ;) ( im GraKa segment )

AnarchX
2008-03-06, 16:11:41
Naja, man könnte ja auch nur sechs 1024MBit Chips auf dem PCB verbauen, das wären dann auch 768MB. ;D

puntarenas
2008-03-06, 16:19:49
Warum steht bei den GPU-Z Screens der 9800GTX eigentlich immer 8 ROPs? Außerdem hat doch wohl Expreview seine Karte zur 9800GTX erklärt und dann den Entwickler von GPU-Z sein Tool anpassen lassen, damit diese auch so erkannt wird.

Irgendwie basieren alle Gerüchte doch auf der Karte bei Expreview oder liegt noch wo anders ein Exemplar vor bzw. ist sonst wo was durchgesickert. :confused:

laser114
2008-03-06, 16:34:45
Naja, man könnte ja auch nur sechs 1024MBit Chips auf dem PCB verbauen, das wären dann auch 768MB. ;D

Bei dem üppigen Speicherinterface kann sich das Nvidia halt leisten. ;D

Gast
2008-03-06, 17:48:51
Nur wenn die Pics der 9800GTX mit schwarzem PCB, 3-way-SLI connectors usw. die Teuerste verarsche aller zeiten warn ;) ( im GraKa segment )

Diese Karte könnte aber auch eine 9800 GT oder GTS sein! ;)

dargo
2008-03-06, 18:05:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6125&Itemid=1

9800GTX mit 768MB, also 384Bit SI?
Was, wie wo?
Das würde automatisch 24 ROPs bedeuten. :eek:
Ich glaubs erst wenn ich es sehe. :cool:

Nakai
2008-03-06, 18:15:59
Auf welchem PCB?

mfg Nakai

Gast
2008-03-06, 18:20:56
Auf welchem PCB?

mfg Nakai

Warscheinlich ein ganz neues! :D

Nakai
2008-03-06, 18:22:48
Warscheinlich ein ganz neues! :D

Bezweifle ich, da schon ein PCB gezeigt wurde. Aber ich lass mich gerne überraschen. :biggrin:


mfg Nakai

Anarchy-HWLUXX
2008-03-06, 18:46:05
Beim G80 konnte nV auch sehr lange verheimlichen das es eine Unified architektur ist ... mal sehn ...

James Ryan
2008-03-06, 19:05:56
Diese Karte könnte aber auch eine 9800 GT oder GTS sein! ;)

Wollen wir es hoffen! :D

MfG :cool:

AnarchX
2008-03-06, 19:07:33
Und die eigentliche 9800 GTX ist dann wohl 12-13" lang? ;D

laser114
2008-03-06, 22:08:38
Wenn Fudus Information korrekt ist, bekommt die 9800 GX2 einen MSPR von $599.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=6123&Itemid=1

Anarchy-HWLUXX
2008-03-06, 23:14:09
Auf VR-Zone gesehn :

http://sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=45503

MSI OCed Version für 520€

Gast
2008-03-06, 23:17:23
Und die eigentliche 9800 GTX ist dann wohl 12-13" lang? ;D

Nee, Nee, gleiches PCB wie auf dem gezeigten Shots, aba nochma 512MB auf der Rückseite, also gesamt 1024MB die mit 512bit angebunden sind und dazu 32 ROPers im Chip. WOOHAA :D

AnarchX
2008-03-06, 23:17:37
Auf VR-Zone gesehn :

http://sallandautomatisering.nl/?redirect=/content/productinfo.php?pid=45503

MSI OCed Version für 520€
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6296381&postcount=351
;)

Scheint der Preis mittlerweile etwas gesunken zu sein.

James Ryan
2008-03-07, 05:46:35
Nee, Nee, gleiches PCB wie auf dem gezeigten Shots, aba nochma 512MB auf der Rückseite, also gesamt 1024MB die mit 512bit angebunden sind und dazu 32 ROPers im Chip. WOOHAA :D

Hartware.net hat das direkt mal aufgegriffen:
http://www.hartware.de/news_44252.html
Scheinen wohl was falsch verstanden zu haben! ;D

MfG :cool:

mictasm
2008-03-07, 06:07:59
Wenn man an den momentanen Kurs des US-Dollars zum Euro denkt, sind die Verkaufspreise für Europa wirklich übel...

Ailuros
2008-03-07, 06:20:53
Was mann sieht, ist die Performance der HD2900XT in Damiens Test vor fast einem Jahr.
Erst wenn dieser Test genau so öffentlich wäre wie 3D Mark und dessen Status hätte, dann würde die Treiberabteilung vielleicht da was tun (zB den Shadercompiler tweaken). AMD hat bei Rightmark schon eindrucksvoll bewiesen, wie egal ihnen die Performance in solchen Tests ist (es hat einge Zeit gedauert, bis die Probleme entfernt wurden, aber bis heute ist die Performance in diesem Test mager, aber interessiert das jemanden wirklich?).

Damien ist IMHO ein sehr erfahrener reviewer. Haette ich sein Talent/Wissen wuerde ich auch einen einfachen synthetischen Test zusammenschustern um das Ganze zu testen. B3D hat es auch nicht anders gemacht mit den arithmetischen Tests fuer G8x und hat den originalen Test nur mal wieder wiederholt weil eine Kleinigkeit nach Treiberupdates aus der MUL dann im Laufe der Zeit herauszuquetschen war; nie aber etwas das einen fundamentalen Unterschied machen koennte.

Heutige GPUs haben leider nicht nur einen Compiler uebrigens und zweitens haben beide IHVs sehr faehige Treiberteams die nicht faul auf ihren Hintern herumhocken.

R6x0/RV6x0 sind ausgezeichnet fuer GPGPU Zeug; der letztere sogar fuer diesen Bereich mit dual precision.

Gast
2008-03-07, 07:50:10
Hartware.net hat das direkt mal aufgegriffen:
http://www.hartware.de/news_44252.html
Scheinen wohl was falsch verstanden zu haben! ;D

MfG :cool:

Lol, genau, 512-bit SI mit 768MB VRAM.

Anarchy-HWLUXX
2008-03-07, 09:47:35
Lol, genau, 512-bit SI mit 768MB VRAM.
Ganz nach dem motto : "Wir haben keine ahnung, davon aber viel" :ucatch:

Gast
2008-03-07, 10:15:01
GeForce 9800 GX2, GTX and GTS specs and pricing:

- 9800 GX2:128SP(1500MHz)x2、600/2000MHz、256-bit、512MBx2 USD$599
- 9800 GTX:128SP(1688MHz)、675/2200MHz、256-bit、512MB USD$399
- 9800 GTS:128SP(1500MHz)、600/1800MHz、256-bit、512MB USD$299

http://bbs.chiphell.com/viewthread.php?tid=17481&extra=page%3D1&page=2

Wenn sich das bewahrheitet ist das an Unverschämtheit wohl kaum zu überbieten. Eine minimal höher getaktete 8800GTS um 399$ als 9800GTX zu verkaufen ist schon ein starkes Stück. Die Karte dürfte gegen eine 8800U/GTX wenig zu lachen haben. Doch dann auch noch eine Karte als 9800GTS, die von der 8800GTS geschlagen wird über deren Preis zu verkaufen setzt dem ganzend die Krone auf.

AnarchX
2008-03-07, 10:59:02
http://img155.imageshack.us/img155/9783/cebit08geforce9800gtx14ep1.jpg (http://imageshack.us)
mehr:
http://www.hardware.info/nl-NL/news/ymickZqawpqabZY/CeBIT_GeForce_9800_GTX_op_de_foto/

Nette Verpackung, schlechter Inhalt...

James Ryan
2008-03-07, 11:14:16
Das Design-Team bei NVIDIA verdient ein :up:
Das Technik-Team allerdings ein :down:

MfG :cool:

Gast
2008-03-07, 11:36:14
Diese Vollverkleideten Karten gefallen mir überhaupt nicht.

Immer wenn ich die GTS512 sehe, habe ich das Gefühl jemand hätte mi dem Hammer auf den Lüfter geschlagen, so das der jetzt schief und eingedellt im Kühler hockt. ;D

Anarchy-HWLUXX
2008-03-07, 11:37:37
Diese Vollverkleideten Karten gefallen mir überhaupt nicht.

Immer wenn ich die GTS512 sehe, habe ich das Gefühl jemand hätte mi dem Hammer auf den Lüfter geschlagen, so das der jetzt schief und eingedellt im Kühler hockt. ;D
... ist ja net jeder mit technischem verständniss gesegnet ;) z.B. du ;D

Spasstiger
2008-03-07, 12:44:37
Mit einem Preis von um die 500€ für die GeForce 9800 GX2 setzt Nvidia die Messlatte ja ziemlich hoch. Eine Sapphire Radeon HD3870 X2 kostet derzeit bei den Onlinehändlern 320€.
D.h. die 9800 GX2 müsste schon mindestens 50% schneller sein, um einen Mehrwert für den Aufpreis zu bieten. Und gerade bei hohen Auflösungen mit quality-Einstellungen, wo solche Karten ihren Einsatz finden wollen, sehe ich ganz schwarz für die 9800 GX2, da wird sich wohl nur mit Mühe und Not vor der 3870 X2 platzieren können.

Paul Brain
2008-03-07, 13:28:38
D.h. die 9800 GX2 müsste schon mindestens 50% schneller sein, um einen Mehrwert für den Aufpreis zu bieten.
x% Mehrpreis != x% Mehrleistung

laser114
2008-03-07, 13:52:05
- 9800 GTS:128SP(1500MHz)、600/1800MHz、256-bit、512MB USD$299

Eine 9800 GTS (G92) unter 8800 GTS (G92). :rolleyes:

Gast
2008-03-07, 14:00:34
Eine 9800 GTS (G92) unter 8800 GTS (G92). :rolleyes:

Dafür kostet sie mehr. *gg*

GeneralHanno
2008-03-07, 14:10:27
WENN nvidia der GTS hatsächlich 8c spendiert, dann wird es wohl in ein paar monaten noch eine 9800GS geben ;)

Spasstiger
2008-03-07, 14:14:18
Eine 9800 GTS (G92) unter 8800 GTS (G92). :rolleyes:
Dafür mit Support für Hybrid-SLI. :ucatch:

@Paul Brain: Würdest du denn für 10-20% mehr fps rund 180€ mehr ausgeben? Für 500€ bekommt man auch eine HD3870 X2 und eine HD3870 (also drei GPUs) für CrossfireX. Bis 3 GPUs zeigt das auch noch eine vernünftige Skalierung.

Paul Brain
2008-03-07, 14:26:50
@Paul Brain: Würdest du denn für 10-20% mehr fps rund 180€ mehr ausgeben? Für 500€ bekommt man auch eine HD3870 X2 und eine HD3870 (also drei GPUs) für CrossfireX. Bis 3 GPUs zeigt das auch noch eine vernünftige Skalierung.
Wenn es hier um Single-Karten ginge, wäre meine Antwort: Ja. Vorausgesetzt, daß die billigere Version nicht für sämtliche Spiele selbst in hohen Auflösungen ausreichend Leistung bieten würde.
Deshalb hab ich ja auch noch immer meinen Xeon auf P4-Basis: Der reicht für alle für mich relevanten Spiele locker aus, nur die Grafikkarte ist immer der Flaschenhals.

Ich hab bislang immer die schnellste Single-Karte gekauft, die es gab. Nur bei G80 hab ich pausiert, weil mich einerseits die Treiberproblematik vor allem zu Beginn abgeschreckt hat und andererseits der Idle-Stromverbrauch für mich nicht mehr tolerierbar war.

Und jetzt hader ich grad damit, was ich mir als nächstes kauf: Eine 8800GTS 512, auf die 9800GTX warten und vielleicht noch eine positive Überraschung bzgl. der Specs erleben oder gleich auf GT200 warten, der ja angeblich viell. schon in drei Monaten da sein soll. Ich weiß aber nicht, ob ich noch so lange warten kann, die 7900GTX is mittlerweile schon mehr als zach, vor allem, wenn man in 1920x1200 bei zumindest 2xAA spielen will... Genau da ist ein G92 aber auch wieder nicht so der Bringer...

Von der X800XT weg hatte ich immer High-End. Die 7800GTX-512 war für mich damals genau das richtige: Speicherbandbreite ohne Ende für hohe Auflösungen. Dann kam die 7900GTX, weil die 78er mucken machte. Naja, eigentlich hatte ich bei der 9800GTX auf einen ähnlichen Quantensprung gehofft wie bei 7800GTX -> 7800GTX 512...

Aber ich denk hier komplett wirr laut vor mich hin, man merkt vielleicht, daß ich mit der aktuellen Situation und der nahen Zukunft nicht besonders glücklich bin ;-)

AnarchX
2008-03-07, 15:07:44
Was ihr immer mit eurer 9800 GTS habt, bis jetzt gibt es nur einen Hinweis darauf, der sehr wahrscheinlich ein Fake ist.

Zur 9800 GT gibt es deutlich mehr Hinweise und diese ist mit ihren spekulierten 7C, 650/1625/1000MHz doch gar nicht so übel, wenn sie nicht viel teurer als die 8800 GT ist.

Gast
2008-03-07, 15:17:26
Zur 9800 GT gibt es deutlich mehr Hinweise und diese ist mit ihren spekulierten 7C, 650/1625/1000MHz doch gar nicht so übel, wenn sie nicht viel teurer als die 8800 GT ist.
Ja, damit könnte die 8800GT getrost auslaufen.

Bleibt immer noch eine schlüssige Erklärung, wozu die 9800GTX zwei 6-Pin-Anschlüsse benötigt und weshalb GPU-Z 8 ROP-Cluster anzeigt, das wären dann ja 32 ROPs und 512Bit SI.

AnarchX
2008-03-07, 15:20:49
Bleibt immer noch eine schlüssige Erklärung, wozu die 9800GTX zwei 6-Pin-Anschlüsse benötigt
168W Board-TDP! Im Endeffekt werden die AIBs hier auch noch entsprechenden Spielraum für ihre OC-Versionen haben.


und weshalb GPU-Z 8 ROP-Cluster anzeigt, das wären dann ja 32 ROPs und 512Bit SI.
Nein, die 8 steht hier für die Shader-Cluster, das war auch schon bei der 8800 GT so, wo anfangs eine 7 angezeigt wurde.
Und wenn es 512Bit wären, so müssten auf der Karte 16 Speicherchips sein, nicht zu vergessen, dass der Die und Transistorcount auch dazu nicht passen würde.

puntarenas
2008-03-07, 15:25:05
168W Board-TDP! Im Endeffekt werden die AIBs hier auch noch entsprechenden Spielraum für ihre OC-Versionen haben.

Also mal eine entspannte Zwischenstufe als Geschenk an die treuen Partner, der Gedanke gefällt mir :)

Gast
2008-03-07, 16:18:16
Nein, die 8 steht hier für die Shader-Cluster, das war auch schon bei der 8800 GT so, wo anfangs eine 7 angezeigt wurde.
Und wenn es 512Bit wären, so müssten auf der Karte 16 Speicherchips sein, nicht zu vergessen, dass der Die und Transistorcount auch dazu nicht passen würde.

Gibt es eigentlich schon 64bit-Speicherchips, mit denen man bei 8 Chips nen 512bit Interface realisieren kann, bzw. werden diese bald kommen?

GeneralHanno
2008-03-07, 16:31:48
Gibt es eigentlich schon 64bit-Speicherchips, mit denen man bei 8 Chips nen 512bit Interface realisieren kann, bzw. werden diese bald kommen?

genau wissen tu ich es nicht, aber eigentlich erübrigt sich die frage dank GDDR5 ;)

Gast
2008-03-07, 16:49:34
genau wissen tu ich es nicht, aber eigentlich erübrigt sich die frage dank GDDR5 ;)

Wieso, könnte man dann für 256bit wunderbar mit 4 Chips alles schön kompakt auf dem PCB halten! :)

AnarchX
2008-03-07, 16:53:42
Naja, Datenleitungen benötigt man weiterhin genau so viele und die Speicherchips würden wohl auch fetter werden.
Wird wohl auch noch andere Gründe geben, die gegen 64-Bit GDDR-Chips sprechen.

Gast
2008-03-07, 18:12:02
Also ich hab nichts gegen 16bit Chips, dann ist die Platine eben doppelseitig voll bestückt. :)

Anarchy-HWLUXX
2008-03-07, 18:36:47
Also ich hab nichts gegen 16bit Chips, dann ist die Platine eben doppelseitig voll bestückt. :)
Doppelseitig is teuer ... machen die hersteller ungern ;)

Ailuros
2008-03-07, 18:53:18
Ich hab bislang immer die schnellste Single-Karte gekauft, die es gab. Nur bei G80 hab ich pausiert, weil mich einerseits die Treiberproblematik vor allem zu Beginn abgeschreckt hat und andererseits der Idle-Stromverbrauch für mich nicht mehr tolerierbar war.

Und jetzt hader ich grad damit, was ich mir als nächstes kauf: Eine 8800GTS 512, auf die 9800GTX warten und vielleicht noch eine positive Überraschung bzgl. der Specs erleben oder gleich auf GT200 warten, der ja angeblich viell. schon in drei Monaten da sein soll. Ich weiß aber nicht, ob ich noch so lange warten kann, die 7900GTX is mittlerweile schon mehr als zach, vor allem, wenn man in 1920x1200 bei zumindest 2xAA spielen will... Genau da ist ein G92 aber auch wieder nicht so der Bringer...

Wenn Du X-mal-G80 Leistung von einer zukuenftigen GPU haben willst, dann solltest Du auch keinen moderaten Stromverbrauch erwarten. Erst die zukuenftigen Performance-GPUs von der GF-Next Familie kommen dann mit konservativerem Stromverbrauch an, ebenso wie G80-->G92.

Aber ich denk hier komplett wirr laut vor mich hin, man merkt vielleicht, daß ich mit der aktuellen Situation und der nahen Zukunft nicht besonders glücklich bin ;-)

Die Zeiten wo GPUs mit weit unter 50W dahinsummten sind seit langem vorbei. Eine single chip Alternative in der naeheren Zukunft waere die RV770, aber stromsparend wuerde ich dieses Dingsbums dann auch nicht mehr nennen.

=Floi=
2008-03-07, 20:38:00
was ist denn 8c und 7c?

Fallacy
2008-03-07, 21:25:52
Cluster. Zu deutsch ein Verbund von Recheineihten. Auf den Schaubildern zu den Architektruren meist als Blöcke symbolisiert.

Spasstiger
2008-03-07, 21:28:19
Liebäugelt hier überhaupt jemand mit einer 9800 GX2?
Meiner Umfrage zum Thema Dual-GPU-Karten nach zu urteilen, scheint das Interesse an solchen Karten ja generell kaum vorhanden zu sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=406613

Die Leute sparen wohl lieber auf den GT200. ;)

puntarenas
2008-03-07, 21:57:59
Liebäugelt hier überhaupt jemand mit einer 9800 GX2?
Eins muss man der Karte lassen, dank Hybrid-SLI ist wenigstens das Problem des aberwitzigen Idle-Verbrauchs in den Griff zu kriegen. Allerdings braucht man dann auch noch ein neues, teures Board dazu und auf dem laufen dann auch gleich wieder zwei 9800GTX.

Liebäugeln ist wohl etwas viel verlangt, aber vielleicht erbarmt sich ja jemand :ugly:

laser114
2008-03-07, 22:08:40
Liebäugelt hier überhaupt jemand mit einer 9800 GX2?
Meiner Umfrage zum Thema Dual-GPU-Karten nach zu urteilen, scheint das Interesse an solchen Karten ja generell kaum vorhanden zu sein:

Die Karte ist doch rein für Benchmarks erstellt wurden. Wer eine Dual-Karte wollte dürfte die 3870 X2 genommen haben. Ende März würde ich jedenfalls keine mehr kaufen, wenn Ende Sommer der nächste Single-Chip ansteht.

dildo4u
2008-03-07, 22:15:22
Die Karte ist doch rein für Benchmarks erstellt wurden. Wer eine Dual-Karte wollte dürfte die 3870 X2 genommen haben.
Warum bitte?Wer die ultimative Performance will nimmt sicherlich nicht die langsamere Karte.Diese Karten sind beide auf den Performance Freak ausgelegt und der wird sicherlich nicht auf die letzten 30Watt schaun die er vieleicht mit der X2 sparen kann da schätz du den Kundenkreis für diese Karten imo völlig falsch ein.

laser114
2008-03-07, 22:22:31
Warum bitte?Wer die ultimative Performance will nimmt sicherlich nicht die langsamere Karte.

Das nicht, aber die 3870 X2 war deutlich eher auf den Markt, was hier wohl den Ausschlag gab.

dildo4u
2008-03-07, 22:25:27
Diese Leute hatten vorher 8800GTX und Ultras imo das lohnt sich da die X2 kaum.

Spasstiger
2008-03-07, 22:28:20
Diese Leute hatten vorher 8800GTX und Ultras imo das lohnt sich da die X2 kaum.
Du meinst also bei wenig AA und Mainstream-Auflösungen?
Gut, da hat die GeForce GX2 tatsächlich noch eine Rechtfertigung, da man dann dank konstant 60 fps auch keine Probleme mit Mikrorucklern mehr hat. ;)

Raff
2008-03-07, 22:30:51
Gut, da hat die GeForce GX2 tatsächlich noch eine Rechtfertigung, da man dann dank konstant 60 fps auch keine Probleme mit Mikrorucklern mehr hat. ;)

Es ist imo kompletter Bullshit, mehr Geld für nominell mehr Fps auszugeben, wenn es auch eine Solokarte mit 30 Fps für denselben Effekt täte.

MfG,
Raff

dildo4u
2008-03-07, 22:32:10
Du meinst also bei wenig AA und Mainstream-Auflösungen?

Hä eine Ultra und GTX muss sich höstens um ca 10% einer X2 geschlagen geben es sei denn man nimmt 8XMSSA was aber kaum einer nutz weils da(zumindest bei NV Hardware) bessere vergleichbare Modi gibt von daher.

Gast
2008-03-07, 22:36:17
Es ist imo kompletter Bullshit, mehr Geld für nominell mehr Fps auszugeben, wenn es auch eine Solokarte mit 30 Fps für denselben Effekt täte.
NVidia sagt, sie werden das Mikrorucklerproblem lösen. Dann hat man bei Spielen die gut skalieren schlagartig richtig Luft für Qualitätsfeatures, bis man wieder bei 30fps landet.
Trotzdem machen in dem Bereich dann zwei 9800GTX IMHO mehr Sinn, die 9800GX2 bedient Nische, die wohl kaum existiert: sparsame Geldverschwender.

Alternativlos ist natürlich Quad-SLI, aber das dann wohl wirklich nur mit flüssigem Stickstoff auf der Jagd nach 3DMark-Rekorden.

Spasstiger
2008-03-07, 22:54:19
Hä eine Ultra und GTX muss sich höstens um ca 10% einer X2 geschlagen geben es sei denn man nimmt 8XMSSA was aber kaum einer nutz weils da(zumindest bei NV Hardware) bessere vergleichbare Modi gibt von daher.
Naja, angenommen, du nutzt einen 30" TFT und willst in nativer Auflösung (2560x1600) mit 4xAA und 16:1 AF flüssig zocken, ohne Unsummen auszugeben, dann triffst du ja deine Entscheidung vermutlich zwischen einer 8800 GTS G92, einer 8800 GTX und einer HD3870 X2.
Und jetzt schau mal in diese Benchmarks: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/.

8800 GTS G92 - 8800 GTX - HD3870 X2
Anno 1701: 27,9 fps - 27,8 fps - 45,2 fps <= die X2 ist 63% schneller als die GTX
Jericho: Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Company of Heroes: 42,3 fps - 43,3 fps - 61,9 fps <= die X2 ist 43% schneller als die GTX
Fear: 35 fps - 38 fps - 61 fps <= die X2 ist 74% schneller als die GTX
Gothic 3 (ohne AA): 15,9 fps - 22,6 fps - 12 fps <= die GTX ist 88% schneller als die X2, so richtig flüssig ist es aber nirgendwo
Oblivion: 29,3 fps - 29,3 fps - 54,3 fps <= die X2 ist 85% schneller als die GTX
Prey: 33,9 fps - 36,5 fps - 57,4 fps <= die X2 ist 57% schneller
Rainbow Six Vegas (ohne AA): 26,5 fps - 25,5 fps - 47,6 fps <= die X2 ist 87% schneller
UT3 (ohne AA): 55,4 fps - 61,7 fps - 90,0 fps <= die X2 ist 46% schneller
Bioshock DX10 (ohne AA): 23,2 fps - 24,3 fps - 39,3 fps <= die X2 ist 62% schneller
Call of Juarez DX10: Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Company of Heroes DX10: 10,9 fps - 20,1 fps - 14,7 fps <= die GTX ist 37% schneller als die X2
Crysis (ohne AA): Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Lost Planet DX10: 7,5 fps - 11,8 fps - 20,3 fps <= die X2 ist 76% schneller, so richtig flüssig ist es aber nirgendwo
World in Conflict DX10: 16,6 fps - 17,3 fps - 30,1 fps <= die X2 ist 74% schneller

In 7 von 15 Benchmarks ist die HD3870 X2 um mehr als 60% schneller als die 8800 GTX und liefert dabei flüssig spielbare Frameraten, in 3 weiteren Benchmarks liefert die X2 immer noch über 40% mehr Performance als die GTX bei spielbaren Frameraten.
Der Einfluss von Mikrorucklern auf die subjektive Spielbarkeit muss natürlich noch geprüft werden, aber die Behauptung "Hä eine Ultra und GTX muss sich höstens um ca 10% einer X2 geschlagen geben es sei denn man nimmt 8XMSSA" ist doch ziemlich ignorant.

In 2560x1600 kann die HD3870 X2 ihr Potential oft erst richtig ausspielen und das dann auch mit weniger als 8xAA. Und es spielt auch nicht jeder ausgerechnet die Spiele, die auch auf der schnellsten Hardware noch unterirdisch laufen (z.B Crysis).

AnarchX
2008-03-07, 23:01:57
Wobei man sagen muss, dass der bei CB verwendete Treiber für die G80-Karten noch vom Oktober 2007 ist...

Gast
2008-03-07, 23:03:42
NVidia sagt, sie werden das Mikrorucklerproblem lösen.
Link?

Die Meldung war definitiv ein Schlag ins Gesicht, NV oder AMD werden nichts lösen. MS muss es tun.

puntarenas
2008-03-07, 23:14:09
Link?

Sie wünschen, wir spielen: Klick! (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)

K4mPFwUr$t
2008-03-07, 23:17:45
wir wollen taten, keine leeren worte ;)

Gast
2008-03-07, 23:25:24
Sie wünschen, wir spielen: Klick! (http://www.ht4u.net/news/1472_cebit_nvidia_bestaetigt_mikroruckler_und_kuendigt_loesung_an)
Oha dann hat sich schon etwas bewegt.

Ob es wieder so ein Gesülze wie zur letzten Cebit wegen dem VRAM Bug ist?
Oder dem Stromverbrauch?
Oder dem defekten Videoprozessor des NV40?

puntarenas
2008-03-08, 00:26:06
"Nackte" GeForce 9800 GX2 abgelichtet (http://www.ht4u.net/news/1499_cebit_nackte_geforce_9800_gx2_abgelichtet_-_evga_zeigt_9800_gx2_und_790i_mit_wasserkuehlung) - irgendwie trotzdem jugendfrei. Schöner wären die beiden PCBs nackt und nebeneinanderliegend.

Ailuros
2008-03-08, 07:18:23
Naja, angenommen, du nutzt einen 30" TFT und willst in nativer Auflösung (2560x1600) mit 4xAA und 16:1 AF flüssig zocken, ohne Unsummen auszugeben, dann triffst du ja deine Entscheidung vermutlich zwischen einer 8800 GTS G92, einer 8800 GTX und einer HD3870 X2.
Und jetzt schau mal in diese Benchmarks: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/.

8800 GTS G92 - 8800 GTX - HD3870 X2
Anno 1701: 27,9 fps - 27,8 fps - 45,2 fps <= die X2 ist 63% schneller als die GTX
Jericho: Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Company of Heroes: 42,3 fps - 43,3 fps - 61,9 fps <= die X2 ist 43% schneller als die GTX
Fear: 35 fps - 38 fps - 61 fps <= die X2 ist 74% schneller als die GTX
Gothic 3 (ohne AA): 15,9 fps - 22,6 fps - 12 fps <= die GTX ist 88% schneller als die X2, so richtig flüssig ist es aber nirgendwo
Oblivion: 29,3 fps - 29,3 fps - 54,3 fps <= die X2 ist 85% schneller als die GTX
Prey: 33,9 fps - 36,5 fps - 57,4 fps <= die X2 ist 57% schneller
Rainbow Six Vegas (ohne AA): 26,5 fps - 25,5 fps - 47,6 fps <= die X2 ist 87% schneller
UT3 (ohne AA): 55,4 fps - 61,7 fps - 90,0 fps <= die X2 ist 46% schneller
Bioshock DX10 (ohne AA): 23,2 fps - 24,3 fps - 39,3 fps <= die X2 ist 62% schneller
Call of Juarez DX10: Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Company of Heroes DX10: 10,9 fps - 20,1 fps - 14,7 fps <= die GTX ist 37% schneller als die X2
Crysis (ohne AA): Läuft mit keiner Lösung in der geforderten Einstellung auch nur annähernd flüssig
Lost Planet DX10: 7,5 fps - 11,8 fps - 20,3 fps <= die X2 ist 76% schneller, so richtig flüssig ist es aber nirgendwo
World in Conflict DX10: 16,6 fps - 17,3 fps - 30,1 fps <= die X2 ist 74% schneller

In 7 von 15 Benchmarks ist die HD3870 X2 um mehr als 60% schneller als die 8800 GTX und liefert dabei flüssig spielbare Frameraten, in 3 weiteren Benchmarks liefert die X2 immer noch über 40% mehr Performance als die GTX bei spielbaren Frameraten.
Der Einfluss von Mikrorucklern auf die subjektive Spielbarkeit muss natürlich noch geprüft werden, aber die Behauptung "Hä eine Ultra und GTX muss sich höstens um ca 10% einer X2 geschlagen geben es sei denn man nimmt 8XMSSA" ist doch ziemlich ignorant.

In 2560x1600 kann die HD3870 X2 ihr Potential oft erst richtig ausspielen und das dann auch mit weniger als 8xAA. Und es spielt auch nicht jeder ausgerechnet die Spiele, die auch auf der schnellsten Hardware noch unterirdisch laufen (z.B Crysis).


Wenn Du Dir schon die Muehe gemacht hast alle Resultate abzuschreiben haettest Du Dir auch die Muehe machen koennen aus allen 2560 + 4xAA Resultaten einen Durchschnitt zu schneiden, in etwa so:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet

Es bezweifelt wohl keiner dass es mehr als nur einen Fall gibt wo die X2 brutal abzieht, aber fuer sie ueberzeugt trotzdem keinen G80 Besitzer so leicht fuer eine richtige "Aufruestung".

Das Publikum das bis jetzt immer noch eine D3D9.0 GPU hat wird es wahrscheinlich schon ueberzeugen koennen, aber auch nicht zu einer Mehrzahl.

4711
2008-03-08, 08:30:53
Diese Leute hatten vorher 8800GTX und Ultras imo das lohnt sich da die X2 kaum.
War die Woche bei dem Händler meines Verdrauens und wollte eine 3870X2 kaufen hatte mal Lust auf was neues...nach knappen 4Std.zocken>zig Games von Dirt<>der Test überhaupt bis Crysis an deren Testrechnern die ungefähr die Specs meines hatten,bin ich dann mit einer GTS nach Hause...was ich damit sagen will ist,das ich nichts mehr aber auch garnichts mehr auf irgendwelche Tests gebe.
Und so nebenbei,wenn es sich noch lohnen (im Sinne vom Wiederverkauf aber leider ist ja nur neu gut...)würde,hätte ich mir wieder eine GTX oder Ultra gekauft.

horn 12
2008-03-08, 09:57:47
Viele Forumkollegen behaupten dass NV für alle Versionen von Atis Graka bereits was im "Petto" hat. Dies würde ich dementieren, denn da hätte man schon viel früher reagiert und ATI erst gar nicht zum Schuss mit der X2 kommen lassen. Eher sieht es wohl danach aus dass NV etwas verzweifelt ist und nun die 9800 GTX/ GX2 zu wahnsinnspreisen auf den Markt wirft um der X2 entgegenhalten zu können, und vielleicht auch mal etwas schneller ist. Aber wenn die GDDR4 Modelle kommen wird sich es wohl wieder ändern und die GDDR3 Modelle der
X² werden wohl knapp unter die 300 Euro somit rutschen was ja HAMMER ist!
Meine Meinung.... und vielleicht gar nicht verkehrt....:smile:

AnarchX
2008-03-08, 10:03:50
Naja, die GX2 an sich ist schon lange geplant, aber wohl Anfangs mit schwächeren Specs: 2x96SPs, 550MHz...

Dass die 3870X2 mit 825MHz GPU kam war insgesamt eine Überraschung und hat wohl für leichte Verschiebungen beim Markteintritt der GX2 gesorgt.

Aber da RV770 oder gar der GT200 schon am Horizont auftauchen, sollte man imo eher die Finger von X2 oder GX2 lassen.

Gast
2008-03-08, 10:24:39
AnarchX, das klingt bei dir sehr optimistisch.

Vielleicht ist der GT200 Chip ja bereits hinter einer dicken Glasscheibe im Nvidia Hauptquartier schon zu bewundern und jetzt werden nur noch Optimierungen, Fehler- und Qualitätskontrolle gemacht und die neuen TechDemos dazu fertig gestellt.

Könnte man mit der Geforce-Next dann zum Ende des Sommers oder gegen Ende des Jahres rechnen?

MfG

GeneralHanno
2008-03-08, 10:32:02
ich würde auf ende Q3 tippen.

Gast
2008-03-08, 10:51:13
Könnte man mit der Geforce-Next dann zum Ende des Sommers oder gegen Ende des Jahres rechnen?

MfG

Die nächste High-End Generation kommt, wenn sie gebraucht wird, und das hängt eben von ATI ab.

Gast
2008-03-08, 10:53:35
Aber da RV770 oder gar der GT200 schon am Horizont auftauchen, sollte man imo eher die Finger von X2 oder GX2 lassen.
Oder eben, weil wer jetzt erst meint eine (G)X2 kaufen zu müssen, der ist spät dran.
Die Highend Kunden wurden mit der 8800GTX befriedigt, die müssen jetzt eh auf GT200 und RV770 warten.
Alle Anderen, die plötzlich meinen jetzt viel Geld ausgeben zu müssen, die sind blöd im Kopf.

horn 12
2008-03-08, 10:56:36
Jupp, aber dass die X2 mit 825 Mhz kommt war mir schon von Anfang an klar, hatten die Karten Auslese eben mit den Einzelkarten/ DualChip getrennt.
Wäre gut wenn auch die 3870-X2 GDDR4 mit höherem Takt kommen würde, so 875 Mhz wären sicher nicht schlecht, mal sehen ob was kommt in dieser Richtung!

Spasstiger
2008-03-08, 13:40:55
Wenn Du Dir schon die Muehe gemacht hast alle Resultate abzuschreiben haettest Du Dir auch die Muehe machen koennen aus allen 2560 + 4xAA Resultaten einen Durchschnitt zu schneiden, in etwa so:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3870_x2/24/#abschnitt_performancerating_qualitaet

Genau das wollte ich nicht tun, sonst hätte ich die Benchmarks gar nicht einzeln aufgeführt. So ein Mittelwert sagt überhaupt nichts aus über die Spielbarkeit diverser Spiele und Computerbase lässt da unverständlicherweise auch Benchmarks einfließen, wo mit keiner Karte brauchbare Frameraten drin sind.

Paul Brain
2008-03-08, 14:07:58
Die Zeiten wo GPUs mit weit unter 50W dahinsummten sind seit langem vorbei. Eine single chip Alternative in der naeheren Zukunft waere die RV770, aber stromsparend wuerde ich dieses Dingsbums dann auch nicht mehr nennen.
Das ist mir schon bewußt. Ich hab immerhin auch schon eine 7800GTX-512 im Rechner gehabt, die gute 120W verheizt hat. Das tat sie allerdings nur unter Last - im Idle warens vielleicht 30W, wenn überhaupt.
Diese GPU hat mir damals aber auch geboten, was ich wollte: Durch fett Speicherbandbreite auch Leistung in hohen Auflösungen (meine bevorzugte ist 1920x1200). Ich würde ja auch mit der TDP einer 9800GTX zurechtkommen, wenn sie nicht so ein mickriges Speicherinterface hätte...

256bit@860MHz hab ich jetzt bereits, die 7800GTX-512 hatte sogar noch mehr. Über zwei Jahre später dann auf 256bit@1000MHz umzusteigen ist halt nicht soooo der Bringer. Und: es tut wie gesagt weh, wenn man sieht, wie eine G92-GTS, die bei 1280x1024 ohne AA mit einer Ultra gleichauf liegt bei "meiner" Auflösung + AA auf einmal im mittleren, zweistelligen Prozentbereich verliert.
Hohe TDP: Ja, wenn die Leistung (für meine Anforderurugen) stimmt, und wenn im Idle deutlich weniger verbraucht wird. Zumindest eine dieser Bedingungen trifft eben auf G80 und G92 nicht zu...
Würde ich in SXGA spielen, hätt ich eh schon längst einen G92.

Gast
2008-03-08, 14:23:03
Oder eben, weil wer jetzt erst meint eine (G)X2 kaufen zu müssen, der ist spät dran.
Die Highend Kunden wurden mit der 8800GTX befriedigt, die müssen jetzt eh auf GT200 und RV770 warten.
Alle Anderen, die plötzlich meinen jetzt viel Geld ausgeben zu müssen, die sind blöd im Kopf.

Würd ich nicht so sagen,wer jetzt nicht verkauft bekommt in 3-4 Monaten keine Mark mehr für die GSX oder Ultra oder auch die alte GTS.
Allerdings gibt es ja jetzt genug Möglichkeiten für kleines Geld den Zeitraum zu überbrücken.

Gast
2008-03-08, 14:27:35
Das ist mir schon bewußt. Ich hab immerhin auch schon eine 7800GTX-512 im Rechner gehabt, die gute 120W verheizt hat. Das tat sie allerdings nur unter Last - im Idle warens vielleicht 30W, wenn überhaupt.
Diese GPU hat mir damals aber auch geboten, was ich wollte: Durch fett Speicherbandbreite auch Leistung in hohen Auflösungen (meine bevorzugte ist 1920x1200). Ich würde ja auch mit der TDP einer 9800GTX zurechtkommen, wenn sie nicht so ein mickriges Speicherinterface hätte...

256bit@860MHz hab ich jetzt bereits, die 7800GTX-512 hatte sogar noch mehr. Über zwei Jahre später dann auf 256bit@1000MHz umzusteigen ist halt nicht soooo der Bringer. Und: es tut wie gesagt weh, wenn man sieht, wie eine G92-GTS, die bei 1280x1024 ohne AA mit einer Ultra gleichauf liegt bei "meiner" Auflösung + AA auf einmal im mittleren, zweistelligen Prozentbereich verliert.
Hohe TDP: Ja, wenn die Leistung (für meine Anforderurugen) stimmt, und wenn im Idle deutlich weniger verbraucht wird. Zumindest eine dieser Bedingungen trifft eben auf G80 und G92 nicht zu...
Würde ich in SXGA spielen, hätt ich eh schon längst einen G92.

Du kannst warten oder auf 1680x1050 zurück gehen da brichte dir auch keinen ab und da reicht die GTS(92)für alles aus.

Johnny Rico
2008-03-08, 14:38:22
Definiere "alles" und bei welchen Ansprüchen. Min. 4xAA 8xAF und volle Details wird hier wohl jeder aktiv haben wollen und da reicht eine 88Ultra occed nicht aus.
Dual GPU fällt eh raus.

Gast
2008-03-08, 18:04:34
was ist das für ein Satz?
4xAA 8xAF und volle Details wird hier wohl jeder aktiv haben wollen und da reicht eine 88Ultra occed nicht aus??????????????
bei was in 30000x20000 oder wie?

weiter im 3. Teil