PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9800 GTX(+): (P)Review-Thread


Seiten : [1] 2

dildo4u
2008-04-01, 15:02:28
Deutsch:

Computerbase Nvidia GeForce 9800 GTX (SLI) Review

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/

hardtecs4u NVIDIA GeForce 9800 GTX Roundup (MSI N9800GTX und Zotac GeForce 9800 GTX

http://www.ht4u.net/reviews/2008/nvidia_geforce_9800gtx/

PCGH-Test: Point-of-View Geforce 9800 GTX mit SLI und 3-Wege-SLI

http://www.pcgameshardware.de/aid,638097/Test/Benchmark/PCGH-Test_Point-of-View_Geforce_9800_GTX_mit_SLI_und_3-Wege-SLI/

Hartware Review

http://www.hartware.de/review_804.html


Englisch:

Anandtech: GeForce 9800 GTX and 3-way SLI: May the nForce Be With You

http://www.anandtech.com/video/showdoc.aspx?i=3275

Rage 3D 9800 GTX and SLI / 3-Way SLI Performance Preview

http://www.rage3d.com/previews/video/nv9800gtx/index.php?p=1

Legionhardware Review

http://www.legionhardware.com/document.php?id=732

Benchmarkreviews ZOTAC GeForce 9800 GTX

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=154&Itemid=1

Firingsquad NVIDIA GeForce 9800 GTX Performance Preview

http://www.firingsquad.com/hardware/nvidia_geforce_9800_gtx_performance_preview/

Guru 3D GeForce 9800 GTX Single/SLI

http://www.guru3d.com/article/Videocards/516/

Hexus.net NVIDIA (BFG) GeForce 9800 GTX Review

http://www.hexus.net/content/item.php?item=12417

Hothardware: 9800GTX BFG, EVGA, Zogis SLI / 3-Way SLI Review

http://www.hothardware.com/Articles/NVIDIA_GeForce_9800_GTX_RoundUp_BFG_EVGA_Zogis/

Driverheaven 9800 GTX/X2 and 3870 Roundup

http://www.driverheaven.net/reviews.php?reviewid=544

Techpowerup Zotac GeForce 9800 GTX Review

http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GTX/


Andere Sprachen:

Hardware.fr 9800GTX Review

http://www.hardware.fr/articles/711-1/test-nvidia-geforce-9800-gtx.html

PR:

Vollständige Produktpräsentation von Nvidia:

http://www.planet3dnow.de/photoplog/index.php?n=2028

PCGH_Carsten
2008-04-01, 15:03:23
PCGH hat's natürlich auch:
http://www.pcgameshardware.de/aid,638097/Test/Benchmark/PCGH-Test_Point-of-View_Geforce_9800_GTX_mit_SLI_und_3-Wege-SLI/

Schlammsau
2008-04-01, 15:07:21
nur 6% schneller als eine 8800GTS 512....ich hau mich wech!!!!!!!! LOL

=Floi=
2008-04-01, 15:09:49
was hast du erwartet? Nebenbei muß man NV für die 8800GTS512 danken!

Sorkalm
2008-04-01, 15:10:12
Autsch, das sieht ja ganz böse aus. Nicht mal die Leistungsaufnahme profitiert.

Die 8800 GTX bleibt klar die bessere Wahl.

Gast
2008-04-01, 15:23:29
http://www.ht4u.net/reviews/2008/nvidia_geforce_9800gtx/

Könntest du die Reviews vielleicht wie bisher üblich nach Deutsch und Englisch sortieren?

Undertaker
2008-04-01, 15:30:55
Tjo, was wollte man erwarten... Zumindest ohne OC ist die Karte absolut überflüssig.

=Floi=
2008-04-01, 15:33:19
von den erhofften 850-900 mhz sehe ich aber leider auch nichts. :confused:

Mills
2008-04-01, 15:41:19
Autsch, das sieht ja ganz böse aus. Nicht mal die Leistungsaufnahme profitiert.

Die 8800 GTX bleibt klar die bessere Wahl.Diese dürfte aber NVIDIA schnellstmöglichst einstellen. Von den Kosten her steht natürlich der 90nm Process chancenlos da. Da werden gebrauchte 8800GTX offenbar noch eine ganze Weile attraktiv bleiben...

Tjo, was wollte man erwarten... Zumindest ohne OC ist die Karte absolut überflüssig.
Für uns ja, für Nvidia natürlich nicht - Kostenersparnis!

pest
2008-04-01, 15:49:53
bei CPUs regt sich auch keiner auf das die nächste Generation nur 8% Leistungsvorsprung bietet, mühsam ernährt sich das Eichhörnchen :D

Schlammsau
2008-04-01, 15:50:25
also wegen 6% mehr Leistung eine neue Karte zu erschaffen ist schon dreist, sie dann aber auch noch in eine Genaration zu stecken ist schon fast unverschämt! Sind die grünen auf DAU fang?
Boa geil mann....hab die neue 9800 GTX mann...die ist zwar nur 6% schneller ist aber ne neue Generation mann...und hatte ne fette 9 im Namen! *rofl*

dildo4u
2008-04-01, 15:53:16
Sind die grünen auf DAU fang?
Ich sag nur 2900 und 3800 Serie da geben sich Beide nicht viel. ;)

Undertaker
2008-04-01, 15:54:16
bei CPUs regt sich auch keiner auf das die nächste Generation nur 8% Leistungsvorsprung bietet, mühsam ernährt sich das Eichhörnchen :D

Dafür gibts da regelmäßig neue Taktstufen ;) Und wenn AMD momentan weniger Probleme hätte, würde Intel wohl auch noch höhere Taktstufen nachschieben...

Auf dem Grafikkartenmarkt haben wir hingegen seit 1,5 Jahren leistungsmäßig quasi Stillstand - und das wird auch noch einige Monate so bleiben...

AnarchX
2008-04-01, 15:55:04
Es ist nunmal keine 500-600€ GTX, sondern eine 250-300€ GTX.;)

Popeljoe
2008-04-01, 15:55:04
was hast du erwartet? Nebenbei muß man NV für die 8800GTS512 danken!
Nee: bedankt euch bei ATI für 3870, denn ohne die Karte wäre die GTS auch nicht gelauncht worden! ;)

Ich sag nur 2900 und 3800 Serie da geben sich Beide nicht viel. ;)
??? Nur der Stromverbrauch ist ein klein wenig niedriger geworden...

deekey777
2008-04-01, 15:55:15
bei CPUs regt sich auch keiner auf das die nächste Generation nur 8% Leistungsvorsprung bietet, mühsam ernährt sich das Eichhörnchen :D
Wenn man Intel als Beispiel nimmt und sich den Übergang von Conroe zu Penryn anschaut, wird deutlich, dass du den ersten April schon feierst.
Ich sag nur 2900 und 3800 Serie da geben sich Beide nicht viel. ;)
Du feierst den ersten April auch?

Im Ernst: Die 9800GTX erscheint auf den ersten Blick wie fünftes Rad am Wagen. Abgesehen von ihrer Größe würde ich sagen, dass die 9800GTX eigentlich die Grafikkarte ist, wie ein G92-Derivat sein sollte. Die 8800GT/GTS waren nur notwendige Ausrutscher.

dildo4u
2008-04-01, 16:01:01
??? Nur der Stromverbrauch ist ein klein wenig niedriger geworden...
Ein Grund die Karten 3xxx Serie zu nennen?Wenn kaum Mherleistung vorhanden ist und DX10.1 auch schon von der 2900 unterstützt wurde?Naja Beides sind halt nur Shrinks der alten Generation.

Undertaker
2008-04-01, 16:04:19
Kann es übrigens sein, dass man an der Vram-Problematik gearbeitet hat? Selbst mit SLI gibt es keine kaum noch größere Einbrüche...

puntarenas
2008-04-01, 16:16:50
Ich kopiers mal aus dem Spekulationsthread hier rein, der dürfte ja nun Geschichte sein:

Once the PCB received a good cleaning, the 9800 GTX began to look a lot more respectable. Solid state capacitors and ferrite core chokes were surface mounted in the same fashion as we see Gig abyte tout in their Ultra Durable 2 design.
Quelle: benchmarkreviews.com (http://benchmarkreviews.com/index.php?option=com_content&task=view&id=154&Itemid=72&limit=1&limitstart=5)

Für mich als Laien heißt das, lange Lebensdauer und nie wieder Spulenpfeifen. Kann das ein Elektronik-Guru bestätigen oder gibt es das Phänomen auch bei dieser Art von Bauteilen?

Sollte das Pfeifen tatsächlich der Vergangenheit angehören, fände ich die Karte in Ordnung und würde mir eine holen, wäre da nicht der laute Lüfter. Okay, dafür läuft die Karte kühler als eine 8800GTS und wer will kann ihn ja mit Rivatuner begrenzen.

Edit:
Fast hätte ich das Meckern vergessen. Gewartet habe ich ja ausschließlich auf Gewissheit, ob ein Idle-Modus integriert wurde. Ganz schwache Leistung Nvidia. :mad:

Coda
2008-04-01, 16:21:19
Wenn kaum Mherleistung vorhanden ist und DX10.1 auch schon von der 2900 unterstützt wurde?
Wird es doch gar nicht.

Die gelbe Eule
2008-04-01, 16:24:04
Interessant wie gering das Interesse an der Karte ist, nachdem sie auf den Markt kam.

deekey777
2008-04-01, 16:25:44
Interessant wie gering das Interesse an der Karte ist, nachdem sie auf den Markt kam.
Es fehlt (noch) die 9800GTX 1024.

reunion
2008-04-01, 16:31:23
nur 6% schneller als eine 8800GTS 512....ich hau mich wech!!!!!!!! LOL

Vorallem ist die 8800GTS wohl klar die bessere Wahl: Bedeutend kürzere Platine, fast 30W weniger Stromverbrauch, deutlich leiserer Kühler und erheblich billiger. Die 6% mehr Leistung sind ein Witz für das gebotene im Vergleich zur 8800GTS512. Und das Ding dann 9800GTX zu nennen setzt dem ganzen die krone auf.

Schlammsau
2008-04-01, 16:33:44
erstens.....DX10.1 wird nicht von der 2900XT unterstützt, zweitens ist der Stromverbrauch immens gesunken und drittens ist die 3870 schon am Launchtag viel billiger als die 2900XT gewesen!

Die gelbe Eule
2008-04-01, 16:34:27
Es fehlt (noch) die 9800GTX 1024.

Von der man aber nichts sehen kann. Vielleicht weiß man um das Potential mit mehr RAM, was die GX2 gefährden könnte.

Gast
2008-04-01, 16:37:38
Ich sag nur 2900 und 3800 Serie da geben sich Beide nicht viel. ;)

Die 38er sollte ja auch nicht die 29er ablösen, sondern die 2600 XT (steht doch auch in der Roadmap von AA).



@9800Gtx :rolleyes:

dildo4u
2008-04-01, 16:37:41
ist die 3870 schon am Launchtag viel billiger als die 2900XT gewesen!
Die 9800GTX ist auch ca 250€ billiger als die 8800GTX am Launchtag. ;)

Cubitus
2008-04-01, 16:38:13
sehr schön, nvidia tut den 8800GTX Besitzern wahrlich einen Gefallen.
Die 8800GTX ist und bleibt ein Meisterwerk ^^

LovesuckZ
2008-04-01, 16:43:57
sehr schön, nvidia tut den 8800GTX Besitzern wahrlich einen Gefallen.
Die 8800GTX ist und bleibt ein Meisterwerk ^^

Nicht wirklich. Der Wert der 8800GTX ist innerhalb von zwei Monaten auf die Hälfte halbiert wurden.

dargo
2008-04-01, 16:45:54
Interessant wie gering das Interesse an der Karte ist, nachdem sie auf den Markt kam.
Wundert dich das? Wenn man eine G8800GTS 512 heute für 180€ bekommt dürfte die G9800GTX 512 kaum mehr als 200€ kosten. Ich frage mich gerade auch wie dämlich NV eigendlich ist. Da bietet man mit der G9800GTX die Möglichkeit Triple-SLI zu betreiben und dann liefert man eine Karte mit 512MB Vram. :ucrazy:

Ich habe gerade mit A.Wesker (danke nochmal für den Vergleich) einen Crysis-Test gestartet. Ich komme in 1280x1024 4xMSAA/16xAF und High Details mit meiner G8800GTS 640 @standard auf 21 avg.fps, A.Wesker mit seiner G8800GTS 512 @901/2212/1250Mhz auf 34 avg.fps.

Das ist doch ein schlechter Witz oder? Man brauchst beim G92 ca. 1,1Ghz am Coretakt und natürlich entsprechende Bandbreite um eine G80GTS um 100% zu überbieten. :ugly:

G92@901/2212/1250Mhz = ~G8800Ultra (zumindest in Crysis)

Cubitus
2008-04-01, 16:46:11
Nicht wirklich. Der Wert der 8800GTX ist innerhalb von zwei Monaten auf die Hälfte halbiert wurden.

naja aber für eine fast zwei Jahre alte Karte doch nicht ungewöhnlich :)
Zumindest braucht man sich als GTX Besitzer bis zum GT200 keine großen Gedanken machen

LovesuckZ
2008-04-01, 16:48:00
Das hätte man so oder so nicht. Fakt ist, dass der Preis einer Grafikkarte sich mehr als halbiert hat in den letzten Monaten. Und das geheule umso größer wird, wenn man für doppelte Leistung bald wieder mehr als 500€ ausgeben muss.

MadManniMan
2008-04-01, 17:00:20
Für 200% 8800 GTX Leistung hätte sicher niemand über 500 €uro geheult.

Und ach: für den Preis ist die 9800 GTX fast in Ordnung, zumal sich dieser einpegeln wird, aber irgendwas in mir regt sich darüber auf, dass die 9800 GTX nichtmal durchgängig so schnell wie die 8800 GTX ist - viel mehr ist mal die eine, mal die andere schneller. Und das sollte wirklich nicht sein.

dargo
2008-04-01, 17:01:33
Für 200% 8800 GTX Leistung hätte sicher niemand über 500 €uro geheult.
Korrekt!

Moralelastix
2008-04-01, 17:09:09
Mir bangt schon um den Nachfolger. Vielleicht wird das auch so ein Leistungs Flop.
:|

puntarenas
2008-04-01, 17:11:44
Mir bangt schon um den Nachfolger. Vielleicht wird das auch so ein Leistungs Flop.
:|
Was die Verlustleistung angeht bestimmt nicht :D

Wo ist denn jetzt eigentlich die Bandbreitenlimitierung des G92 geblieben, besonders deutlich schlagen die gut 10% mehr Speicherbandbreite ja nicht gerade durch wie es aussieht :confused:

Das Auge
2008-04-01, 17:11:57
Nach der GX2 die nächste höchst überflüssige Karte. Es ist so langweilig geworden...

dargo
2008-04-01, 17:15:05
Wo ist denn jetzt eigentlich die Bandbreitenlimitierung des G92 geblieben, besonders deutlich schlagen die gut 10% mehr Speicherbandbreite ja nicht gerade durch wie es aussieht :confused:
Wie oft muss man denn noch sagen, dass der G92 nicht bandbreitenlimitiert ist? :|

Coda
2008-04-01, 17:16:56
Mir bangt schon um den Nachfolger. Vielleicht wird das auch so ein Leistungs Flop.
:|
Da brauchst du dir keine Sorgen machen. GT200 wird vorraussichtlich wieder ein Monster.

Wie oft muss man denn noch sagen, dass der G92 nicht bandbreitenlimitiert ist? :|
In 2560x1600 ja wohl schon, wie erklärst du dir sonst die Ergebnisse?

LovesuckZ
2008-04-01, 17:17:53
Für 200% 8800 GTX Leistung hätte sicher niemand über 500 €uro geheult.


Türlich. Hier wurde geheult, als die 8800GTX nach 8 Monaten noch über 450€ kostete.
Und es wird in ZUkunft noch stärker geheult, wenn man für doppelte Leistung fast den dreifachen Preis - inkl. Stromverbrauch und Lautstärke - bezahlen muss.
Die, die jetzt wieder High End haben wollen, sind doch gleichzeitig diejenigen, die es sich nie zum Start kaufen würden. Leute wie Dargo, die wollen, wollen, wollen. Aber wenn es dann zum Kaufen gibt, heulen sie rum, wie teuer es wäre.
Das hatten wir alles schon und das wird alles wieder kommen.

AnarchX
2008-04-01, 17:18:22
Das ist doch ein schlechter Witz oder? Man brauchst beim G92 ca. 1,1Ghz am Coretakt und natürlich entsprechende Bandbreite um eine G80GTS um 100% zu überbieten. :ugly:

Wenn die ROPs bzw. die Z-Fill fast vollständig limitieren würde, dann bräuchte es sogar >1.2GHz, um deine gewünschten 100% zu erzielen.;)

dargo
2008-04-01, 17:20:06
In 2560x1600 ja wohl schon, wie erklärst du dir sonst die Ergebnisse?
Naja, ich spreche eher von 1280x1024 4xAA. Für deine Dimensionen war der G92 kaum gedacht. :)

Edit:
Auf welchen Test bzw. welche Games beziehst du dich eigendlich?

Coda
2008-04-01, 17:26:50
Erm 9800GTX sollte eigentlich High-End sein und da ist min. 1600x1200 Pflicht.

MadManniMan
2008-04-01, 17:28:35
Türlich. Hier wurde geheult, als die 8800GTX nach 8 Monaten noch über 450€ kostete.

Ja, weil die Kartenpreise nicht wie üblich gealtert sind. Laut Moore haben wir eine Leistungsverdopplung oder Preishalbierung alle 18 Monate - und das haben wir auch jetzt wieder, nur hat sich eben bis zum Erscheinen der 8800 GT verdammt wenig getan.

dargo
2008-04-01, 17:28:43
Erm 9800GTX sollte eigentlich High-End sein und da ist min. 1600x1200 Pflicht.
Beantworte bitte mein Edit. :)

PS: wie High-End die G9800GTX ist siehst du ja bei Crysis. *hust*

Coda
2008-04-01, 17:29:19
Computerbase Gesamtbetrachtung

Ich sag ja auch dass es High-End sein sollte.

Gast
2008-04-01, 17:32:14
Erm 9800GTX sollte eigentlich High-End sein
Wie kommst du darauf?
Unter 300€ ist unteres High-End.

Die echte High-End Karte ist die GX2. :(

Undertaker
2008-04-01, 17:33:32
Erm 9800GTX sollte eigentlich High-End sein und da ist min. 1600x1200 Pflicht.

Bis auf Crysis ist das eigentlich auch in jedem Game drin (ein paar mäßig optimierte DX10 Spiele ausgenommen)

LovesuckZ
2008-04-01, 17:33:36
Ja, weil die Kartenpreise nicht wie üblich gealtert sind. Laut Moore haben wir eine Leistungsverdopplung oder Preishalbierung alle 18 Monate - und das haben wir auch jetzt wieder, nur hat sich eben bis zum Erscheinen der 8800 GT verdammt wenig getan.

Hä? Kartenpreise orientieren sich an dem, was der Markt hergibt. 450€ - ja selbst 600€ - waren im Bereich von mehr als fair bis vollkommen in Ordnung.
Aber es wurde weiterhin geheult. Jetzt ist Leistung einer 8800GTX nicht nur für jederman erschwinglich - nein, kann sich sogar fast vier Karten mit der Leistung zum Launchpreis kaufen.
Und plötzlich heult die selbe Fraktion, dass es nicht mehr Leistung gäbe. Ich erwarte also von diesen Leuten, dass sie sich die nächste Verdopplung bitte zum Launch kaufen. Alles andere wäre sonst wirklich peinlich.
Und durch den Preiskampf wird eben soviel wie möglich ausgequetscht. Das ist eben das Problem von billigeren Preisen: Man muss mehr absetzen.

dargo
2008-04-01, 17:54:20
Hä? Kartenpreise orientieren sich an dem, was der Markt hergibt. 450€ - ja selbst 600€ - waren im Bereich von mehr als fair bis vollkommen in Ordnung.
Aber es wurde weiterhin geheult. Jetzt ist Leistung einer 8800GTX nicht nur für jederman erschwinglich - nein, kann sich sogar fast vier Karten mit der Leistung zum Launchpreis kaufen.

Du schnallst es nicht oder? Viele wollen heute die gleiche Wucht bekommen wie damals Ende 2006 und nicht nur einen gleich schnellen, neuen Aufguss. Dann sind die Leute auch bereit mehr als die 180€ für eine GTS zu bezahlen.

Und wo ich die fast vierfache Leistung einer G8800GTX für den gleichen Preis wie damals eine G8800GTX bekommen kann musst du mir mal zeigen. Nur mach dich jetzt nicht mit Quad-SLI lächerlich.

puntarenas
2008-04-01, 17:59:25
Noch ein Review für die Liste:
http://www.hartware.de/review_804.html

mapel110
2008-04-01, 18:02:33
Deutsch:

Computerbase Nvidia GeForce 9800 GTX (SLI) Review

Das Review taugt gut als Treibervergleich. Von 174.16 auf 174.53 hat sich offenbar unter Vista64 nichts, aber auch gar nichts in Sachen Performance getan. O_o

/edit
Hm, Abstürze bei Lost Planet, aber auch bei der Radeon-Serie in 2500er Auflösung mit AA. 768 MB Karten stürzen nicht ab. Schade, dass sie immernoch keine 1024MB-Karte im Test haben.

dargo
2008-04-01, 18:09:09
Karten scheinen nun gut lieferbar zu sein:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+9800GTX+&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

Ich halte die ~200€ in ca. 4 Wochen für durchaus möglich.

mapel110
2008-04-01, 18:10:56
Ich halte die ~200€ in ca. 4 Wochen für durchaus möglich.
Na bissl drüber wird sie schon sein. Schneller als die GTS ist sie ja. :ugly:

dargo
2008-04-01, 18:12:13
Na bissl drüber wird sie schon sein. Schneller als die GTS ist sie ja. :ugly:
Die GTS erwarte ich bald bei ca. 165-170€.

LovesuckZ
2008-04-01, 18:12:47
Du schnallst es nicht oder? Viele wollen heute die gleiche Wucht bekommen wie damals Ende 2006 und nicht nur einen gleich schnellen, neuen Aufguss. Dann sind die Leute auch bereit mehr als die 180€ für eine GTS zu bezahlen.

Aber nicht mehr als 400€. So wie du. Ich habe für die 8800GTX 600€ am Launchtag bezahlt. Und die Karte war jeden Cent wert. Du würdest es bei verdoppelt Leistung zur 8800GTX nicht machen.
Du willst eine Leistungsverdopplung wie im November'06, aber Preise wie im Spätsommer '07. Statt nur zu heulen, sollte man auch handeln. Und das wäre ein Launchkauf zu Preisen über 500€. Alles andere lässt dich - bzw. diese Personengruppe - in einem sehr schlechten Licht erscheinen.


Und wo ich die fast vierfache Leistung einer G8800GTX für den gleichen Preis wie damals eine G8800GTX bekommen kann musst du mir mal zeigen. Nur mach dich jetzt nicht mit Quad-SLI lächerlich.

Es geht nicht um die Leistung, sondern um die Analogie. 4x 8800GT kosten genauso viel wie eine 8800GTX im November 06. Man erhält heutzutage für so wenig Geld soviel Leistung - dies gab es noch nie.

Gast
2008-04-01, 18:13:17
Naja, ich spreche eher von 1280x1024 4xAA. Für deine Dimensionen war der G92 kaum gedacht. :)

Edit:
Auf welchen Test bzw. welche Games beziehst du dich eigendlich?


Naja, warum bietet man eine 9800GTX dann als Triple SLI Lösung an, natürlich ist der G92 limitiert, zumindest im Vergleich zu der alten GTX/Ultra.

Ab 1600x1200 8xAA, ist es im Vergleich zu einer GTX deutlich sichtbar, ob es ausschlieslich der kleiner Vram ist, oder auch auf das kleinere SI zurückzuführen ist, sollen Andere beurteilen.

Jedenfalls ist das für mich keine Basis für ein SLI, oder Triple SLI, da fährt man mit einem preiswerteren 8800GTX SLI immer noch besser.

Als Single GPU ist das ja noch OK, aber nicht als Basis für ein SLI.

http://s7.directupload.net/images/080401/tvsbgxr5.jpg (http://www.directupload.net)

Gast
2008-04-01, 18:14:56
Und wo ich die fast vierfache Leistung einer G8800GTX für den gleichen Preis wie damals eine G8800GTX bekommen kann musst du mir mal zeigen. Nur mach dich jetzt nicht mit Quad-SLI lächerlich.
Wo steht hier etwas von vierfacher Leistung?
Die GX2 ist ein würdiger Nachfolger, die Balken sprechen für sich. Mehr als den längsten Balken bracht NV auch nicht.

Hier wird immer die Schuld zu NV geschoben, aber guckt doch mal zu AMD.
Wo ist der 8800GTX Gegner? Bis heute, 1,5Jahre nach Release gibt es kein AMD Gegenstück. Von der Ultra gar nicht zu reden.

dargo
2008-04-01, 18:23:36
Aber nicht mehr als 400€. So wie du. Ich habe für die 8800GTX 600€ am Launchtag bezahlt. Und die Karte war jeden Cent wert. Du würdest es bei verdoppelt Leistung zur 8800GTX nicht machen.

Nein, das würde ich nicht machen. Aus einem einfachen Grund - doppelte G80GTS-Leistung reicht mir erstmal. Doppelte GTX-Leistung bedeutet ~dreifache GTS-Leistung.


Du willst eine Leistungsverdopplung wie im November'06, aber Preise wie im Spätsommer. Statt nur zu heulen, sollte man auch handeln. Und das wäre ein Launchkauf zu Preisen über 500€. Alles andere lässt dich - bzw. diese Personengruppe - in einem sehr schlechten Licht erscheinen.

Du kapierst es immer noch nicht. Ich schiebe Shops nicht mein Geld beim Launch in den Rachen. Ich kenne die UVPs beim Launch und daraus ergibt sich nunmal ein Straßenpreis den ich bereit bin zu bezahlen. Bei einer UVP von 599$ bin ich doch nicht so behämmert und lege 600€ (oder gar noch mehr) auf den Tisch. Die UVP einer G9800GX2 beträgt immer noch 599$, der Straßenpreis liegt bei ~420€. Das wäre in etwa das was ich bereit wäre für ein High-End auf den Tisch zu legen, eben ~400€. Aber wohlgemerkt für eine Single-GPU-Grafikkarte.


4x 8800GT kosten genauso viel wie eine 8800GTX im November 06. Man heutzutage für so wenig soviel Leistung - dies gab es noch nie.
Mit 4 GTs kann ich leider nichts anfangen im Gegensatz zur einer Single-GPU-Graka mit der vierfachen Leistung einer GT.

Schlammsau
2008-04-01, 18:24:32
Hier wird immer die Schuld zu NV geschoben, aber guckt doch mal zu AMD.
Wo ist der 8800GTX Gegner? Bis heute, 1,5Jahre nach Release gibt es kein AMD Gegenstück. Von der Ultra gar nicht zu reden.

Was ist mit der 3870 X2 und der im nächsten Monat kommenden 3850 X2?

dargo
2008-04-01, 18:28:09
Naja, warum bietet man eine 9800GTX dann als Triple SLI Lösung an, natürlich ist der G92 limitiert, zumindest im Vergleich zu der alten GTX/Ultra.

Ab 1600x1200 8xAA, ist es im Vergleich zu einer GTX deutlich sichtbar, ob es ausschlieslich der kleiner Vram ist, oder auch auf das kleinere SI zurückzuführen ist, sollen Andere beurteilen.

Jedenfalls ist das für mich keine Basis für ein SLI, oder Triple SLI, da fährt man mit einem preiswerteren 8800GTX SLI immer noch besser.

Als Single GPU ist das ja noch OK, aber nicht als Basis für ein SLI.

http://s7.directupload.net/images/080401/tvsbgxr5.jpg (http://www.directupload.net)
Bei 8xAA in dieser Auflösung sind die 512MB Vram einfach zu wenig. Aber 8xMSAA bei NV ist so eine Sache.

LovesuckZ
2008-04-01, 18:29:07
Nein, das würde ich nicht machen. Aus einem einfachen Grund - doppelte G80GTS-Leistung reicht mir erstmal. Doppelte GTX-Leistung bedeutet ~dreifache GTS-Leistung.

Doppelte GTS Leistung? Das wäre 33% schneller als eine 8800GTX. Dafür würdest du 400€ ausgeben? In Zeiten, wo man für eine 8800GTS-512 unter 200€ erhält? Sry, das bezweifel ich.


Du kapierst es immer noch nicht. Ich schiebe Shops nicht mein Geld beim Launch in den Rachen. Ich kenne die UVPs beim Launch und daraus ergibt sich nunmal ein Straßenpreis den ich bereit bin zu bezahlen. Bei einer UVP von 599$ bin ich doch nicht so behämmert und lege 600€ (oder gar noch mehr) auf den Tisch. Die UVP einer G9800GX2 beträgt immer noch 599$, der Straßenpreis liegt bei ~420€. Das wäre in etwa das was ich bereit wäre für ein High-End auf den Tisch zu legen, eben ~400€. Aber wohlgemerkt für eine Single-GPU-Grafikkarte.

Du hast dir auch im Spätsommer keine 8800GTX für 450€ gekauft. Du hast 300€ für eine GTS ausgegeben, deren Leistungsvorsprung nicht annährend zur 8800GTX stand. Wenn du also schon argumentieren willst, dann bitte nicht mit Leistungssprüngen einer 8800GTX - wenn du dir dann sowieso nur die GTS Version kaufen würdest. Das ist unlogisch.


Mit 4 GTs kann ich leider nichts anfangen im Gegensatz zur einer Single-GPU-Graka mit der vierfachen Leistung einer GT.

Schade, du hast die Analogie nicht verstanden. :rolleyes:

Gast
2008-04-01, 18:31:14
Naja mit einem 8800GTX oder Ultra SLI ist das kein Problem, da gehen auch ganz andere AA Einstellungen (nHancer 4 the Win).

Als Single Karte ist es ja auch anders zu beurteilen.
Für ein SLI oder Triple SLI, ist eine 9800GTX Lösung, sehr eingeschränkt.

dargo
2008-04-01, 18:37:40
Doppelte GTS Leistung? Das wäre 33% schneller als eine 8800GTX. Dafür würdest du 400€ ausgeben? In Zeiten, wo man für eine 8800GTS-512 unter 200€ erhält? Sry, das bezweifel ich.

1. Eine G92GTS ist nur 40% schneller in dem Game wo ich (deutlich) mehr Leistung benötige.
2. Eine Graka mit doppelter G80GTS Leistung muss bei mir schon 1GB Vram haben was den Endpreis erhöht.

Den Rest kannst du dir ausrechnen.


Du hast dir auch im Spätsommer keine 8800GTX für 450€ gekauft. Du hast 300€ für eine GTS ausgegeben, deren Leistungsvorsprung nicht annährend zur 8800GTX stand. Wenn du also schon argumentieren willst, dann bitte nicht mit Leistungssprüngen einer 8800GTX - wenn du dir dann sowieso nur die GTS Version kaufen würdest. Das ist unlogisch.

Hatte ich schon mal mein NT(-Problem) einmal erwähnt? :rolleyes:


Die GX2 ist ein würdiger Nachfolger, die Balken sprechen für sich. Mehr als den längsten Balken bracht NV auch nicht.

NV vielleicht nicht, der Kunde (in diesem Fall ich) schon. Von Fake-FPS halte ich wenig.


Hier wird immer die Schuld zu NV geschoben, aber guckt doch mal zu AMD.
Wo ist der 8800GTX Gegner? Bis heute, 1,5Jahre nach Release gibt es kein AMD Gegenstück. Von der Ultra gar nicht zu reden.
Habe ich irgendwo in dieser Hinsicht AMD/ATI gelobt?

Gast
2008-04-01, 18:52:11
Was ist mit der 3870 X2 und der im nächsten Monat kommenden 3850 X2?
Lass es sein. Multi GPU Karten sind Krücken. Ich meine echte Gegner, keine Papiergegner.



NV vielleicht nicht, der Kunde (in diesem Fall ich) schon. Von Fake-FPS halte ich wenig.
Das ist wohl das Problem.
NV will Geld verdienen, mehr nicht.

Das die Preise nebenbei ihm Rahmen sind ist doch voll ok.
Es fehlt nur eine aktuelle würdige High-End Karte, zum High-End Preis.

LovesuckZ
2008-04-01, 18:52:31
1. Eine G92GTS ist nur 40% schneller in dem Game wo ich (deutlich) mehr Leistung benötige.

Ach und 80% Mehrleistung zur 9600GT für einen dreifachen Preis sind in Ordnung? ;D


2. Eine Graka mit doppelter G80GTS Leistung muss bei mir schon 1GB Vram haben was den Endpreis erhöht.

Deine GTS wird keine 1GB haben.


Hatte ich schon mal mein NT(-Problem) einmal erwähnt? :rolleyes:

Schlechte Ausrede. Wirklich.

Gast
2008-04-01, 18:53:51
Hatte ich schon mal mein NT(-Problem) einmal erwähnt? :rolleyes:

Das ist dein Problem, nicht das von NV oder anderen Käufern.

dargo
2008-04-01, 18:57:24
Es fehlt nur eine aktuelle würdige High-End Karte, zum High-End Preis.
Richtig, es fehlt einfach was im Bereich von 350-400€ und 450-500€ mit entsprechender Leistung.

Das ist dein Problem, nicht das von NV oder anderen Käufern.
Ach was, erzähl mir was Neues. ;)

Kurz zur Erklärung - ich habe es nicht eingesehen mir ein 500W Seasonic NT wegen +45-50% mehr Leistung (GTS --> GTX) anzuschaffen. Bei GTS --> GT200GT(?) mit min. +100% mehr Leistung sehe ich erst den Sinn ein stärkeres NT zu kaufen.

Gast
2008-04-01, 19:11:17
Richtig, es fehlt einfach was im Bereich von 350-400€ und 450-500€ mit entsprechender Leistung.


Ach was, erzähl mir was Neues. ;)

Kurz zur Erklärung - ich habe es nicht eingesehen mir ein 500W Seasonic NT wegen +45-50% mehr Leistung (GTS --> GTX) anzuschaffen. Bei GTS --> GT200GT(?) mit min. +100% mehr Leistung sehe ich erst den Sinn ein stärkeres NT zu kaufen.
unfug die gtx hätte auch 100% leistungszuwachs erbracht im vergleich zu deiner vorgänger karte.....

fazit du laberst rum und wirst dir sicher beim erscheinen des "gt200" ne neue ausrede einfallen lasen

dargo
2008-04-01, 19:22:38
unfug die gtx hätte auch 100% leistungszuwachs erbracht im vergleich zu deiner vorgänger karte.....

Das NT ist schon deutlich länger im Rechner als die GTS. ;)

Gast
2008-04-01, 19:29:15
Das NT ist schon deutlich länger im Rechner als die GTS. ;)
omg
ändert aber nix daran das es trotzdem den leistungszuwachs erbracht hätte!
deine eigene aussage ist doch bei 100% leistungszuwachs würdest du es machen (hätest es eingesehen).
dies war schon zu der zeit gegeben wo du die gts gekauft hast und nicht die gtx wegen dem nt...

aber wie ich schon schrieb bis dahin wirst du dir ne andere ausrede suchen

dargo
2008-04-01, 19:44:22
aber wie ich schon schrieb bis dahin wirst du dir ne andere ausrede suchen
LovesuckZ, wenn du flamen willst kannst dich ruhig anmelden. ;)
Übrigens - mit der OC GTS hatte ich meine +100% zur Vorgängerkarte ohne mir ein neues NT kaufen zu müssen. ;)

Jetzt wirds aber zuviel OT.

Gast
2008-04-01, 19:49:36
Was ist mit der 3870 X2 und der im nächsten Monat kommenden 3850 X2?

Keine Konkurrenz...

LovesuckZ
2008-04-01, 19:55:25
LovesuckZ, wenn du flamen willst kannst dich ruhig anmelden. ;)


Mache ich doch. :confused:

Schlammsau
2008-04-01, 20:06:26
Keine Konkurrenz...

2- oder Mehrchiplösungen sind genauso gute Graka´s.
Wenn die Chipschmieden ihr versprechen halten wird es auch in absehbarer Zeit eine Lösung für die Mikroruckler geben! Bin da recht zuversichtlich. Oder vielleicht auch naiv! :cool:

Gast
2008-04-01, 20:13:09
2- oder Mehrchiplösungen sind genauso gute Graka´s.
Wenn die Chipschmieden ihr versprechen halten wird es auch in absehbarer Zeit eine Lösung für die Mikroruckler geben! Bin da recht zuversichtlich. Oder vielleicht auch naiv! :cool:

Bei Ati nicht...die Treiber sind schrott

Gast
2008-04-01, 20:21:11
2- oder Mehrchiplösungen sind genauso gute Graka´s.
Nein.
Bei AMD gleich doppelt nein. Nicht mal Profile gibts, entweder CF läuft oder nicht, null einfluss hat der User. Oh doch er kann die exe umbennen, moment sind wir noch im Mittelalter?



Wenn die Chipschmieden ihr versprechen halten wird es auch in absehbarer Zeit eine Lösung für die Mikroruckler geben! Bin da recht zuversichtlich. Oder vielleicht auch naiv! :cool:
Oh ja. Mit der nächsten Generation vielleicht. Die schieben doch nichts heimlich nach, was heute nicht ist, wird nicht morgen plötzlich heimlich per Treiber nachgereicht.
Die Marketingleute mussten nur die Fragenden vertrösten.

MadManniMan
2008-04-01, 20:28:51
Mein Gott LS - Du willst doch wettern.
Wäre die Situation umgekehrt, also AMD in der Position von nV, dann hättest Du vollstes Verständnis oder würdest gar nicht in diesem Unterhaltungsstrang mitreden.

MSABK
2008-04-01, 20:30:16
Würde die 9800 GTX Kühler abdeckung auf die 8800 GTX passen?

LovesuckZ
2008-04-01, 20:41:49
Mein Gott LS - Du willst doch wettern.
Wäre die Situation umgekehrt, also AMD in der Position von nV, dann hättest Du vollstes Verständnis oder würdest gar nicht in diesem Unterhaltungsstrang mitreden.

Äh, was? :confused:

Sorkalm
2008-04-01, 21:14:44
Vollständige Produktpräsentation von Nvidia:
http://www.planet3dnow.de/photoplog/index.php?n=2028

Gast
2008-04-01, 21:47:18
Würde die 9800 GTX Kühler abdeckung auf die 8800 GTX passen?
Hä?
Natürlich nicht. Anderes Platinenlayout.

Gast
2008-04-02, 00:14:37
Hat eigentlich eine Testseite ausprobiert, ob der Takt wieder am PCIe-Takt hängt wie bei der 9600GT?

puntarenas
2008-04-02, 00:35:21
Wie oft muss man denn noch sagen, dass der G92 nicht bandbreitenlimitiert ist? :|

Okay, ich dachte bisher, die Karten seinen nicht ausschließlich bandreitenlimitiert, litten aber doch ein wenig an der geringeren Banbreite im Vergleich zur 8800GTX. Mir war nicht bewusst, dass dies in solcher Schärfe und Bestimmtheit geklärt ist

Baut Nvidia wirklich rein als Marketinggag teuren 0,8ns-RAM auf die Karten und erschwert damit auch 1024MB-Varianten? Ich dachte eigentlich, die Wahrheit liege irgendwo dazwischen und deshalb habe ich mir die Frage gestattet, warum die erhöhte Bandbreite derart wenig durchzuschlagen scheint.

Verwirrend finde ich die Karten ohnehin, mir will einfach nicht in den Kopf, wofür die beeindruckende Stromversorgungsmaschinerie auf der extrem langen Platine gut sein soll :confused:

Gast
2008-04-02, 00:47:47
Baut Nvidia wirklich rein als Marketinggag teuren 0,83ns-RAM auf die Karten und erschwert damit auch 1024MB-Varianten?
Gibt es denn überhaupt etwas zwischen 1ns und 8,83ns?
Die 8800Ultra mit ihren 1080Mhz hat auch schon teuren 0,83ns RAM bekommen.

puntarenas
2008-04-02, 02:08:40
Hat eigentlich eine Testseite ausprobiert, ob der Takt wieder am PCIe-Takt hängt wie bei der 9600GT?

techPowerUp schreibt:
Just like all other GeForce 9 cards, the 9800 GTX also uses the "core clock derived from PCIE clock" feature as described here (http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html).Quelle: techpowerup.com (http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GTX/24.html)

AnarchX
2008-04-02, 08:56:06
Die PCGH-Qualitätsoffensive - Geforce im FSAA-Shootout: 9800 vs. 8800 GTX (http://www.pcgameshardware.de/aid,638103/Geforce_im_FSAA-Shootout_9800_vs_8800_GTX/)

Interessanter Test von Raff. :up:

Gast
2008-04-02, 09:25:03
super also hat sich leistungsmäßig seit ende 2006 wirklich nichts aber auch rein garnichts getan, da hol ich mir lieber für 190-200€ ne gebrauchte 8800gtx.

spiele nur in 1680*1050 mit 4xaa/16xaf

Gast
2008-04-02, 09:56:34
hast du raffs test gelesen,du wiedersprichst dir in zwei sätzen 2x.

Mr. Lolman
2008-04-02, 10:06:52
- 8x FSAA (8x Sparse Grid Multisampling, im Treiber anwählbar)

Ich dachte, das wär 4xAA mit 8 Coverage Samples.

Gast
2008-04-02, 10:09:49
klar hab ich seinen test gelesen, die 8800gtx nicht übertaktet ist zumindest bei den minfps immer schneller als die 9800gtx

Iceman346
2008-04-02, 10:16:22
Ich dachte, das wär 4xAA mit 8 Coverage Samples.

Jupp, 8xQ ist "richtiges" 8x Multisampling.

PCGH_Raffael
2008-04-02, 10:52:05
Ich dachte, das wär 4xAA mit 8 Coverage Samples.

"8x FSAA" steht in der PCGH grunsätzlich für "echtes" 8x SGMSAA. Aber du hast Recht, die Bezeichnung ist etwas irreführend, denn die anderen Modi wurden schließlich auch korrekt benannt.

MfG,
Raff

pest
2008-04-02, 10:55:31
wenn die Bandbreite nicht limitiert und die ROPs auch nicht, was denn dann?
Bei meiner 8800GT macht die Erhöhung des Speichertaktes zumindest das Meiste aus.

Gast
2008-04-02, 10:59:57
Na die ROPs limitieren!

pest
2008-04-02, 11:07:30
warum bringen dann die 900MHz Coretakt von A.Wesker's 8800GTS nicht besonders viel?

DrumDub
2008-04-02, 12:19:59
Bei meiner 8800GT macht die Erhöhung des Speichertaktes zumindest das Meiste aus. mit was für einstellungen?

Gast
2008-04-02, 12:23:39
@pest
Auf welchen Thread beziehst du dich?

Denkt dran, die 8800GTX hat 24ROPs, die G92 GTS/GTX nur 16ROPs.
Nicht zu vergessen die Bandbreite des SI.

@PCGH Außerdem, sehe ich da, dass die 8800GTX mit der 169FW getestet wurde? Steht zumindest in den GPU-Z Bildern ;)

pest
2008-04-02, 12:30:41
habs mit der Crysis-Demo in 1280x1024 ohne AA/AF getestet

Gast
2008-04-02, 12:35:29
warum bringen dann die 900MHz Coretakt von A.Wesker's 8800GTS nicht besonders viel?
?
er soll mal mit dem normalen coretakt testen!
Und der ram 3 FPS das sit höllisch viel,echt.

Gast
2008-04-02, 12:37:36
wenn die Bandbreite nicht limitiert und die ROPs auch nicht, was denn dann?
Bei meiner 8800GT macht die Erhöhung des Speichertaktes zumindest das Meiste aus.
im leben nicht!
Stell den core auf normal und den Speicher hoch dann sieste was sache ist.

AnarchX
2008-04-02, 12:44:06
Crysis 1680x1050 16xAF:

Default: 25 FPS
901/2212/800: 27 FPS
901/2212/975: 29 FPS
901/2212/1100: 31 FPS
901/2212/1250: 31 FPS


Call of Juarez DX10 1680x1050 4xAA/16AF:

Default: 21 FPS
901/2212/800: 20 FPS
901/2212/975: 23 FPS
901/2212/1100: 25 FPS
901/2212/1250: 28 FPS


Moh:Airbone 1920x1200 4xAA/16AF:

Default: 49 FPS
901/2212/800: 44 FPS
901/2212/975: 51 FPS
901/2212/1100: 58 FPS
901/2212/1250: 63 FPS


Crysis ist einer der wenigen Spiele, die nicht stark von der erhöhten Bandbreite profitieren.
In Crysis bringt der GPU-OC jedenfalls mehr als die Bandbreitenerhöhung um fast 30%, was wohlmöglich am Z-First Pass liegen kann welches dieses Spiel macht.

PCGH_Raffael
2008-04-02, 12:45:25
@PCGH Außerdem, sehe ich da, dass die 8800GTX mit der 169FW getestet wurde? Steht zumindest in den GPU-Z Bildern ;)

Keine Sorge, beide Karten wurden mit der Forceware 174.74 getestet. Alles andere wäre bei einem Direktvergleich dezent sinnbefreit. Der GPU-Z-Shot der 8800 GTX entstand anschließend.

MfG,
Raff

Gast
2008-04-02, 13:35:01
In Crysis bringt der GPU-OC jedenfalls mehr als die Bandbreitenerhöhung um fast 30%, was wohlmöglich am Z-First Pass liegen kann welches dieses Spiel macht.

Meinen Herren ist das so schwer?
Den core und den shader auf NORMAL und dann siehste was Sache ist und was der Ram OC bringt,nichts oder kaum,ist ja bei der Einstellung sogut wie nix.
29-31
23-28
51-63<>das liegt aber hier an der CPU wie immer in dem Game.

pest
2008-04-02, 16:21:58
51-63<>das liegt aber hier an der CPU wie immer in dem Game.

was hat die CPU plötzlich damit zu tun?

hier die Ergebnisse vom CrysisDemo-Bench@High

WinXP 32, 4GB, FW 174.74@HQ, E6750@3GHz, 8800GT

1280x1024 Island-FlyBy noAA/noAF


648/1620/950: 41,25 fps
702/1620/950: 41,89 fps
648/1620/1053: 42,64 fps


8.33% Steigerung der ROPs bringt 1,55% mehr FPS -> Ratefaktor: 0.186
10.84% Steigerung des Speichertaktes bringt 3,37% mehr FPS -> Ratefaktor: 0.311

Gast
2008-04-02, 17:01:54
1280x1024 Island-FlyBy noAA/noAF

Sinnlos.

Gast
2008-04-02, 17:21:23
Sinnlos.


AVG 40 fps ist schon Grenzwertig, Spielsettings sind eher auf min. 30fps bei Shooter. Will ja keine Ruckelorgie wenn mal'n paar Gegener auftauchen.

pest
2008-04-02, 17:28:07
AVG 40 fps ist schon Grenzwertig, Spielsettings sind eher auf min. 30fps bei Shooter. Will ja keine Ruckelorgie wenn mal'n paar Gegener auftauchen.

was interessieren mich deine Spieleinstellungen :confused:, will ja nicht die CPU benchen

Gast
2008-04-02, 17:33:27
was interessieren mich deine Spieleinstellungen :confused:, will ja nicht die CPU benchen


Dann muss ich dem anderen Gast doch recht geben:1280x1024 Island-FlyBy noAA/noAF = SINNLOS

Gast
2008-04-03, 00:23:53
http://www.awardfabrik.de/grafikkarten/club3d-geforce-9800gtx-7.html

9800GTX ist bei gleichen Takraten langsammer als 8800GTS.

Wahrscheinlich langsammere Speichertimings.

Stark nVidia !

Raff
2008-04-03, 00:25:52
Rolf, die Skalierung der Balken übertrifft jede Marketingfolie. 100 Punkte mehr, ausgehend von 15.000: dreifache Länge. ;D


Wie man sieht, ist die 9800GTX bei gleichem Takt nicht schneller als die 8800GTS 512MB. Die 8800GTS ist sogar ein kleines Stück schneller. Dies könnte auf unterschiedliche Treiberversionen zurückzuführen sein. Möglich wäre auch, dass der Ram der 8800GTS mit schärferen Latenzen arbeitet als der der 9800GTX.

Disqualifiziert. Es liegt sicher am Treiber ... Versionen konnte ich aber keine erkennen. Ihr?

MfG,
Raff

Gast
2008-04-03, 01:15:31
"FW169.21 9800GTX Beta"
Uralt Treiber gegen unbekannten Treiber, naja irgendwie gibt es zu viele Tester, die paar guten Tests gehen in der Flut an grottigen 3DMark auf default Settings unter. :(

Coda
2008-04-03, 03:14:43
Rolf, die Skalierung der Balken übertrifft jede Marketingfolie. 100 Punkte mehr, ausgehend von 15.000: dreifache Länge. ;D
Boa ne echt. :|

deekey777
2008-04-03, 14:03:51
THG: Geforce 9800 GTX mit vier CPUs getestet (http://www.tomshardware.com/de/Geforce-9800-GTX,testberichte-239991.html)
Interessant finde ich die Crysis-Ergebnisse (http://www.tomshardware.com/de/Geforce-9800-GTX,testberichte-239991-11.html), aber insbesondere das:
In Crysis sind die Geforce 9800 GTX und 8800 GTS 512 fast gleich schnell. Der Geforce 8800 GTX und Ultra werden mit den neuen Treiberversionen immer langsamer. Eine schwache CPU senkt die Leistung der Grafikkarte.

Ich hoffe, dass sich diese recht ungeschickte Formulierung auf die G92er Generation bezieht, die von neueren Treiberrevisionen mehr und mehr profitiert und die alte G80-Generation immer langsamer erscheint.

Gast
2008-04-03, 14:24:48
Ich hoffe, dass sich diese recht ungeschickte Formulierung auf die G92er Generation bezieht, die von neueren Treiberrevisionen mehr und mehr profitiert und die alte G80-Generation immer langsamer erscheint.
Soetwas lese ich jetzt zum ersten Mal.

Raff
2008-04-03, 14:53:31
G80-Karten werden durch die 174-er keineswegs langsamer: http://www.pcgameshardware.de/aid,633746/Test/Benchmark/Geforce-Treibertest_Forceware_174_sorgt_fuer_bis_zu_65_Prozent_mehr_Leistung/&page=3

MfG,
Raff

puntarenas
2008-04-03, 18:52:17
We don’t recommend anyone to buy this product. If you really want to buy it, purchase an 8800GTS 512MB instead. When you pay for more than 20%, the only thing you can get is one more MIO connector.
Quelle: expreview.com (http://en.expreview.com/2008/04/03/geforce-9800gtx-review/14/)

Naja, kann man so sehen :)

dildo4u
2008-04-08, 15:25:11
Neu im Testlabor: Zotac GeForce 9800 GTX AMP!

In den kommenden Tagen werden wir einen Kurztest der Grafikkarte vorbereiten und untersuchen, in wie weit sich die von Haus aus höheren Taktraten bemerkbar machen. Zotac steigert die Frequenz der TMU-Domäne bei der GeForce 9800 GTX AMP! Edition auf 756 MHz, während die 128 skalaren Shadereinheiten mit 1.890 MHz angesteuert werden. Der weiterhin 512 MB große Speicher ist mit 1.152 MHz getaktet. Das Referenzdesign arbeitet dagegen mit 675 MHz, 1.675 MHz und 1.100 MHz...

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/neu_testlabor_zotac_geforce_9800_gtx_amp/

Schlammsau
2008-04-10, 14:06:40
Kurztest:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_zotac_geforce_9800_gtx_amp_edition/

feines teil....nur wenn man pech hat braucht man ein neues Netzteil dafür. :rolleyes:

Gast
2008-04-10, 15:38:03
Neu im Testlabor: Zotac GeForce 9800 GTX AMP!



http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/april/neu_testlabor_zotac_geforce_9800_gtx_amp/

Wenn sie nochmehr Spannung raufgeben und höher takten holt die 9800GTX die 8800ULTRA bald ein, naja im Stromverbrauch kommt sie der ULTRA schon sehr nahe :rolleyes:

Gast
2008-04-10, 15:58:41
Für 65nm haben die 9800 GTX und AMP-Edition ein ziemlich mieses Performance/ Watt Verhältnis, vor allem die AMP-Version!

Gast
2008-04-12, 00:19:03
http://uk.youtube.com/watch?v=1CPSEgrDGf8&feature=related

puntarenas
2008-04-12, 00:24:03
http://uk.youtube.com/watch?v=1CPSEgrDGf8&feature=related
Wie ein Marktschreier auf dem Fischmarkt. Der Mann könnte auch Heizdecken verkaufen ;D

Gast
2008-04-12, 00:28:54
Hey das ist ein ernsthaftes Review. :redface:

PS. Heizdecken? Tut er doch, er hat auch die (G)X2 Karten getestet. X-D

=Floi=
2008-04-12, 03:20:43
zitat
Für 65nm haben die 9800 GTX und AMP-Edition ein ziemlich mieses Performance/ Watt Verhältnis

das stimmt so nicht und nebenbei werden die GTX mit mehr volt befeuert wie nötig!
im vergleich könnte man einen Q6600@ stock mit 1,5volt betreiben...

Gast
2008-04-12, 09:13:40
im vergleich könnte man einen Q6600@ stock mit 1,5volt betreiben...
Ich kenne ein OC Profi, der das tatsächlich gemacht hat, 3Ghz @ 1,5V.
Und dann sich wundern, das man trotz Wakü hohe Temperaturen hat und nicht weiter kommt. :D

Schlammsau
2008-04-12, 12:10:31
zitat
Für 65nm haben die 9800 GTX und AMP-Edition ein ziemlich mieses Performance/ Watt Verhältnis

das stimmt so nicht und nebenbei werden die GTX mit mehr volt befeuert wie nötig!
im vergleich könnte man einen Q6600@ stock mit 1,5volt betreiben...

damit die ganze Stromverbrauchsgeschichte noch mehr angeheizt wird? ich bitte dich!
Gerade jetzt wo ATI gerade mit stromsparenden Modellen bei den Käufern punkten kann, sollte nVidia auch tunlichst drauf achten weniger Watt fressende Monster zu veröffentlichen!

Gast
2008-04-12, 12:14:36
Gerade jetzt wo ATI gerade mit stromsparenden Modellen bei den Käufern punkten kann
NV Karten sind unter Last deutlich stromsparender als AMD Karten.
Siehe 9600GT vs 3870 oder 9800GTX vs 3870X2

puntarenas
2008-04-12, 12:15:33
Hey das ist ein ernsthaftes Review. :redface:

PS. Heizdecken? Tut er doch, er hat auch die (G)X2 Karten getestet. X-D
Ja und er hat herausgefunden, dass die 9800GTX (-> bei CPU-Limit?!) nur wenige FPS von einer 9800GX2 entfernt ist. Absoluter Preis-/Leistungsknüller. Kaufen, marsch marsch!

Es gibt mitunter wirklich gute Sachvideos bei Youtube, aber diese "Reviews" gehören eher in die Kategorie Realsatire.

puntarenas
2008-04-12, 12:21:54
NV Karten sind unter Last deutlich stromsparender als AMD Karten.
Siehe 9600GT vs 3870 oder 9800GTX vs 3870X2
Das stimmt wohl, allerdings würde mich interessieren, ob die Messverfahren noch zeitgemäß sind. Soweit ich das verstanden habe, wird doch der Peak-Wert genommen, wäre es nicht an der Zeit, den tatsächlichen Verbrauch über einen Benchmarkzeitraum zu ermitteln?

Kann natürlich trotzdem zugunsten von Nvidia ausgehen, das ist nicht der Punkt, auf den ich hinaus will. Was wenn beispielsweise beim Peak der ATI-Karten gerade eine Stelle erwischt wird, wo sich das 5D-Design ungewöhnlich gut auslasten lässt, das Ergebnis der tatsächlichen Leistungsaufnahme würde möglicherweise deutlich verfälscht.

Schlammsau
2008-04-12, 12:39:27
warum wird die 9600GT immer mit der 3870 verglichen?
habt ihr Tomaten auf den Augen? 3850 512MB ist der Gegenspieler und da ist die GT ein wenig schneller!
Fanboy gelabere :(

guckt mal ganz genau aufs Performance Rating!
http://www.abload.de/img/performanceratingjgm.jpg

und jetzt auf den Stromverbrauch!
http://www.abload.de/img/leistungsaufnahmekg6.jpg

Und das was hier gemssen wird, sind Spitzenwerte.

puntarenas
2008-04-12, 12:43:04
warum wird die 9600GT immer mit der 3870 verglichen?
habt ihr Tomaten auf den Augen? 3850 512MB ist der Gegenspieler und da ist die GT ein wenig schneller!
Fanboy gelabere :(
Das spielt doch keine Rolle, dann nimm halt 8800GT gegen HD3870, wobei erstere dann mehr Leistung aufs Parkett bringt und Peak etwas weniger verbraucht: Klick! (http://xbitlabs.com/articles/video/display/xfx-gf8800gts_4.html#sect0)

Es scheint schon so zu sein, dass Nvidia bei voller Auslastung genügsamer zu Werke geht. Fragt sich halt, ob der Peakwert praxisnah ist, oder nur zur Dimensionierung des Netzteils taugt.

AnarchX
2008-04-12, 14:11:14
warum wird die 9600GT immer mit der 3870 verglichen?
habt ihr Tomaten auf den Augen? 3850 512MB ist der Gegenspieler und da ist die GT ein wenig schneller!
Fanboy gelabere :(

Du solltest nicht den Finger auf andere zeigen, in deiner Position...

Dieser von dir gewählte Kurztest ist von seinen Performanceaussagen (z.B. Crysis @1600x1200 4xAA/16xAF) absolut fernab der Realität, was man doch erkennen sollte.

Und nimmt man mal einen besseren, aussagekräftigeren Test von CB, z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating_qualitaet
(alle GeForce auf 174er Treiber)

Hier ist die 9600GT nicht nur ein wenig schneller als eine HD3850:
1280x1024 4xAA/16xAF -> 30%, in einen sehr praxisnahen Setting für solche Karten.

Also das nächste mal genauer überlegen, bevor man mit dem F-Wort um sich wirft...

Gast
2008-04-12, 14:13:08
warum wird die 9600GT immer mit der 3870 verglichen?
Weil die 9600GT schneller und billiger ist. :)
http://666kb.com/i/axqnm43xo0jq9c5eo.jpg

Schlammsau
2008-04-12, 14:38:02
???
mit 4xAA ist die GT schneller.....beim 8xAA wieder die 3850 512MB! In höheren Auflösungen siehts auch wieder anders aus! Mann kann es sich immer drehen wie man will und es kommt immer ein anderes Ergebniss raus!

Gast
2008-04-12, 14:53:49
Du solltest nicht den Finger auf andere zeigen, in deiner Position...

Dieser von dir gewählte Kurztest ist von seinen Performanceaussagen (z.B. Crysis @1600x1200 4xAA/16xAF) absolut fernab der Realität, was man doch erkennen sollte.

Und nimmt man mal einen besseren, aussagekräftigeren Test von CB, z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating_qualitaet
(alle GeForce auf 174er Treiber)

Hier ist die 9600GT nicht nur ein wenig schneller als eine HD3850:
1280x1024 4xAA/16xAF -> 30%, in einen sehr praxisnahen Setting für solche Karten.

Also das nächste mal genauer überlegen, bevor man mit dem F-Wort um sich wirft...
Bei der GX2 läuft doch hin und wieder gar kein SLI,so können die Ergebnisse doch gar nicht stimmen.
Siehe die Einzel Tests der jeweiligen Karten.

Gast
2008-04-12, 14:55:03
???
mit 4xAA ist die GT schneller.....beim 8xAA wieder die 3850 512MB! In höheren Auflösungen siehts auch wieder anders aus! Mann kann es sich immer drehen wie man will und es kommt immer ein anderes Ergebniss raus!
Die GT ist immer schneller, bis auf das nicht praxisrelevante 8xMSAA.

Was du jedoch mit deiner AMD Karte im 9800GTX Fred willst hast du noch nicht erläutert.

Nakai
2008-04-12, 15:20:06
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_his_radeon_hd_3850_iceq3_turbo_x/3/#abschnitt_benchmarks

Und das?
Ich setze die 9600GT zwischen HD3850 und HD3870 an, eher bei HD3870.


mfg Nakai

Gast
2008-04-12, 16:32:55
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_his_radeon_hd_3850_iceq3_turbo_x/3/#abschnitt_benchmarks

Und das?
Sind alte Treiber.
-> wertloser Test

AnarchX
2008-06-03, 18:07:18
http://img141.imageshack.us/img141/5606/tanwei812f45789fip8.jpg (http://imageshack.us)
http://en.expreview.com/2008/06/03/computex%e2%80%9908-coverage-xfx-shows-9800-gx2-9800-gtx-and-geforce-8300/

;D

Sorkalm
2008-06-03, 18:10:43
Was ist denn daran so lustig? Eine 1 GiB 9800 GTX dürfte wohl unter der G200GTS ("GTX 260") liegen...

AnarchX
2008-06-03, 18:14:52
Was ist denn daran so lustig? Eine 1 GiB 9800 GTX dürfte wohl unter der G200GTS ("GTX 260") liegen...
Das "128-Bit" hinter den 1GB überlesen?;)

Wird wohl nur ein Fehler sein, wenn auch ein peinlicher.

Frage mich nur, wie man auf 1GB 0.83ns Speicher kommt, da hat man wohl sein eigenes PCB mit 16 Chips entworfen.

=Floi=
2008-06-03, 18:15:09
die 1gb version ist teilweise bis zu 6% schnelelr wie die 512mb version. Das ganze lohnt sich einfach nicht.

Unyu
2008-06-03, 18:42:19
Die Nullen hinter der "6" vergessen? ;)

Sorkalm
2008-06-03, 21:11:00
Das "128-Bit" hinter den 1GB überlesen?;)

Wird wohl nur ein Fehler sein, wenn auch ein peinlicher.

Das bezieht sich wohl auf 128bit HDR-Rendering, wenn man sich die anderen Schilder und die Beschriftung darunter mal anschaut.

Ich glaube kaum, dass Nvidia eine 128-Bit-SI 9800 GTX zulässt, mit der Speichergröße wirds bei akzeptablen Taktraten dann auch richtig schwer. ;)

AnarchX
2008-06-04, 10:19:18
Das bezieht sich wohl auf 128bit HDR-Rendering, wenn man sich die anderen Schilder und die Beschriftung darunter mal anschaut.

Bei der 9800GX2 im Link steht da aber 512Bit.;)

The_Invisible
2008-06-04, 10:44:48
die 1gb version ist teilweise bis zu 6% schnelelr wie die 512mb version. Das ganze lohnt sich einfach nicht.

wo hast du das her?

zumindest passen 1gib viel besser zu so einer karte als 512mib. dann limitiert sozusagen nur mehr das 256bit interface zur alten g80 reihe.

mfg

AnarchX
2008-06-04, 10:45:56
zumindest passen 1gib viel besser zu so einer karte als 512mib. dann limitiert sozusagen nur mehr das 256bit interface zur alten g80 reihe.

Und die ROPs, welche an dieses gekoppelt sind.

Gast
2008-06-04, 11:10:37
Und die ROPs, welche an dieses gekoppelt sind.

außer bei 8xMSAA allerdings niemals am limit sind.

Unyu
2008-06-04, 12:52:06
dann limitiert sozusagen nur mehr das 256bit interface zur alten g80 reihe.
So wirklich Bandbreiten limitiert scheint G92 nicht zu sein.

dildo4u
2008-06-20, 01:23:34
Radeon HD 4850 512MB and GeForce 9800 GTX+(G92B/55nm) Performance Quick Take

As its name implies, the GeForce 9800 GTX+ is an improved version of the original GeForce 9800 GTX. The GPU itself is based on TSMC’s smaller 55-nm manufacturing process, and the 9800 GTX+ runs at higher clock speeds than the GeForce 9800 GTX: 738MHz on the graphics core versus the original 9800 GTX’s 675MHz. Meanwhile, the stream processors run at 1836MHz, an improvement of 148MHz over the 9800 GTX. The memory clock speed remains unchanged at 1.1GHz.

http://s4.directupload.net/images/080620/ziu773x6.gif

http://s7.directupload.net/images/080620/7g8mzb4m.gif

http://s7.directupload.net/images/080620/dh2wzkr3.gif

http://s4.directupload.net/images/080620/hgh5vrbz.gif

http://s1.directupload.net/images/080620/ts6x5ew4.gif

http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/

Sonyfreak
2008-06-20, 01:32:00
Bin schon gespannt, ob der neue Fertigungsprozess auch das OC-Potenzial erhöht und dafür den Strombedarf senkt. Wenn man den Chiptakt und den Takt der Shaderdomäne noch ein Stück steigern kann, ist die 9800GTX+ doch ein sehr gelungenes Stück Hardware zu nem fairen Preis. Ich hoffe mal darauf, dass ein paar Hersteller auch eine 1GB-Version des Kärtchens bringen. :)

mfg.

Sonyfreak

Gast
2008-06-20, 02:18:37
Schön Dildo hast genau die Sachen rausgekrammt wo die 9800GTX OC vorn ist ;D

dildo4u
2008-06-20, 02:19:10
Schön Dildo hast genau die Sachen rausgekrammt wo die 9800GTX OC vorn ist ;D
Die ist immer vorn bei dem Test egal bei welchem Game hab alle "neuen" Games gepostet.

Gast
2008-06-20, 02:28:33
Die ist immer vorn bei dem Test egal bei welchem Game

http://www.abload.de/img/cod41280orw.gif (http://www.abload.de/image.php?img=cod41280orw.gif)

http://www.abload.de/img/cod216001hv.gif (http://www.abload.de/image.php?img=cod216001hv.gif)

http://www.abload.de/img/obl1600p9x.gif (http://www.abload.de/image.php?img=obl1600p9x.gif)

http://www.abload.de/img/fear1600chz.gif (http://www.abload.de/image.php?img=fear1600chz.gif)

dildo4u
2008-06-20, 02:32:03
Wow 1fps oder Gleichstand. :rolleyes:

9800GTX/+ Beta Treiber 177.39 mit PhysX-Support


Today, NVIDIA officially launched GPU acceleration for PhysX when they released the PhysX driver version 8.06.12 which enables PhysX acceleration for the following cards :
GeForce GTX 280
GeForce GTX 260
GeForce 9800 GTX+
GeForce 9800 GTX

You will need to install the latest 177.39 ForceWare driver in addition to the PhysX driver. At this moment, PhysX support has only been enabled for those four GPUs. NVIDIA will progressively enable PhysX support in the other GeForce 9 and GeForce 8 graphics over the next few weeks.

http://s2.directupload.net/images/080620/db4tws7h.png

http://s3.directupload.net/images/080620/okaks9su.png

http://s7.directupload.net/images/080620/itw29hlm.png

http://www.techarp.com/showarticle.aspx?artno=560

http://www.tweakpc.de/news/14130/exklusiv-download-geforce-177-39-treiber-mit-physx-support/

Thread zum Beta 177.39 Treiber

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422059

vinacis_vivids
2008-06-20, 03:49:25
Es gibt gemessene Werte die äußerst bedenklich sind: Die Systeme sind bis auf die CPU QX9650 vs QX9770 nahezu identisch

Von http://www.techreport.com/articles.x/14967/2

http://www.abload.de/img/etqw-2560h7f.gif
Hier bricht die 9800GTX weg


von http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/page2.asp

http://www.abload.de/img/fqqwhqny8.gif
Hier komischerweise nicht!

Gast
2008-06-20, 04:16:44
Schau mal auf die Treiber 175.xx vs. 177.xx ;)

Gast
2008-06-20, 04:21:54
Schau mal auf die Treiber 175.xx vs. 177.xx ;)
Der Treiber hat bestimmt noch 256mb Vram rangepatcht :ulol:

Gast
2008-06-20, 04:25:10
Der Treiber hat bestimmt noch 256mb Vram rangepatcht :ulol:

In der Tat haben sie daran gearbeitet das zeigen auch andere Beispiele.

Anarchy-HWLUXX
2008-06-20, 09:31:15
Es gibt gemessene Werte die äußerst bedenklich sind: Die Systeme sind bis auf die CPU QX9650 vs QX9770 nahezu identisch

Von http://www.techreport.com/articles.x/14967/2

http://www.abload.de/img/etqw-2560h7f.gif
Hier bricht die 9800GTX weg


von http://www.firingsquad.com/hardware/amd_radeon_hd_4850_geforce_9800_gtx+/page2.asp

http://www.abload.de/img/fqqwhqny8.gif
Hier komischerweise nicht!



Techreport :

Enemy Territory: Quake Wars
We tested this game with 4X antialiasing and 16X anisotropic filtering enabled, along with "high" settings for all of the game's quality options except "Shader level" which was set to "Ultra." We left the diffuse, bump, and specular texture quality settings at their default levels, though. Shadow and smooth foliage were enabled, but soft particles were disabled. Again, we used a custom timedemo recorded for use in this review.

"smooth foilage" entspricht Transparenz AA bei planzen usw.

-> Das sind nichtmal die maximal settings ;) ETQW wird zuwenig gebench0000rt, ist doch schliesslich das forderndste OpenGL Game am Markt.



Bei FS gibt es keine angabe zu den Quali settings ...

DrFreaK666
2008-06-20, 09:53:53
Vielleicht gibt es den Wundertreiber ja wirklich...
http://www.pcgameshardware.de/aid,648019/News/Neuer_Wundertreiber_soll_fuer_Fps-Sprung_bei_9800_GTX_sorgen/

mapel110
2008-06-20, 09:56:09
Vielleicht gibt es den Wundertreiber ja wirklich...
http://www.pcgameshardware.de/aid,648019/News/Neuer_Wundertreiber_soll_fuer_Fps-Sprung_bei_9800_GTX_sorgen/
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422059
Ist schon längst da. ^^

DrFreaK666
2008-06-20, 10:07:51
Gibt es die Karte schon udn wie teuer wird diese?
Die 9800GTX ist ca. 50€ teurer als die HD 4850

Anarchy-HWLUXX
2008-06-20, 10:20:55
Neue Preise :

9800GTX -> 199$
9800GTX+ -> 229$

Release - öm, KA

vinacis_vivids
2008-06-20, 13:52:27
Schau mal auf die Treiber 175.xx vs. 177.xx ;)

Stimmt nicht! Die 9800 GTX wurde in beiden Fällen mit 175.16 getestet!

dildo4u
2008-06-20, 13:55:54
pcper NVIDIA GeForce 9800 GTX+ 512MB Preview - G92b at 55nm

http://www.pcper.com/article.php?aid=580

Hardware.fr Preview : Radeon HD 4850 & GeForce 9800 GTX v2(9800GTX+)

http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

AnarchX
2008-06-20, 14:15:02
Da hat wohl 55nm auch bei NV nichts verbrauchsmässig gebracht:
http://img411.imageshack.us/img411/1296/powerax0.jpg (http://imageshack.us)
http://img411.imageshack.us/img411/1296/powerax0.ae81afeafe.jpg (http://g.imageshack.us/g.php?h=411&i=powerax0.jpg)

Legit-Reviews hat ihr Review nun auch aktualisiert:
http://www.legitreviews.com/article/731/6/

dildo4u
2008-06-20, 14:43:32
Legit-Reviews hat ihr Review nun auch aktualisiert:
http://www.legitreviews.com/article/731/6/
Die Frage ist welcher Seite man glaubt dort braucht die 9800GTX+ weniger als die 4850.

http://s5.directupload.net/images/080620/zinblwbr.jpg

OC mit der 55nm 9800GTX+

http://s4.directupload.net/images/080620/vindpa2m.jpg

If you recall from our 3DMark Vantage test page the stock clocks scored 7888 with Physics enabled. After the overclock the score increased nearly 1,000 points up to 8,862 3DMarks (a 12.3% increase in performance)! The card would run at 900MHz on some benchmarks, but wasn't stable on others like 3DMark Vantage. We stopped at 840MHz on the core and 1215MHz on the memory, but this card may have a little more in it. Notice the card was running 50C with these settings!

Gast
2008-06-20, 15:09:39
Da hat wohl 55nm auch bei NV nichts verbrauchsmässig gebracht:


logisch, haben uns ja schon genug ATI-gpus gezeigt, dass 55nm von TSMC lediglich eine kostenersparnis bringt.

Gast
2008-06-20, 15:24:02
Die Frage ist welcher Seite man glaubt dort braucht die 9800GTX+ weniger als die 4850.



Beiden? Es hängt doch immer von der jeweiligen Anwendung ab, wieviel verbraucht wird. Der Verbrauch spiegelt doch nur wider, wie gut der Chip jeweils ausgelastet ist, je nach Anwendung ist das mal mehr der eine oder der andere.

Gast
2008-06-20, 15:59:43
Moah 2GHz auf der Shaderdomain is aber ordentlich Holz. Endlich klapts es und die Karte bleibt noch relativ Kühl.
Na dann immer ran mit den OC Versionen!

Schlammsau
2008-06-20, 16:02:07
Die Frage ist welcher Seite man glaubt dort braucht die 9800GTX+ weniger als die 4850.


wofür hat die Karte dann 2 Stromanschlüsse?

Anarchy-HWLUXX
2008-06-20, 16:05:12
wofür hat die Karte dann 2 Stromanschlüsse?
Mehr OC potenzial :ucatch:

Schlammsau
2008-06-20, 16:06:20
Mehr OC potenzial :ucatch:

:uup:
ich erinnere dich an deine Einschätznung wenn die Karte released wurde!

Gast
2008-06-20, 16:08:16
pcper NVIDIA GeForce 9800 GTX+ 512MB Preview - G92b at 55nm

http://www.pcper.com/article.php?aid=580

Hardware.fr Preview : Radeon HD 4850 & GeForce 9800 GTX v2(9800GTX+)

http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Insgesamt also langsamer als die 4850 bei schlechteren Futureset.Also doch eine verzweiflungstat von NVidia.

Schlammsau
2008-06-20, 16:15:12
je mehr Auflösung und AA, desto schlechter......
Stromverbaruch inter Last um 1 Watt gesunken, im Idle um 2 Watt gestiegen.Deswegen sie 2 Stromanschlüsse ;D
http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Gesamtperformancerating
http://www.abload.de/img/unbenanntl2v.png

deekey777
2008-06-20, 16:15:55
Insgesamt also langsamer als die 4850 bei schlechteren Futureset.Also doch eine verzweiflungstat von NVidia.
Hallo Sterem/-s, du hast das Recht, in diesem Forum zu lesen und zu schreiben, aufgrund deiner Sperre und mehrmaliger Umgehung dieser verloren.

Anarchy-HWLUXX
2008-06-20, 16:25:51
:uup:
ich erinnere dich an deine Einschätznung wenn die Karte released wurde!
Schau mal hier :

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6601358&postcount=672

Gast
2008-06-20, 17:23:41
Die Frage ist welcher Seite man glaubt dort braucht die 9800GTX+ weniger als die 4850.

http://s5.directupload.net/images/080620/zinblwbr.jpg



Im IDLE verbraucht die ATI 12Watt weniger (obwohl Powerplay noch garnicht greift) und unter LOAD 1! in Worten EIN! Watt weniger ;D

PCHG hat es auf den Punkt gebracht

Zitat:

"Über alle Benchmarks hinweg kann sich die 9800 GTX+ zwar knapp 10 Prozent von der non-plus-Version absetzen, um die HD 4850 deutlich zu schlagen reicht es jedoch nicht. Im Endeffekt liegt je nach Spiel mal die Nvidia-, mal die AMD-Karte leicht vorne. Angesichts der gehandelten Preise ist die günstigere Radeon daher das verlockendere Angebot, zumal diese über das modernere Feature-Set verfügt."

Schlammsau
2008-06-20, 17:28:03
Im IDLE verbraucht die ATI 12Watt weniger (obwohl Powerplay noch garnicht greift) und unter LOAD 1! in Worten EIN! Watt weniger ;D

PCHG hat es auf den Punkt gebracht

Zitat:

"Über alle Benchmarks hinweg kann sich die 9800 GTX+ zwar knapp 10 Prozent von der non-plus-Version absetzen, um die HD 4850 deutlich zu schlagen reicht es jedoch nicht. Im Endeffekt liegt je nach Spiel mal die Nvidia-, mal die AMD-Karte leicht vorne. Angesichts der gehandelten Preise ist die günstigere Radeon daher das verlockendere Angebot, zumal diese über das modernere Feature-Set verfügt."

link?
[edit] habs gefunden...nur beziehen sie die Infos von Firingsquad, mittlerweile gibt es zwei weitere "Tests", die genau das gegenteil andeuten!

Gast
2008-06-20, 17:32:42
link?

http://www.pcgameshardware.de/aid,648311/News/firingsquad_9800_GTX_gegen_HD_4850_gegen_GTX_260/

Gast
2008-06-20, 17:43:02
Gesamtperformancerating
http://www.abload.de/img/unbenanntl2v.png

Was mich an diesem Diagramm stört:
Wie kann es sein, das die 65nm 9800GTX sparsamer ist, als die 55nm Version?

Ich würde erstmal abwarten, ob sich da bei der Fertigung noch was tut. Selbst wenn die Taktraten leicht höher sind, sollte die eigentlich nicht darüber liegen.
Da ist noch etwas im argen. Obs nun die Karte selbst ist (manche Hersteller geben ja erhöhte Spannungen, OC-Versionen), das BIOS oder die Fertigung...

Schlammsau
2008-06-20, 17:44:59
Was mich an diesem Diagramm stört:
Wie kann es sein, das die 65nm 9800GTX sparsamer ist, als die 55nm Version?

Ich würde erstmal abwarten, ob sich da bei der Fertigung noch was tut. Selbst wenn die Taktraten leicht höher sind, sollte die eigentlich nicht darüber liegen.
Da ist noch etwas im argen. Obs nun die Karte selbst ist (manche Hersteller geben ja erhöhte Spannungen, OC-Versionen), das BIOS oder die Fertigung...

ein DIE Shrink muss nicht unbedingt weniger Stromverbrauch bedeuten.
Er bedeutet vor allem Kostenersparniss für den Chiphersteller!

vinacis_vivids
2008-06-20, 17:45:41
je mehr Auflösung und AA, desto schlechter......
Stromverbaruch inter Last um 1 Watt gesunken, im Idle um 2 Watt gestiegen.Deswegen sie 2 Stromanschlüsse ;D
http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Gesamtperformancerating
http://www.abload.de/img/unbenanntl2v.png

Hier kommt die GTX 260 aber nicht gut weg. Bei einem doppelten Preis der 4850 bietet sie gerade mal 10-15% mehr Leistung. Das ist indiskutabel.

Spricht auch gegen der Schlußfolgerung von diesem Test "Die GTX 260 spielt dagegen in Sachen Leistung und Kosten in einer anderen Liga." --> Kosten ja, Leistung NEIN
http://www.pcgameshardware.de/aid,648311/News/firingsquad_9800_GTX_gegen_HD_4850_gegen_GTX_260/

Gast
2008-06-20, 17:46:46
ein DIE Shrink muss nicht unbedingt weniger Stromverbrauch bedeuten.

Da hast du völlig Recht, aber das meinte ich auch gar nicht.
Der Punkt ist: Selbst wenn er keine Stromersparniss bringt, sollte der Stromverbrauch nicht mal eben um 10% steigen. Das ergibt wenig Sinn. Taktratenerhöhungen allein können nicht sein. Wenn überhaupt, sinds erhöhte Spannungen.

Zumal ATI ja schon länger mit 55nm arbeitet.

Schlammsau
2008-06-20, 17:49:29
Da hast du völlig Recht, aber das meinte ich auch gar nicht.
Der Punkt ist: Selbst wenn er keine Stromersparniss bringt, sollte der Stromverbrauch nicht mal eben um 10% steigen. Das ergibt wenig Sinn. Taktratenerhöhungen allein können nicht sein. Wenn überhaupt, sinds erhöhte Spannungen.

Zumal ATI ja schon länger mit 55nm arbeitet.

10%?....so wie ich das interpretiere bleibt der Stromverbrauch auf dem gleichen Level. Evtl. bringt der Shrink ja eine kleine Ersparniss im Verbrauch, der aber durch eine Vcore Anhebung wieder wett gemacht wird.

Sorkalm
2008-06-20, 17:49:45
Eben, die 9800 GTX+ arbeitet ja mit erhöhten Taktraten und evtl. erhöhten Spannungen. Abgesehen davon kann es auch innerhalb der Modelle eine gewisse Streuung zu geben.

Die optischen Shrinks sind eben hauptsächlich zur Kostensenkung da.

Gast
2008-06-20, 17:55:05
10%?....so wie ich das interpretiere bleibt der Stromverbrauch auf dem gleichen Level. Evtl. bringt der Shrink ja eine kleine Ersparniss im Verbrauch, der aber durch eine Vcore Anhebung wieder wett gemacht wird.

Der Punkt ist und den beachten die Reviews regelmäßig nicht: Nicht jeder Hersteller arbeitet mit Standardwerten und Standardspannungen.

Außerdem verbessert sich die Fertigung im laufe der Zeit teilweise. Es kann sein, das Ergebnisse von heute oder von Testsamples in ein paar Wochen völlig falsch sind.

Selbst eine kaputte Lüftersteuerung treibt den Stromverbrauch in die Höhe... wenn der Lüfter immer max-Speed läuft. Sind halt alles so Kleinigkeiten, die sich addieren. ;)

Schlammsau
2008-06-20, 17:58:47
Der Punkt ist und den beachten die Reviews regelmäßig nicht: Nicht jeder Hersteller arbeitet mit Standardwerten und Standardspannungen.

Außerdem verbessert sich die Fertigung im laufe der Zeit teilweise. Es kann sein, das Ergebnisse von heute oder von Testsamples in ein paar Wochen völlig falsch sind.

Selbst eine kaputte Lüftersteuerung treibt den Stromverbrauch in die Höhe... wenn der Lüfter immer max-Speed läuft. Sind halt alles so Kleinigkeiten, die sich addieren. ;)

Alles nur Spekulatius und deswegen sollte diese Diskussion ins Speku Forum!

Gast
2008-06-20, 18:00:02
Alles nur Spekulatius und deswegen sollte diese Diskussion ins Speku Forum!

Falls es dir noch nicht aufgefallen ist. Das sind keine Spekulationen.

Fakten:
Lüfter-steuerungen unterscheiden sich teilweise
OC-Versionen
unterschiedliche Taktraten.

Und jetzt pack mal den Provokations Prügel weg und versuch normal zu diskutieren, wenn du das kannst.

Schlammsau
2008-06-20, 18:01:06
Falls es dir noch nicht aufgefallen ist. Das sind keine Spekulationen.

Fakten:
Lüfter-steuerungen unterscheiden sich teilweise
OC-Versionen
unterschiedliche Taktraten.

Und jetzt pack mal den Provokations Prügel weg und versuch normal zu diskutieren, wenn du das kannst.

Nein diese Diskussion basiert nur auf Gerüchten und deswegen gehört sie nicht hier her!

Gast
2008-06-20, 18:06:43
Nein diese Diskussion basiert nur auf Gerüchten und deswegen gehört sie nicht hier her!

Tust du dich so schwer beim verstehen? Ich sprach von Fakten, nicht von Spekulationen.

Du kannst NICHT die Werte von verschiedenen Herstellern 1:1 übernehmen. Ein anderer Lüft, ein anderes BIOS, andere Spannungen, andere Taktraten und andere Ergebnisse.
Du kannst NICHT sicher sein, das Testsamples mit Endkundenkarten identisch sind
Du kannst NICHT sicher sein, das der Stromverbrauch sich nicht verbessern lässt.
Du kannst NICHT sicher sein, das die Stromsparmodi korrekt arbeiten.

Und letzteres ist für mich ein Punkt, den es besonders zu beachten gilt. Selbst wenn ein Shrink keinerlei Ersparniss bringt, so sollte der idle verbrauch nicht deutlich höher sein.
Denn dann liegt etwas mit dem Stromsparmodus oder der Fertigung im argen.

Eggcake
2008-06-20, 18:10:25
Tust du dich so schwer beim verstehen? Ich sprach von Fakten, nicht von Spekulationen.

Du kannst NICHT die Werte von verschiedenen Herstellern 1:1 übernehmen. Ein anderer Lüft, ein anderes BIOS, andere Spannungen, andere Taktraten und andere Ergebnisse.
Du kannst NICHT sicher sein, das Testsamples mit Endkundenkarten identisch sind
Du kannst NICHT sicher sein, das der Stromverbrauch sich nicht verbessern lässt.
Du kannst NICHT sicher sein, das die Stromsparmodi korrekt arbeiten.

Und letzteres ist für mich ein Punkt, den es besonders zu beachten gilt. Selbst wenn ein Shrink keinerlei Ersparniss bringt, so sollte der idle verbrauch nicht deutlich höher sein.
Denn dann liegt etwas mit dem Stromsparmodus oder der Fertigung im argen.

Versteh allerdings nicht, was daran merkwürdig sein soll, wenn eine GTX+ (mit standardmässig höherer Taktung) mehr verbraucht als eine normale GTX, Shrink hin oder her.

Schlammsau
2008-06-20, 18:14:57
Versteh allerdings nicht, was daran merkwürdig sein soll, wenn eine GTX+ (mit standardmässig höherer Taktung) mehr verbraucht als eine normale GTX, Shrink hin oder her.

Dito

Gast
2008-06-20, 18:16:01
Versteh allerdings nicht, was daran merkwürdig sein soll, wenn eine GTX+ (mit standardmässig höherer Taktung) mehr verbraucht als eine normale GTX, Shrink hin oder her.

Daran ist gar nichts ungewöhnlich.
Andere Frage: Warum im idle auch?

Ein Test reicht mir da bei weitem nicht. Da ist zu viel Streuung drin. Zwischen verschiedenen Herstellern (fehlerhafte BIOSse, andere Lüfter, andere Spannungen etc). Ich verlasse mich da nicht drauf und tue gut daran. Wie das Beispiel ATI zeigt und auch schon in der Vergangenheit, ist manchmal der Stromsparmodus nicht funktionsfähig. oder die Lüftersteuerung.

Ich hät da gern einen Artikel der 2-4 Wochen nach Release mit Karten aus dem Handel gemacht wurde.

Eggcake
2008-06-20, 18:18:34
Warum sollte sie im idle plötzlich weniger verbrauchen als die normale GTX?! Hat doch nach wie vor keinen Stromsparmechanismus, oder habe ich das überlesen?!

Schlammsau
2008-06-20, 18:19:36
Warum sollte sie im idle plötzlich weniger verbrauchen als die normale GTX?! Hat doch nach wie vor keinen Stromsparmechanismus, oder habe ich das überlesen?!

es ist nur ein geshrinkter DIE mit ein paar Mhz mehr, sonst wurde nichts an der Karte geändert!

Gast
2008-06-20, 18:21:12
Warum sollte sie im idle plötzlich weniger verbrauchen als die normale GTX?!

Das ist nicht die Frage, die ich stelle.
Die Frage ist, warum liegt sie nicht zumindest auf gleichem Niveau.

Hat doch nach wie vor keinen Stromsparmechanismus, oder habe ich das überlesen?!

Taktraten absenken ist immer möglich, wenn korrekt implentiert.
Und wenn nun die Idle Taktraten die selben sind, warum sollte dann die 55nm Version mehr frissen als 65nm? (Logikfrage).
Das kann nur daran liegen, das a) die Fertigung noch nicht optimal ist (Leckströme), das lässt sich verbessern oder b) etwas nicht korrekt funktioniert.

Schlammsau
2008-06-20, 18:23:23
Das ist nicht die Frage, die ich stelle.
Die Frage ist, warum liegt sie nicht zumindest auf gleichem Niveau.



Taktraten absenken ist immer möglich, wenn korrekt implentiert.
Und wenn nun die Idle Taktraten die selben sind, warum sollte dann die 55nm Version mehr frissen als 65nm? (Logikfrage).
Das kann nur daran liegen, das a) die Fertigung noch nicht optimal ist (Leckströme), das lässt sich verbessern oder b) etwas nicht korrekt funktioniert.

Bei der alten GTX gibt es keine Taktratensenkung, geschweige den Spannungssenkung! Warum sollte das der G92+ nun haben?

Gast
2008-06-20, 18:26:43
Bei der alten GTX gibt es keine Taktratensenkung, geschweige den Spannungssenkung! Warum sollte das der G92+ nun haben?

Du hast mich immer noch nicht verstanden.
Das braucht er doch gerade nicht haben. Es reicht, wenn er auf gleichem Niveau bleibt, dann müsste der Verbrauch auch auf gleichem Niveau bleiben.

Und das tut er auch, weil wir da etwas durcheinander gebracht haben:
http://www.hardware.fr/medias/photos_news/00/23/IMG0023593.gif

Das da oben war übrigens ein PERFORMANCE-Rating, nix Verbrauch. ;)
SO stimmt alles. Der Verbrauch ist nicht höher, aber die Performance.

Eggcake
2008-06-20, 18:28:19
Sorry, aber ich verstehe echt nicht was deine Frage soll.
Angenommen der Die-Shrink trägt nix zum Stromverbrauch bei...
GTX --> geringere Taktrate --> weniger Strom
GTX+ --> höhere Taktrate --> mehr Strom

Ob idle oder nicht ist vollkommen egal. Und bei nVidia gibts sowas wie einen "Idle-Modus" nicht.

Gast
2008-06-20, 18:29:08
Eggcake.

Les meinen letzten Beitrag nochmal.

SO stimmts:
http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Und damit hatte ich ja auch gerechnet. Das andere Diagramm war was ganz anderes.

Gast
2008-06-20, 20:54:54
Das ist nicht die Frage, die ich stelle.
Die Frage ist, warum liegt sie nicht zumindest auf gleichem Niveau.



kleinerer fertigungsprozess -> höhere leckströme -> höherer idle-verbrauch bei gleicher spannung.

AnarchX
2008-06-21, 09:43:22
http://img80.imageshack.us/img80/5263/20080621b77d39f02d0b153of3.jpg
http://img80.imageshack.us/img80/8910/20080621c1f569d14eb57c2kp6.jpg
http://img80.imageshack.us/img80/5516/20080621ce635fb398f5b68dv0.jpg

Spasstiger
2008-06-21, 09:58:41
kleinerer fertigungsprozess -> höhere leckströme -> höherer idle-verbrauch bei gleicher spannung.
Leckströme scheint man bei den momentanen Dieshrinks gut im Griff zu haben.

Die Taktraten für die 9800 GTX+ aus der Folie oben sind aber nicht wirklich spannend, vernachlässigbar gegenüber der jetzigen 9800 GTX.

Trap
2008-06-21, 09:58:51
Super, Balkendiagramme mit einer 0.8-1.8 Skala, der echte Vorsprung hat denen wohl nicht gereicht, da macht man die Balken einfach per Diagramm-Trick größer...

AnarchX
2008-06-21, 10:03:55
Die Taktraten für die 9800 GTX+ aus der Folie oben sind aber nicht wirklich spannend, vernachlässigbar gegenüber der jetzigen 9800 GTX.
Werden unabhängige OC-Tests zeigen müssen, ob G92B mehr Potential hat.

Wenn man daran denkt, dass NV Anfang 2007 mal eine Shaderdomain von 2.4-2.6GHz für G92 angedacht hatte.;D

reunion
2008-06-21, 10:20:25
Super, Balkendiagramme mit einer 0.8-1.8 Skala, der echte Vorsprung hat denen wohl nicht gereicht, da macht man die Balken einfach per Diagramm-Trick größer...

Vorallem keine Angabe zur verwendeten Auflösung, Details, Qualitätsfeatures, etc. - einfach nur nichtssagende Balken.

dargo
2008-06-21, 10:25:06
Ich hätte mal eine Frage zu PhysX (imho das interessanteste an den neuen GPUs). Wie sieht es eigendlich aus der AMD-Richtung aus? Hat AMD Interesse an der Unterstützung von PhysX? Wenn nicht hat das Ding kaum eine Zukunft was ich sehr schade fände. :(

AnarchX
2008-06-21, 10:26:20
Ich hätte mal eine Frage zu PhysX (imho das interessanteste an den neuen GPUs). Wie sieht es eigendlich aus der AMD-Richtung aus? Hat AMD Interesse an der Unterstützung von PhysX? Wenn nicht hat das Ding kaum eine Zukunft was ich sehr schade fände. :(
Sieht wohl schlecht aus:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421112
Die GPU-Unterstützung für Havok darf man aber wohl erst gegen Ende des Jahres erwarten.

Langfristig wird es wohl eh auf den Compute Shader in D3D11 hinauslaufen, welchen der Entwickler direkt nutzen kann.

dargo
2008-06-21, 10:30:44
Sieht wohl schlecht aus:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=421112
Die GPU-Unterstützung für Havok darf man aber wohl erst gegen Ende des Jahres erwarten.

Langfristig wird es wohl eh auf den Compute Shader in D3D11 hinauslaufen, welchen der Entwickler direkt nutzen kann.
Na super. :(
Tolle Ideen, und nur weil sich die 2 oder gar 3 Großen nicht auf einen Standard einigen können kann man diese Ideen, zumindest kurzfristig in die Tonne kloppen.

AnarchX
2008-06-21, 10:36:57
Ein gewisser Trost wäre ja noch, wenn man sich dann halt zu seiner ATi-Hauptgraka eine 9500GT oder ähnliches für PhysX einbauen könnte. ;)

Gast
2008-06-21, 10:38:18
Hat doch damit erstmal nichts zu tun, es gibt nur 2 bekannte kommerzielle Physik Software Engines für Spiele. Selbstgebastelte mal außen vor, ist das schon seit Jahren so. Nun wurden beide aufgekauft und nV hat eben Gas in diesem Bereich gegeben.
Das ein Standard im Bereich Physik Berechnungen kommt, halte ich für verkehrt. Wieder ein Softwaresegment das in DX eingebuttert wird und wie beim Sound ist man M$ ausgeliefert...

Schade das die PS3 nur ein G70 drin hat, sonst würde sie wohl auch davon profitieren können, aber evtl kann die Box von AMDs Entwicklung profitieren, da Xenon ja unified ist.

pXe
2008-06-21, 11:41:34
10.5 inch Länge? Das ist 0.1 mehr als eine GTX260/GTX280.

pXe

AnarchX
2008-06-21, 11:42:27
10.5 inch Länge? Das ist 0.1 mehr als eine GTX260/GTX280.

Nein, die GTX 200 sind auch 10.5" lang.

reunion
2008-06-21, 11:49:06
Hm, ich frage mich wie nV das GT200-Design in die anderen Märkte bringen will. Schon die 9800GTX+ liegt verdammt nah an der GTX260 und ist erheblich sparsamer was den Transistorenaufwand betrifft. Selbst ein halber GT200 wäre da deutlich zu wenig als Ersatz. Da muss man wohl mindestens bis 45/40nm warten, bis man die G9x-Serie ersetzen kann.

Gast
2008-06-21, 14:32:30
Hm, ich frage mich wie nV das GT200-Design in die anderen Märkte bringen will. Schon die 9800GTX+ liegt verdammt nah an der GTX260 und ist erheblich sparsamer was den Transistorenaufwand betrifft. Selbst ein halber GT200 wäre da deutlich zu wenig als Ersatz. Da muss man wohl mindestens bis 45/40nm warten, bis man die G9x-Serie ersetzen kann.
Schau mal auf die Taktraten von 9800 GTX(+) und GTX 2x0. Wenn Nvidia auf G200-Basis einen neuen CHip macht, wird der natürlich erstmal ein bißchen kleiner geraten und dann legen auch die Takte wieder zu. Das verringert gleichzeitig andere Bottlenecks im Chip (Setup usw.), sodass ein ähnlicher Effekt wie bei G92 vs G94 auftreten kann.

Ein hoch getakteter G200 minus X mit ~800-900M Transistoren in 55nm dürfte locker über der Performance der 9800 GTX liegen. Man würde nur die GTX260 damit beginnen zu kannibalisieren.

Gast
2008-06-22, 03:25:42
kleinerer fertigungsprozess -> höhere leckströme -> höherer idle-verbrauch bei gleicher spannung.

Gast, das stimmt eben nicht mehr. Die Leckströme habe ich selbst schon erwähnt habt, aber das wars am Ende doch nicht.

Wie du festgestellt haben solltest, war die Diskussion zuvor einem Irrtum aufgesessen. Die andere Grafik war ein Performance-Rating. Kein Verbrauchsrating.
Da die Werte aber zum verwechseln ähnlich waren (60-130), ist den meisten das hier nicht aufgefallen.

Den neuen Link kannst du entnehmen, das der Verbrauch der neuen GTX v2 NICHT höher ist als die der alten - trotz höheren Taktraten. Sind sind praktisch auf einem Niveau.
Es ist also alles paletti und offenbar bringt dieser neue Prozess doch Einsparungen. Die andere Performance-Grafik wies aber das Gegenteil auf, logo, weil sie eine höhere Performance und keinen höheren Verbrauch schilderte. ;)

dildo4u
2008-06-22, 16:31:57
Overclocking The NVIDIA GeForce 9800 GTX+(55nm/G92) Video Card

http://s8.directupload.net/images/080622/8t3oj7dp.jpg

With the new 55nm core the default clock speeds on the core and shaders are higher, but the memory cock frequency remains the same. The question that many are wanting to know is how far can this core go with the new die shrink. It seems some are expecting the die shrink to really raise the bar! The highest settings we could get stable with the GeForce 9800 GTX+ were 855MHz on the core and 2200MHz on the shaders. That is 55MHz higher on the core and 175MHz higher on the shaders than what we could reach on the old 65nm G92 core. For those that like percentages the overclock is roughly 6% higher on the core and 8% more on the shaders, which is significant, but nothing over the top. Usually with die shrinks overclocking performance stays close to the same, even more so when no major architecture changes are made.


It should be noted that the memory overclocked better on the GeForce 9800 GTX+ and it seems NVIDIA has moved over to Hynix branded GDDR3 memory ICs. The GDDR3 memory IC's on the new GeForce 9800 GTX+ card were Hynix H5RS5223CFR-N2C, which are rated 1200 MHz (GDDR3-2400) 0.8NS with 1.5V. These are the same memory IC's that were found on the GeForce GTX 280 cards we reviewed last week.

The core on the GeForce 9800 GTX+ does overclock better than the original GeForce 9800 GTX cards and to top it off it has different branded GDDR3 memory that also overclocks better!


http://www.legitreviews.com/article/732/1/

Winter[Raven]
2008-06-22, 16:37:40
Das könnte wirklich eine überlegung sein für meinen dritten PC :)

LovesuckZ
2008-06-22, 16:39:07
Schon heftig, wenn man überlegt, dass man mit ca. 400 Millionen vergeudeten GPCPU Zeug mehr hätte machen können...

dargo
2008-06-22, 16:42:17
Schon heftig, wenn man überlegt, dass man mit ca. 400 Millionen vergeudeten GPCPU Zeug mehr hätte machen können...
Was ist denn daran heftig? Das OC? Finde ich für 55nm schon fast peinlich. Ich übertakte einen 90nm G80 um fast 20%, und das ist noch nicht mal das Limit.

Superheld
2008-06-22, 18:30:31
LovesuckZ meint glaub den g200:confused:

Eggcake
2008-06-22, 19:20:19
Was ist denn daran heftig? Das OC? Finde ich für 55nm schon fast peinlich. Ich übertakte einen 90nm G80 um fast 20%, und das ist noch nicht mal das Limit.

Jop...die Frage ist wie nah am Limit die 9800 GTX+ tatsächlich ist mit den erhöhten Taktraten. Wenns einfach schon von nVidia aus höher getaktet wird, ohne dass der Chip wirklich "leistungsfähiger" ist, dann kommt logischerweise auch weniger OC dabei raus.

Meinen G80 übertakte ich z.B. auch problemlos auf 621 Core oder noch mehr. Das ist rund 20% mehr...
Hab jetzt keinen direkten Vergleich zur normalen 9800 GTX, aber "speziell" finde ich das nun auch nicht...

Gast
2008-06-22, 19:58:28
Hm, ich frage mich wie nV das GT200-Design in die anderen Märkte bringen will. Schon die 9800GTX+ liegt verdammt nah an der GTX260 und ist erheblich sparsamer was den Transistorenaufwand betrifft. Selbst ein halber GT200 wäre da deutlich zu wenig als Ersatz. Da muss man wohl mindestens bis 45/40nm warten, bis man die G9x-Serie ersetzen kann.

ich tippe darauf, dass man G92b weiter laufen lässt (evtl. wieder ne umbenennung)

kleinere G200 machen eigentlich keinen sinn, da wie schon gesagt G92 gut ins preissegment passt und rev B kompakt zu fertigen ist

mike49
2008-06-22, 23:11:31
Overclocking The NVIDIA GeForce 9800 GTX+(55nm/G92) Video Card

http://s8.directupload.net/images/080622/8t3oj7dp.jpg

http://www.legitreviews.com/article/732/1/
Die jetzt bitte noch mit 1GB von dem neuen Hynix Speicher und ich habe meine neue Karte!

Gast
2008-06-23, 01:14:34
hALLO; wann wird es die 9800 GTX+ denn hier bei uns zu kaufen geben und zu welchem Preis, weiss man das schon? Danke!!!

Gast
2008-06-23, 12:45:39
hALLO; wann wird es die 9800 GTX+ denn hier bei uns zu kaufen geben und zu welchem Preis, weiss man das schon? Danke!!!Für 199$, also etwa um die 150€. Bzw preislich neben der 4850 angeordnet.

Wann würde mich jedoch auch interessieren, übertaktet scheint das Ding ja grade ein Monster zu werden:)

Eggcake
2008-06-23, 12:47:42
Für 199$, also etwa um die 150€. Bzw preislich neben der 4850 angeordnet.

Wann würde mich jedoch auch interessieren, übertaktet scheint das Ding ja grade ein Monster zu werden:)

Laut den ersten Tests wird sie nicht grad das Übertaktungsmonster. Angegeben wurden 8-12% Übertaktungspotential.

dildo4u
2008-06-23, 12:52:07
Hardspell 55nm 9800GTX+ review

http://en.hardspell.com/doc/showcont.asp?news_id=3610

Inno 3D Pressetext zur 9800GTX+

http://www.inno3d.com/press/press_21_6_08_9800gtx_plus.html

Superheld
2008-06-23, 13:07:10
die haben da auch nur Müll gebencht:cool:

Gast
2008-06-23, 13:16:14
Was hat es mit der "HybridPower Technology" zu tun?
Wenn man eine Onboard hat, das diese dann im Desktopbetrieb bzw. da wo keine Power gebraucht wird einspringt und die 9800GTX dann einspringt wenn Power enötigt wird?!?!

dargo
2008-06-23, 14:14:20
Für 199$, also etwa um die 150€. Bzw preislich neben der 4850 angeordnet.

Die G9800GTX+ soll afaik eine UVP von 229$ haben. Bei uns also ca. 160-170€.

Schlammsau
2008-06-23, 14:29:14
Die G9800GTX+ soll afaik eine UVP von 229$ haben. Bei uns also ca. 160-170€.

Stimmt, die alte 9800GTX liegt jetzt bei 199$! Trotzdem im Handel erst ab 170€.....

Unyu
2008-06-23, 14:43:40
Dann warte mal eine Woche.

Gast
2008-06-23, 14:49:50
Dann warte mal eine Woche.
Sehe ich auch so, erstmal abwarten. Das Ding wird sich 100pro auf den Preis einer 4850 einpendeln. Etwas mehr etwas weniger amcht den braten nciht fetter. (sowie Dargos Post überflüssig war)
Fest steht, dass das Ding einfach zum Spotpreis zu haben ist (sowie die 4850) bzw. sein wird.
Und sowie NV die letzten Monate mit den Preisen umging, kann man sogar von einem niedirgeren Preis ausgehen. Zumindest bis spätestens Spätsommer wird das Ding für einen kleineren Preis einer 4850 zuhaben sein, davon bin ich überzeugt!

dildo4u
2008-06-23, 15:11:54
NVIDIA 9800 GTX+(SLI) The plus means better!

http://www.bjorn3d.com/read.php?cID=1297

LovesuckZ
2008-06-23, 18:04:32
Was hat es mit der "HybridPower Technology" zu tun?
Wenn man eine Onboard hat, das diese dann im Desktopbetrieb bzw. da wo keine Power gebraucht wird einspringt und die 9800GTX dann einspringt wenn Power enötigt wird?!?!

Fast richtig: Für Hybrid-Power benötigst du ein nVidia-Board mit mGPU (motherboard GPU). Beim Idlen wird dann die 9800GTX(+) komplett deaktiviert und die Ausgabe läuft über die mGPU. Sollte man die Power der 9800GTX(+) benötigen, wird sie wieder aktiviert und gibt über die mGPU dann das Bild aus.
Kostet ein paar % Leistung, senkt aber bis auf ca. 3 Watt komplett den IDLE Verbrauch. Vorallen bei SLI kann man dann zwei, drei Karten komplett abschalten und stromsparen.

Gast
2008-06-23, 18:08:12
Hybrid Power ist allerdings ein exklusives Windows Vista Feature und der Grundverbrauch von Nvidia-Chipsätzen ist auch immer noch etwas höher, als bei der Konkurrenz. Ansonsten stimmt es soweit. :)

LovesuckZ
2008-06-23, 18:13:02
Hybrid Power ist allerdings ein exklusives Windows Vista Feature und der Grundverbrauch von Nvidia-Chipsätzen ist auch immer noch etwas höher, als bei der Konkurrenz. Ansonsten stimmt es soweit. :)

Ja, Vista ist pflicht. Und der Stromverbrauch ist nur bei den 7xx so hoch. Die 8200/8300 Boards sind dagegen sehr gut vom Verbrauch und bieten sogar meisten einen analogen und digitalen Ausgang.

Gast
2008-06-23, 20:28:09
Hybrid Power ist allerdings ein exklusives Windows Vista Feature und der Grundverbrauch von Nvidia-Chipsätzen ist auch immer noch etwas höher, als bei der Konkurrenz.

überhaupt nicht, je nach mainboard oft sogar geringfügig geringer als vom AMD780G.

davidzo
2008-06-23, 20:54:10
nvidia sbs und highendchipsätze sind schon ganzschöne stromschleudern. aber die IGPs sind vom Stromverbrquch spitze!

Und der Stromverbrauch ist nur bei den 7xx so hoch.
Das klingt jetzt so als währen die Geforce7 IGPs stromfresser. In der tat sind sie allerdings noch einiges sparsamer als die 8200/9300. Insbesondere die geforce 7050 ist wohl der stromsparchip schlechthin, unter energiesparfetischisten wird der auch für amd klar dem 690g und 780g vorgezogen. Man verwechselt das leicht, aber diese chips basieren auf nf610 und 630a.
Die stromfressenden Beispiele die du meinst beschränken sich abe rnicht nur auf nf790i, 780i, 750, sondern durch die bank runter über 680i bis zum nf4i. Alle diskreten nvidiachipsätze seit nf4i verbrauchen horrend viel strom.
Selbst mein 650i, welcher auf einer eigentlich noch recht modernen northbridge basiert, verschleudert unnötig viel mehr strom als ein vergleichbarer p35. davor hatte ich einen nf4i SLI (identisch zum X 16 SLI) und der war ohne aufwändige zusatzkühlung nichteinmal zu längerem stabilen Betrieb als 15min bei vollast zu überreden.

Mit den IGPs sieht das gänzlich anders aus. Scheint so als setze nvidia klar prioritäten und energiesparen ist bei den diskreten chipsätzen nicht auf der Liste.

dildo4u
2008-06-25, 10:09:38
Computerbase Test der 9800GTX+(SLI)


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/8/

dildo4u
2008-07-11, 13:00:59
Zotac GeForce 9800 GTX AMP! Graphics Card Review: Faster, Much Faster

http://www.xbitlabs.com/articles/video/display/zotac-gf9800gtx-amp.html

Gast
2008-07-11, 14:51:09
Was ist eigentlich mit der GTX+, sollte es die nicht längst schon geben? :confused:

Super Grobi
2008-07-11, 14:59:37
Zotac GeForce 9800 GTX AMP! Graphics Card Review: Faster, Much Faster

http://www.xbitlabs.com/articles/video/display/zotac-gf9800gtx-amp.html

Da muss man schon ein NV Freund sein, wenn man sich die Karte holt. Wenn ich mir die Ergebnisse der mitgetesteten 4850 angucken... Die kleine Ati ist so nah dran, das man im RL wohl kein Unterschied spüren wird.

Das ganze wäre nicht so wild, wenn der Preis gleich wäre, aber dem ist ja nicht so.

SG

Gast
2008-07-11, 15:14:21
Wieso? Man bekommt eine sichtbar bessere Bildqualität und einen vernünftigen Kühler ohne Hochofentemperaturen. Wäre mir ein paar Euro Aufpreis wert.

LovesuckZ
2008-07-12, 01:51:03
Da muss man schon ein NV Freund sein, wenn man sich die Karte holt. Wenn ich mir die Ergebnisse der mitgetesteten 4850 angucken... Die kleine Ati ist so nah dran, das man im RL wohl kein Unterschied spüren wird.

Das ganze wäre nicht so wild, wenn der Preis gleich wäre, aber dem ist ja nicht so.

SG

Man muss kein nVidia Freund sein, wenn man Bildqualität haben will. Da der Stromverbrauch seit fast einem Monat sowieso keine Rolle mehr spielt, ist er nichtmal mehr ein Nachteil - wie sich die Zeiten ändern. ;D
Abgesehen davon, scheint sich langsam der Preis nach unten zu entwickeln:
Die normale 9800GTX liegt jetzt bei 159€ und die AMP! von Zotac bei 169€ bei Alternate (http://www.alternate.de/html/product/details.html?artno=JBXTK2).

Gast
2008-07-12, 02:05:54
Man muss kein nVidia Freund sein, wenn man Bildqualität haben will. Da der Stromverbrauch seit fast einem Monat sowieso keine Rolle mehr spielt, ist er nichtmal mehr ein Nachteil - wie sich die Zeiten ändern. ;D
Abgesehen davon, scheint sich langsam der Preis nach unten zu entwickeln:
Die normale 9800GTX liegt jetzt bei 159€ und die AMP! von Zotac bei 169€ bei Alternate (http://www.alternate.de/html/product/details.html?artno=JBXTK2).

Video Ram Bug beim G92 schon vergessen?