PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GTS 512MB: (P)Review-Thread


Seiten : 1 2 3 [4]

ShinyMcShine
2008-01-03, 14:13:44
Mit dem neuen G92-Referenzkühler siehts auch deutlich besser aus, was die Temps angeht.

Hat die GTS jetzt auch einen anderen Referenzkühler? :confused:

rotanat
2008-01-03, 14:19:54
Evtl. sind in den Grafikkarten-BIOSen verschiedene Lüftersteuerungen hinterlegt?
Bei meiner 8800GTS (mit 169.21er Treiber) dreht der Lüfter ja "nur" mit knapp 30% trotz 74°C im Idle-Modus.
Ich hatte auch noch nie ein Hochdrehen des Lüfters auf 100% (wenn man vom Booten des PCs absieht :smile:). Selbst bei meiner bisherigen Maximaltemperatur von 84°C blieb der Lüfter unter 40%. 90°C habe ich bisher noch nie erreicht.
Mich wundert das geringe Temperaturdelta zwischen Idle und Load meiner Zotac 8800GTS schon ein wenig (73 vs. 84°C).

Meine Zotac regelt da deutlich anders. Zunächsteinmal dreht der Lüfter mit 36% default bis ca. 82 Grad, also er regelt tempabhängig auch im Idle, sprich ob 60 oder 80 Grad im Idle ist ihm völlig egal. In meinem Gehäuse habe ich einen kleinen leisen 1 Watt Gehäselüfter von vorne direkt auf die Karte draufblasen, das ergibt bei Standard eine Idle-Temp von 62-64 Grad. Unter Last steigt die Drehzahl recht "stufenlos" auf 42% an und hält die Karte damit auf ca. 86 Grad.
Ich habe nun mit Rivatuner mal etwas gespielt und hab nun folgende Ergebnisse: Hab den Idlezustand auf 42% hochgesetzt - macht jetzt 57 Grad Idle. Dann habe ich eingestellt das der Lüfter etwas schneller hochregelt und bin nun bei 56% bei ca. 72-75 Grad. Bis 60% find ich den Lüfter noch sehr leise. Aber auch Standardtechnisch scheint die Regelung recht gut zu greifen.

ShinyMcShine
2008-01-03, 14:22:20
Wohl bis ca 110 Grad hab ich irgendwo mal gelesen, aber kühler ist natürlich immer besser.

War bei mir ja auch nur kurzfristig über 100°C.
Schon krass... Kannst echt Spiegeleier drauf braten.
Der G92 verträgt übrigens noch mehr:
http://www.anandtech.com/video/showdoc.aspx?i=3165&p=4
Stabiler Betrieb bei 111°C. Und da muss ja auch noch Luft sein, sonst würde die passive Karte früher oder später Probleme machen.
Hat noch jemand Informationen, ab wieviel °C sich der G92 automatisch heruntertaktet?

vinacis_vivids
2008-01-03, 16:18:53
Wohl bis ca 110 Grad hab ich irgendwo mal gelesen, aber kühler ist natürlich immer besser. Mit dem neuen G92-Referenzkühler siehts auch deutlich besser aus, was die Temps angeht.

Hab jetzt für 289 € ne 1 GB Version bestellt. Was soll man machen?! Ich hab das Geld halt gerade über... ;(

Wie wärs mit nem 30" Monitor damit man vielleicht auch mal ein kleines bischen davon profitiert?

mapel110
2008-01-03, 16:27:57
Wie wärs mit nem 30" Monitor damit man vielleicht auch mal ein kleines bischen davon profitiert?
Warum soll ich für 30 € weniger auf 512 MB VRam verzichten?!
Außerdem gibts auch 8xAA und 32xS :)
Hab ja auch noch nen 21" CRT hier stehen, den ich bissl treten könnte Richtung 2048er Auflösung bei iirc 72 hz ^^

Ati75
2008-01-03, 17:45:11
Bezüglich der Lüfterregelung. Ich hab mir mal diesen (http://www.mvktech.net/component/option,com_joomlaboard/Itemid,34/func,view/id,47741/catid,13/) Thread angeschaut und mir ein eigenes Bios "gebastelt". Mit dem Originalbios hatte ich auch die hier üblichen Temperaturen, bei Vollast so um die 85-90 Grad. Jetzt sinds etwa 10 Grad weniger. Ich habe mir aber wie gesagt eigene Werte eingetragen. Das Bios was in dem genannten Thread zum Download angeboten wird war mir zu "laut". Die Temps waren aber unter Vollast bei etwa 65 Grad. Der Lüfter war mir aber einfach zu laut. Hab mir mein Original-Bios angeschaut, und einfach Mittelwerte genommen und entsprechend abgeändert. Funktioniert wunderbar.

Leider kann Rivatuner bei meiner Gigabyte 8800GTS(G92) lediglich den Reference Fan Duty Cycle auslesen, welcher konstant bei 100% ist. Kann euch also nicht sagen wie schnell der Lüfter dreht. Er dreht aber auf jeden Fall mal schneller als es im Urzustand der Fall war, aber immer noch sehr leise. Getaktet hab ich meine auf 730/1825/2000, und wie gesagt unter Vollast (Crysis, AtiTool, COD4 etc.) maximal 78 Grad.

Edit : Ich seh grad, dass ich eigentlich nix anderes gemacht hab wie rotanat, nur halt im Bios fest verankert.

Edit 2 : Es gibt ne neue Version von NiBiTor. Jetzt kann man auch die Lüftersteuerung verändern :). Hier (http://www.mvktech.net/component/option,com_remository/Itemid,26/func,selectfolder/cat,92/page,4/) gibts den Download...

Hakim
2008-01-05, 14:05:00
wann kommen den endlich GTS Modelle mit 1 GB?? Am liebsten noch mit schnelleren Ram.

AnarchX
2008-01-05, 14:14:26
wann kommen den endlich GTS Modelle mit 1 GB?? Am liebsten noch mit schnelleren Ram.

Die kann man sich dann wohl Ende Februar als 9800 GTX kaufen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419
;)

ShinyMcShine
2008-01-05, 17:36:06
Die kann man sich dann wohl Ende Februar als 9800 GTX kaufen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=395419
;)

Jupp! Ich denke auch nicht, dass da noch was kommt vor den neuen 9000er Karten...

carcass
2008-01-07, 20:46:31
Auf ebug gibts die GTS jetzt für 285€ lieferbar. Zuschlagen?

Raff
2008-01-07, 21:15:48
Nice. Ja, zuschlagen. Wer maximal 4x MSAA nutzt, wird damit sehr glücklich.

MfG,
Raff

ShinyMcShine
2008-01-08, 19:02:46
Die neue GTS zeigt jetzt deutliche Spuren bei den Händlern:
350€ für ne alte GTX:

http://www.alternate.de/html/shop/productDetails.html?artno=JBXXG1&baseId=14306

Byteschlumpf
2008-01-08, 19:15:44
Die neue GTS zeigt jetzt deutliche Spuren bei den Händlern:
350€ für ne alte GTX:

http://www.alternate.de/html/shop/productDetails.html?artno=JBXXG1&baseId=14306
Mit der guten alten GTX macht man sicher nix falsch - für den Preis! :D

Raff
2008-01-08, 19:28:52
Die gibt's seit nun mehr zwei Wochen für 350€. Absolut fair ... nach Jahren der Extrempreise.

MfG,
Raff

vinacis_vivids
2008-01-08, 19:30:52
Die gibt's seit nun mehr zwei Wochen für 350€. Absolut fair ... nach Jahren der Extrempreise.

MfG,
Raff

350,- € sind trotzdem ne menge Holz.

ShinyMcShine
2008-01-08, 19:32:06
Habe dann vor Weihnachten trotzdem zur G92-GTS gegriffen, da 50€ billiger und bei meinem 19" TFT mit 1280x1024 dürfte ich da vorerst wohl keinen Leistungsunterschied bemerken. Da haben mir dann der günstigere Preis + die anderen G92-Vorzüge mehr zugesagt.

vinacis_vivids
2008-01-08, 19:36:20
Habe dann vor Weihnachten trotzdem zur G92-GTS gegriffen, da 50€ billiger und bei meinem 19" TFT mit 1280x1024 dürfte ich da vorerst wohl keinen Leistungsunterschied bemerken. Da haben mir dann der günstigere Preis + die anderen G92-Vorzüge mehr zugesagt.

Bei der Auflösung hätte die G92-GT es auch getan.

dargo
2008-01-08, 19:41:18
350,- € sind trotzdem ne menge Holz.
Hängt vom Gehaltsscheck ab. Für jemanden mit zb. ~50000€ Jahresgehalt ist das wohl eher weniger Holz. ;)

LovesuckZ
2008-01-08, 19:43:34
Die gibt's seit nun mehr zwei Wochen für 350€. Absolut fair ... nach Jahren der Extrempreise.

MfG,
Raff

Aha. 500€ sind also "Extrempreise". :rolleyes:

Mr. Lolman
2008-01-08, 20:02:47
Für jemanden mit zb. ~50000€ Jahresgehalt ist das wohl eher weniger Holz. ;)

Also für die Meisten hier wohl ne Menge Holz ;)

ShinyMcShine
2008-01-08, 20:21:23
Bei der Auflösung hätte die G92-GT es auch getan.

Wenn man denn eine zu einem vernünftigen Preis bekommen hätte. :) Ging wohl vielen so, dass sie auf 'ne GT nicht mehr warten wollten.
Darüber hinaus wollte ich eine Grafikkarte mit Dualslotkühler.

huw11
2008-01-08, 20:40:27
Ich kann bei einem kleinen Händler hier um die Ecke, eine Gainward Bliss 8800GTS 512 G92 für 283,- Euro haben, werde wohl so unvernünftig sein und mir das Ding schnappen.:ucrazy3:

dargo
2008-01-08, 20:56:36
183€ für die G8800GTS 512? Hat der kleine Händler nicht noch eine für mich? :D

Byteschlumpf
2008-01-08, 20:58:08
Ich kann bei einem kleinen Händler hier um die Ecke, eine Gainward Bliss 8800GTS 512 G92 für 183,- Euro haben, werde wohl so unvernünftig sein und mir das Ding schnappen.:ucrazy3:
Wie sind bloß Preisspannen von über 100€ möglich? :crazy:
Und das beim kleinen PC-Laden um die Ecke, wo eine solche Karte schnell mal 400€ kostet! :ucrazy4:

ShinyMcShine
2008-01-08, 21:01:33
Ich kann bei einem kleinen Händler hier um die Ecke, eine Gainward Bliss 8800GTS 512 G92 für 183,- Euro haben, werde wohl so unvernünftig sein und mir das Ding schnappen.:ucrazy3:

Wie geht denn das?

Byteschlumpf
2008-01-08, 21:03:18
Wie geht denn das?
Bei meinem kleinen Händler kostet eine 8800GTS 512MB satte 399€ und eine GT 299€! :(

Raff
2008-01-08, 21:23:02
Aha. 500€ sind also "Extrempreise". :rolleyes:

Ja. Weil sie ein Jahr anhielten.

MfG,
Raff

carcass
2008-01-08, 21:24:23
Es ist zur Zeit wirklich eine Katastrophe, ich kann mich einfach nicht entscheiden. Dazu kommen die ständig wechselnden Preise und die schlechte Verfügbarkeit. Also abwarten auf die neue Generation oder jetzt eine G92 GTS + Netzteil für 380€ kaufen. Mein Monitor macht 1680x1050 und ich will möglichst lang was von der neuen Graka haben. Andererseits wär eine GTX sicher auf lange sicht besser aber da kommen wieder 50€ drauf. Meine X800XL machts einfach nicht mehr, zumal ich vor einiger Zeit auf einen X2 5600+ und 4gig Ram aufgerüstet habe.

LovesuckZ
2008-01-08, 21:25:07
Ja. Weil sie ein Jahr anhielten.
MfG,
Raff

Warum sollten sehr gute Produkte nicht sehr preisstabil sein?

ShinyMcShine
2008-01-08, 21:25:14
Bei meinem kleinen Händler kostet eine 8800GTS 512MB satte 399€ und eine GT 299€! :(

Ich kann einen Preis von 183€ für eine G92-GTS auch nicht verstehen? Andere bieten zu dem Preis nicht mal 'ne 256MB-GT an. :confused:

Byteschlumpf
2008-01-08, 21:27:48
Ich kann einen Preis von 183€ für eine G92-GTS auch nicht verstehen? Andere bieten zu dem Preis nicht mal 'ne 256MB-GT an. :confused:
Mhhhh, wohl vom Laster gefallen! :usweet:

dargo
2008-01-08, 21:28:58
Ich kann einen Preis von 183€ für eine G92-GTS auch nicht verstehen? Andere bieten zu dem Preis nicht mal 'ne 256MB-GT an. :confused:
Sicher, dass es keine G8600GTS ist? :D Eventuell ein Shopfehler?

ShinyMcShine
2008-01-08, 21:32:16
Sicher, dass es keine G8600GTS ist? :D Eventuell ein Shopfehler?

Das könnte schon eher hinkommen! :biggrin: Alternate hat diese Karte für 170€ im Shop:

http://www.alternate.de/html/product/details.html?articleId=234889

huw11
2008-01-08, 21:54:52
Wie sind bloß Preisspannen von über 100€ möglich? :crazy:
Und das beim kleinen PC-Laden um die Ecke, wo eine solche Karte schnell mal 400€ kostet! :ucrazy4:

oh je, habs grad geändert, bin gerade wieder gekommen, guck mal eben ins Forum, und sehe das ich wirklich einen Traumpreis ;D hier rein geschrieben habe, tschudigung,:massa: ich hatte es eben eilig. Ich werde mir die Karte aber auch für 283,- Euro holen.

huw11
2008-01-08, 22:31:43
hoh.de hat jetzt eine GTS G92 für 279,90 Euro ;)

http://web.hoh.de/hoh/(S(nwgomz5532tuw0moxc3qj055))/default.aspx?TY=item&ST=1&IT=42427&CT=3574

Byteschlumpf
2008-01-09, 01:04:12
hoh.de hat jetzt eine GTS G92 für 279,90 Euro ;)

http://web.hoh.de/hoh/(S(nwgomz5532tuw0moxc3qj055))/default.aspx?TY=item&ST=1&IT=42427&CT=3574
Und die GTX gibt es schon ab 339,15€: http://geizhals.at/deutschland/a259454.html

huw11
2008-01-09, 08:44:27
Hat schon mal jemand irgend welche Test's oder Leitungsvergleiche von der aufgebohrten alten GTS G80 640mb mit 112 Shadern gesehen? Ich meine die hier - http://geizhals.at/deutschland/a293576.html

Würde mich mal interessieren, wie die so im Vergleich, gegen die normal GTS G80 und die neuen GT/GTS G92 abschneidet, besonders ob die 112 Shader in Verbindung mit der 320bit Speicheranbindung einen deutlichen Leistungsschub bringen.

Stormscud
2008-01-09, 08:45:59
Bei so einem Preis kribbelst mir aber schon ganz schön stark in den Fingern. Dabei hab ich mir doch geschworen erstmal nicht weiter aufzurüsten :redface:

Metalmaniac
2008-01-09, 10:53:22
Hat schon mal jemand irgend welche Test's oder Leitungsvergleiche von der aufgebohrten alten GTS G80 640mb mit 112 Shadern gesehen? Ich meine die hier - http://geizhals.at/deutschland/a293576.html

Würde mich mal interessieren, wie die so im Vergleich, gegen die normal GTS G80 und die neuen GT/GTS G92 abschneidet, besonders ob die 112 Shader in Verbindung mit der 320bit Speicheranbindung einen deutlichen Leistungsschub bringen.

Die Karte von XFX ist da noch besser, die hat nämlich einen Takt von 650Mhz statt deren 540Mhz dieser Karte. Kostete bei Alternate 299€, aber ich hatte vor 4 Wochen zu lange gezögert und dann "ward sie nie mehr gesehen" (äh lieferbar). Inzwischen ist sie ganz verschwunden und selbst bei geizhals ist auch nur eine "lahme" von XFX gelistet.

huw11
2008-01-09, 11:17:25
Die Karte von XFX ist da noch besser, die hat nämlich einen Takt von 650Mhz statt deren 540Mhz dieser Karte. Kostete bei Alternate 299€, aber ich hatte vor 4 Wochen zu lange gezögert und dann "ward sie nie mehr gesehen" (äh lieferbar). Inzwischen ist sie ganz verschwunden und selbst bei geizhals ist auch nur eine "lahme" von XFX gelistet.

hast du denn mal irgendwas über die Leistung der Karte gehört oder gelesen?

mario910
2008-01-09, 12:50:08
Mhhhh, wohl vom Laster gefallen! :usweet:
Kuckst Du hier:

Blaulichtreporter.de (http://www.blaulichtreporter.de)

Unter "Beute in Millionen".
Deswegen sind keine verfügbar! :P

:biggrin:

EDIT: siehe auch hier: Polizeipresse Kleve (http://www.presseportal.de/polizeipresse/pm/65849/1113501/kreispolizeibehoerde_kleve?search=kleve)

huw11
2008-01-09, 19:48:04
Da ich heute keine Zeit hatte, mir während der Öffnungszeiten die angesprochene Gainward Bliss 8800GTS 512mb beim Händler abzuholen, habe ich beim Händler angerufen und mir die Karte zurücklegen lassen. Es waren noch zwei Exemplare vorhanden und der Händler legt mir eine bis längsten Freitag Nachmittag zurück.
Ich hoffe das ich morgen dazu komme das Teil zu holen. :uroll:

Metalmaniac
2008-01-09, 22:47:15
hast du denn mal irgendwas über die Leistung der Karte gehört oder gelesen?

Hier gabs mal 'nen Test der EVGA (den Link habe ich aus einem anderen Thread hier im Forum:smile:):
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review-4.html

huw11
2008-01-10, 07:28:52
Hier gabs mal 'nen Test der EVGA (den Link habe ich aus einem anderen Thread hier im Forum:smile:):
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3173-evga-8800gts-640mb-w-112sps-ssc-edition-review-4.html

nicht schlecht, die 112 Shader machen der alten G80 GTS 640mb ja noch mal ganz schön Beine. Die ist ja in höheren Auflösungen durch weg schneller als die G92 GT, da fang ich ja echt an zu grübeln, ob die neue G92 GTS die ich mir zulegen will die richtige Wahl ist :uponder:
Das zeigt aber auch wieder, was noch mit der neuen G92 möglich gewesen wäre, hätte man nicht die Speicheranbindung auf 256bit gestutzt.

carcass
2008-01-10, 09:10:56
Ich hab jetzt eindlich bei Ebug bestellt bestellt (leider?). Ein OCZ Netzteil mit 600Watt und eine Leadtek GTS 8800. Die GTS kostet gerade nur 272€ :) den Preis find ich wirklich gut.

huw11
2008-01-10, 14:20:22
ich habe mir eben die Gainward Bliss 8800GTS 512mb beim Händler für 283,- Euro abgeholt, werd sie heute abend mal in Ruhe einbauen und testen. :uclap:
Meine alte GTS 640 stell' ich bei ebay rein, mal seh'n was die noch bringt, ich denke mal so um die 200,- Euro.

Deathcrush
2008-01-10, 14:35:43
Am besten mit Crysis ;) Da spürt man den Boost am meissten.

huw11
2008-01-10, 15:19:01
klar mit Crysis, wo mit sonst, ist halt im Moment das Maß aller Games :biggrin:

Um noch mal auf die neue Version der 8800GTS 640mb G80 mit 112 Shadern zurück zu kommen, das scheint wohl Glückssache zu sein ob man auch wirklich 112 Shader oder doch vielleicht nur 96 bekommt ;)
Hier eine Beschreibung von PC-King.de zu dieser Karte:

Die EVGA GF8800GTS+ basiert auf dem G80 Chip und verfügt über 640 MByte GDDR3 Speicher, der über eine 320 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 511 MHz, der Speicher mit 1600 MHz. Das Besondere an der GF8800GTS+ von EVGA ist die Tatsache, das hier G80 Chips mit mehr als 96 Shadereinheiten (96+) verbaut werden, und zwar bis zu 112 je nach Chip. Diese Chips stammen aus der Produktion der GTX Serie und haben mindestens 96, meist jedoch mehr funktionierende Shadereinheiten und sind somit etwas schneller als Standard 8800GTS Modelle.

Ist wohl der GTX-Ausschuß der die 128 Shader nicht geschafft hat, unter der Voraussetzung ist der Preis für meine Begriffe zu hoch :|

Gast
2008-01-11, 01:32:48
klar mit Crysis, wo mit sonst, ist halt im Moment das Maß aller Games :biggrin:

Um noch mal auf die neue Version der 8800GTS 640mb G80 mit 112 Shadern zurück zu kommen, das scheint wohl Glückssache zu sein ob man auch wirklich 112 Shader oder doch vielleicht nur 96 bekommt ;)
Hier eine Beschreibung von PC-King.de zu dieser Karte:

Die EVGA GF8800GTS+ basiert auf dem G80 Chip und verfügt über 640 MByte GDDR3 Speicher, der über eine 320 Bit breite Schnittstelle angebunden ist. Die GPU taktet mit 511 MHz, der Speicher mit 1600 MHz. Das Besondere an der GF8800GTS+ von EVGA ist die Tatsache, das hier G80 Chips mit mehr als 96 Shadereinheiten (96+) verbaut werden, und zwar bis zu 112 je nach Chip. Diese Chips stammen aus der Produktion der GTX Serie und haben mindestens 96, meist jedoch mehr funktionierende Shadereinheiten und sind somit etwas schneller als Standard 8800GTS Modelle.

Ist wohl der GTX-Ausschuß der die 128 Shader nicht geschafft hat, unter der Voraussetzung ist der Preis für meine Begriffe zu hoch :|

nich mindestens 96 sondern definitiv!

huw11
2008-01-11, 11:18:42
Ich habe gestern Abend meine neue 8800GTS 512mb von Gainward mal eingebaut und ein bisschen getestet. Ich muß sagen, der erste Eindruck ist sehr positiv, es ist tatsächlich ein guter Leistungsschub gegenüber der alten GTS zu merken. Ich hab mal in Crysis einige Levels durchstreift, unter anderem Eislevel und Flugzeugträger, ich muß sagen, es ist schon ein deutlicher Unterschied zu der G80 GTS zu merken.
Hier noch ein paar Bench-Ergebnisse:
Crysis: 1680x1050, AA=4x,high - alte GTS-OC=15,5 fps / neue GTS-Stock=18
Crysis: 1680x1050, AA=2x,high - alte GTS-OC=17,5 fps / neue GTS-Stock=22

3DMark2006: alte GTS-OC= 11.150 / neue GTS-Stock= 12.620 - OC (GPU=740/Shader=1862/Speicher=1050)= 13.730

ob beim OC noch mehr möglich ist, weiß ich nicht, müßte ich mal außprobieren, aber eigentlich reicht mir die Leistung voll aus, man muß die Graka ja nicht bis an die Grenze quälen :D

Erstes Fazit, ich bin voll auf zufrieden mit der neuen 8800GTS :up:

dargo
2008-01-18, 23:01:44
Da sind ja meine vorausgesagten 250€ für eine G8800GTS endlich. ;)
http://web.hoh.de/hoh/(S(joqtfc2c154rlbfchuutk145))/default.aspx?TY=item&ST=1&IT=42922&CT=5018

Razor
2008-01-19, 06:52:26
Da sind ja meine vorausgesagten 250€ für eine G8800GTS endlich. ;)
"Deine vorausgesagten"?
Ist jetzt nicht Dein ernst, oder?
:confused:

Nochmal auch für Dich:
Der MSRP (manufacturer's suggested retail price) ist der bei uns so bezeichnete UVP bzw. "unverbindlicher Verkaufspreis".
Dieses im Hinterkopf behaltend, schauen wir uns nun die Hersteller-Vorgabe für die GTS512 an...
GTS512 = 299 USD + Taxes = 299.00 + 59.80 (20%) = 358.80 USD
Bei einem Umrechnungskurs von 1 EUR = 1.4637 sind dies = 245 EUR

Deine "vorausgesagten" 250€ sind also derzeit (bei aktuellem Dollarkurs) noch etwas zu hoch gegriffen und spiegeln nichts anderes wieder, als den empfohlenen Verkaufspreis des Herstellers. Da Computer-Hardware bei entsprechender Verfügbarkeit eher weit unter dem UVP liegen sollte, ist die GTS512 noch weit davon entfernt, ein "Schnäppchen" zu sein...

Zumindest wirds aber langsam... insofern das von Dir gezeigte Angebot schon in die richtige Richtung geht.

Razor

anddill
2008-01-19, 12:08:57
Die 1GiB Diskussion hab ich mal in einen eigenen Thread ausgelagert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=400255
Ich bitte darum, das dort weiter zu diskutieren.

<anddill>

dargo
2008-01-19, 12:14:17
"Deine vorausgesagten"?
Ist jetzt nicht Dein ernst, oder?
:confused:
...
...

Ach, lieber Razor. Warum machst du dir das immer so kompliziert? :D
Der Umrechnungsfaktor zwischen $ und € (bei der Hardware) liegt bei mir bei ca. 1,2-1,3:1,0 (je nach Dollar-Kurs). Das kannst du auch übrigens bei den CPU-Preisen genauso beobachten. Den Rest kannst du dir selbst ausrechnen. ;)

Razor
2008-01-19, 12:40:43
Und warum liegst Du mit Deiner "Voraussage" oberhalb des UVP.
Auch Du solltest beobachtet haben, dass Hardwarepreise sich eigentlich IMMER unterhalb dessen einpendeln...

Und gerechnet habe ich genug!
Woher allerdings Deine 1.2/1.3 zu 1.0 kommen, ist mir ein Rätsel...
..ausgedacht?
:D

Razor

Gast
2008-01-19, 13:01:13
du vergisst kosten wie shipping, den üblichen "eu-aufschlag" der hardwarebranche und ähnliche kosten... dargos 1.2-1.3:1 kommt da schon eher ganz gut hin

Razor
2008-01-19, 13:28:03
So, wie AMD-Prozessoren, die in Dresden hergestellt werden?
Was sollen bitte Shipping-Kosten mit dem UVP (bzw. MSRP) zu tun haben?
:confused:

Razor

dargo
2008-01-19, 13:38:10
Woher allerdings Deine 1.2/1.3 zu 1.0 kommen, ist mir ein Rätsel...
..ausgedacht?
:D

Jahrelange Erfahrung. ;)
Nein, Quatsch. Der Umrechnungsfaktor lag noch vor kurzem bei 1,15-1,2:1,0. Aufgrund vom schwachen Dollar sind es jetzt halt schon eher 1,2-1,3:1,0.
Kannst du übrigens sehr schön bei den CPUs, zb. dem Q6600 sehen. UVP liegt bei 266$, Straßenpreis in DE ca. 215€.

Bei den Grafikkarten siehts praktisch genauso aus.

Edit:
Anderes Beispiel - als ich meine G8800GTS (G80) im März 2007 für 319€ gekauft habe lag die UVP bei 399$.

Razor
2008-01-19, 13:47:54
Kannst du übrigens sehr schön bei den CPUs, zb. dem Q6600 sehen. UVP liegt bei 266$, Straßenpreis in DE ca. 215€.
Öhm...
266.00$ + 53.20$ (20%) = 319.20 USD = 218 EUR MSRP/UVP
Der Retail-Preis liegt also knapp darunter...

Hier zählen also keine "Erfahrungswerte", sondern einfach nur der Umrechungskurs und die in den USA nicht mitgerechneten Steuern.
Keine sonstigen Aufschläge etcpp.

Und als Beispiel auslaufende Hardware heran zu ziehen ist nicht grad' sinnvoll, oder?
(wenn auch hier der MSRP/UVP bei 327€ liegt und Du somit wieder in etwa bei diesem lagst ;-)

Razor

P.S.: im März allerdings lag der Wechselkurs bei ca. 1,32:1, insofern damals der MSRP bei ca. 363€ lag... wenn Du also nur 319€ bezahlt hast, dann lag der Straßenpreis schon ganz erheblich unter dem MSRP/UVP.

dargo
2008-01-19, 14:03:01
Und als Beispiel auslaufende Hardware heran zu ziehen ist nicht grad' sinnvoll, oder?

Auslaufende Hardware? Ich sehe noch nicht, dass ein Q6600 ausläuft. Und die 200-215€ sind locker schon 2-3 Monate konstant.

Razor
2008-01-19, 14:09:34
Auslaufende Hardware? Ich sehe noch nicht, dass ein Q6600 ausläuft. Und die 200-215€ sind locker schon 2-3 Monate konstant.
Damit meinte ich eigentlich die GTS...
...sorry4confusion.

Razor

dargo
2008-01-19, 14:09:48
P.S.: im März allerdings lag der Wechselkurs bei ca. 1,32:1, insofern damals der MSRP bei ca. 363€ lag... wenn Du also nur 319€ bezahlt hast, dann lag der Straßenpreis schon ganz erheblich unter dem MSRP/UVP.
Die Nachfrage/Verfügbarkeit regelt den Straßenpreis ebenfalls.

Razor
2008-01-19, 14:11:08
Die Nachfrage/Verfügbarkeit regelt den Straßenpreis ebenfalls.
Wie man sehr gut an den "Einstandspreisen" der G92 sehen konnte...

Razor

dargo
2008-01-19, 14:11:53
Wie man sehr gut an den "Einstandspreisen" der G92 sehen konnte...

Genau.

Damit meinte ich eigentlich die GTS...
...sorry4confusion.

Die G80GTS war im März 2007 auslaufende Hardware? :|

Razor
2008-01-19, 14:15:30
Die G80GTS war im März 2007 auslaufende Hardware? :|
Nö... ;)

Razor

Gast
2008-01-19, 14:17:30
Da sind ja meine vorausgesagten 250€ für eine G8800GTS endlich. ;)
http://web.hoh.de/hoh/(S(joqtfc2c154rlbfchuutk145))/default.aspx?TY=item&ST=1&IT=42922&CT=5018

woow was für eine prohezeihung das hätte kein mensch der welt erraten können,lol

Byteschlumpf
2008-01-19, 14:31:59
So, eben hab ich die Karte eingebaut und werde nach und nach das gute Stück testen! :)

More to come..... .
--------------------------
Soooooooooooooooo, es wurde mir nicht zuviel versprochen - die G92 GTS hat meine G80 GTS nach nun 11 Monaten würdevoll ersetzt. :)
Die Leistung der neuen ist wahrlich zwischen 30-50% besser, wobei ich nun endlich in der 22"er Auflösung ordentlich zocken kann (natürlich nicht Killer, wie Crysis und Dirt
mit hohem AA).

Der Lüfter der Karte verhält sich parktisch auch so, wie der der G80 - ein Aufbrausen beim Kaltstart und dann nur noch ein moderates Anwachsen des Tonpegels unter heftiger 3D-Last.

Deathcrush
2008-01-26, 09:36:22
Hier mal ein neues Gerücht zur G92

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1477179/nvidia.html

Zitat
.............. sollen die G92-Grafikchips von Nvidia eine neue, in der Hardware des Chips implementierte Daten-Kompression besitzen. Dies soll helfen, den 256 Bit breiten Datenbus effizienter zu nutzen.

Metalmaniac
2008-01-26, 10:51:24
Meine Warterei hat auch endlich ein Ende. Seit dem 19. November hat es nun glücklicherweise bei der 4.Bestellung geklappt und ich habe ein neues Kärtchen. Verbesserung gegenüber meiner 7950GX2 bei Crysis zwischen 80 und 130%. Habe die fps also zumeist mehr als verdoppelt (sowohl min, max. als auch avg.).

Metalmaniac
2008-01-26, 10:53:17
Sorry: Doppelpost

Gast
2008-01-26, 12:02:27
Hier mal ein neues Gerücht zur G92

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1477179/nvidia.html

Zitat
.............. sollen die G92-Grafikchips von Nvidia eine neue, in der Hardware des Chips implementierte Daten-Kompression besitzen. Dies soll helfen, den 256 Bit breiten Datenbus effizienter zu nutzen.

Wenn sowas im G92 eingebaut sein sollte, dann wird das doch sicher schon seit Anfang an genutzt und somit auch keine weiteren Leistungssteigerungen mehr bringen, oder?

dargo
2008-01-26, 12:13:44
Hier mal ein neues Gerücht zur G92

http://www.gamestar.de/news/pc/hardware/grafikkarten/nvidia/1477179/nvidia.html

Zitat
.............. sollen die G92-Grafikchips von Nvidia eine neue, in der Hardware des Chips implementierte Daten-Kompression besitzen. Dies soll helfen, den 256 Bit breiten Datenbus effizienter zu nutzen.
Ich hab doch gesagt, der G92 geht mit der Bandbreite effizienter um als der G80. ;)
Das muss er ja auch bei so einer "Beschneidung".

Wobei Daten-Kompression würde für mich auch bedeuten, dass der Vram effizienter genutzt wird.

Gast
2008-01-26, 12:28:40
Ich hab doch gesagt, der G92 geht mit der Bandbreite effizienter um als der G80. ;)
Ich finde das erstaunlich.

Mit jeder Generation wird das ausnutzen der Bandbreite effizienter. :eek:

Gast
2008-01-26, 12:39:30
Nur ist die Effizienz leider nicht so weit angestiegen, dass es den Bandbreitenverlust durch das schmalere Speicherinterface + recht niedrigen Speichertakt ausgleichen kann!

Deathcrush
2008-01-26, 12:52:18
Soviel kann ich dir sagen. Die Anhebung des Speichertaktes von ~15% bringt nicht einmal 5% mehr FPS. Von daher gehe ich mal stark aus, das die Bandbreite nicht der limitierende Faktor ist. Übertaktet man die GPU um 10% bekommt man diese 10% auch in den FPS werten. (1680x1050 8AF Crysis, Arma)

Gast
2008-01-26, 13:01:12
Soviel kann ich dir sagen. Die Anhebung des Speichertaktes von ~15% bringt nicht einmal 5% mehr FPS. Von daher gehe ich mal stark aus, das die Bandbreite nicht der limitierende Faktor ist. Übertaktet man die GPU um 10% bekommt man diese 10% auch in den FPS werten. (1680x1050 8AF Crysis, Arma)

Andere Test aus dem Forum hier zeigen eher, das zusätzlicher Speichertakt etwa zur Hälfe in Leistung umgesetzt wird (z.B. 10% mehr Speichertakt= 5% mehr Leistung). Das zeigt schon eine gewissen Bandbreitenmangel.

Metalmaniac
2008-01-26, 13:06:29
Habe mal ein klein wenig gebencht, u.a. auch den Crysis GPU-Benchmark.
Unter XP 32-bit Die Demo in 1280x1024, alle Parameter auf high, aber ohne AA + AF.
Treiber war der 169.21 beta.

GeForce 7950GX2: avg.: 18.74 min.: 9.60 max.: 26.79
GeForce 8800GTS: avg.: 42.39 min.: 16.07 max.: 49.34

Danach habe ich unter Vista 64-bit die GPU gebencht. Ebenfalls in 1280x1024, alles auf high, ohne AA + AF, Treiber ebenso der 169.21 beta. Zuerst von der Vollversion in Version 1.0:

avg.: 34.60 min.: 16.81 max.: 38.38

Zuletzt habe ich den Patch 1.1 unter Vista aufgespielt zuzüglich des (dazugehörigen) Treibers 169.28 beta. Einstellungen so belassen. Und siehe da, es gab Verbesserungen:

avg.: 36.06 min.: 23.23 max.: 43.84

Das war in erster Linie ein klein wenig Spielerei für mich, aber vielleicht interessiert es ja auch jemanden von Euch. 3DMark-Werte habe ich ebenfalls noch vergleichend die GX2 und die GTS, aber das will ja keiner sehen :wink:.

Übrigens fiel mir auf, daß der Arbeitsspeicher des Systems nach einem Benchmark-Durchlauf voll war, so daß dies extrem lahm war und ich einen weiteren Bench erst nach einem Neustart vornehmen konnte, wo das meiste des Arbeitsspeichers wieder frei war. Sonst hätte ich noch mehr Benches gestartet, aber das dauerte mir alles zu lange. Ist das normal für das Spiel oder Vista? Und wie bekomme ich das weg?

dargo
2008-01-26, 13:14:05
Soviel kann ich dir sagen. Die Anhebung des Speichertaktes von ~15% bringt nicht einmal 5% mehr FPS. Von daher gehe ich mal stark aus, das die Bandbreite nicht der limitierende Faktor ist.

War hier der GPU-Takt auf standard 650Mhz?

Tja, wie ich schon sagte - dem G92 fehlt es an ROP-Leistung. Ob dies durch höheren Takt oder mehr ROPs realisiert wird spielt keine Rolle. Wobei in die "Breite" gehen eher einfacher und günstiger wäre.


Übertaktet man die GPU um 10% bekommt man diese 10% auch in den FPS werten. (1680x1050 8AF Crysis, Arma)
Könntest du auch den Coretakt um 10% übertakten und dabei den Shadertakt auf standard 1625Mhz lassen?

Deathcrush
2008-01-26, 13:15:06
Andere Test aus dem Forum hier zeigen eher, das zusätzlicher Speichertakt etwa zur Hälfe in Leistung umgesetzt wird (z.B. 10% mehr Speichertakt= 5% mehr Leistung). Das zeigt schon eine gewissen Bandbreitenmangel.

Jo, hast recht. Bei 15% mehr Speichertakt bekomme ich bei Crysis rund 7-8% mehr Leistung (hatte es anders in erinnerung). Zeigt aber trotz alledem, das die Speicherbandbreite nicht so arg limitiert, wie es hier immer gerne wieder hervorgehoben wird.

Dargo

Ja nur, der Speicher war erhöht, die GPU war auf Default.

dargo
2008-01-26, 13:16:46
Andere Test aus dem Forum hier zeigen eher, das zusätzlicher Speichertakt etwa zur Hälfe in Leistung umgesetzt wird (z.B. 10% mehr Speichertakt= 5% mehr Leistung). Das zeigt schon eine gewissen Bandbreitenmangel.
Falls du mich meinst - der Test war mit AA und einem um 20% höher getakteten Coretakt. Da spielt die Bandbreite eine etwas höhere Rolle. Deathcrush hat Crysis, ArmA ohne AA getestet (nehme ich mal an).

@Deathcrush
Könntest du für mich paar G92 Tests anstellen? Wenn ja, Rest per PN.

Gast
2008-01-26, 13:19:32
Wenn man mal GPU-Power VS Bandbreite bei der 8800 Ultra gegen die G92 GTS vergleicht, sieht man, dass die Ultra ~78% mehr Bandbreite pro Rechenleistung besitzt!
Dies wiederrum bedeutet das die G92 GTS, wenn kein Leistungsverlust eintreten soll, schon sehr krasse Bandbreitenoptimierungen gegenüber dem G80 besitzen müsste, da sie mit nur ~56% dessen Bandbreite pro Rechenleistung auskommen muss! Ich glaube nicht, dass man bei heutigen GPUs mal eben mit einigen Optimierungen fast die Hälfte der Bandbreite einsparen kann!

dargo
2008-01-26, 13:22:07
Wenn man mal GPU-Power VS Bandbreite bei der 8800 Ultra gegen die G92 GTS vergleicht, sieht man, dass die Ultra ~78% mehr Bandbreite pro Rechenleistung besitzt!
Dies wiederrum bedeutet das die G92 GTS, wenn kein Leistungsverlust eintreten soll, schon sehr krasse Bandbreitenoptimierungen gegenüber dem G80 besitzen müsste, da sie mit nur ~56% dessen Bandbreite pro Rechenleistung auskommen muss! Ich glaube nicht, dass man bei heutigen GPUs mal eben mit einigen Optimierungen fast die Hälfte der Bandbreite einsparen kann!
Du vergisst hier einen wichtigen GPU-Teil - nämlich die ROPs.

G8800GTS = 16 ROPs mit 650Mhz Coretakt
G8800Ultra = 24 ROPs mit 612Mhz Coretakt

Die Ultra hat ca. 40-45% mehr ROP-Leistung. Dadurch braucht die GTS keine Bandbreite der Ultra (jetzt mal die verbesserte Effizienz der Bandbreite beim G92 außer Acht gelassen).

Gast
2008-01-26, 13:26:57
Falls du mich meinst - der Test war mit AA und einem um 20% höher getakteten Coretakt. Da spielt die Bandbreite eine etwas höhere Rolle. Deathcrush hat Crysis, ArmA ohne AA getestet (nehme ich mal an).

Ja, ich denke schon, dass man mit 4xAA testen sollte, da ohne AA, bis auf wenige Ausnahmen (Crysis etc.), alles bis 1920x1200 @maximale Details auf G80/G92 recht flüssig läuft.

Deathcrush
2008-01-26, 13:30:48
Arma natürlich mit 4AA ;) und 1680x1050. Crysis natürlich ohne.

Gast
2008-01-26, 13:36:21
Du vergisst hier einen wichtigen GPU-Teil - nämlich die ROPs.

G8800GTS = 16 ROPs mit 650Mhz Coretakt
G8800Ultra = 24 ROPs mit 612Mhz Coretakt

Die Ultra hat ca. 40-45% mehr ROP-Leistung. Dadurch braucht die GTS keine Bandbreite der Ultra (jetzt mal die verbesserte Effizienz der Bandbreite beim G92 außer Acht gelassen).

Durch die Kastration der ROPs, und den dadurch entstehenden Flaschenhals, wird das Bandbreitenproblem quasi ja nur verdeckt. Trotzdem isses ja noch da!

Für volle Leistung müsste man die ROPs dann auch wieder anpassen, oder einfach auch so optimieren wie das Speicherinterface! ;) :)

dargo
2008-01-26, 13:45:36
Durch die Kastration der ROPs, und den dadurch entstehenden Flaschenhals, wird das Bandbreitenproblem quasi ja nur verdeckt. Trotzdem isses ja noch da!

Naja, der Chip ist nun mal so wie er ist. Die Bandbreite wird ja an die Chip-Leistung angepasst. Und mit den 16 ROPs sehe ich den G92 was die Bandbreite angeht ziemlich gut ausgewogen bei einer Skalierung von 1:0,5. Klar, etwas mehr Bandbreite könnte nicht schaden.

Edit:
So, endlich habe ich die Benchmarks die eine eindeutige Aussagekraft zum G92 haben. Da der Speichertakt beim G92 sich nicht extrem übertakten lässt sind wir 1:1 mit den Taktraten runtergegangen. An dieser Stelle vielen Dank nochmal an Deathcrush der sich bereit erklärt hat zu testen.

391/972/583 (GPU/SHADER/RAM)

1280x1024 1AA/16AF

TimeDemo Run 1 Finished.
Play Time: 81.96s, Average FPS: 24.40
Min FPS: 18.79 at frame 1961, Max FPS: 29.56 at frame 993
Average Tri/Sec: 24291032, Tri/Frame: 995460
Recorded/Played Tris ratio: 0.92


1280x1024 4AA/16AF (VRAM Usage 470MB)

!TimeDemo Run 1 Finished.
Play Time: 111.65s, Average FPS: 17.91
Min FPS: 13.26 at frame 141, Max FPS: 22.06 at frame 993
Average Tri/Sec: 18415902, Tri/Frame: 1028109
Recorded/Played Tris ratio: 0.89


391/972/879 (GPU/SHADER/RAM)

1280x1024 1AA/16AF

!TimeDemo Run 1 Finished.
Play Time: 74.74s, Average FPS: 26.76
Min FPS: 17.42 at frame 143, Max FPS: 33.19 at frame 86
Average Tri/Sec: 26635488, Tri/Frame: 995375
Recorded/Played Tris ratio: 0.92

1280x1024 4AA/16AF

!TimeDemo Run 1 Finished.
Play Time: 97.28s, Average FPS: 20.56
Min FPS: 15.39 at frame 139, Max FPS: 25.07 at frame 1007
Average Tri/Sec: 21146548, Tri/Frame: 1028582
Recorded/Played Tris ratio: 0.89
Obwohl die Bandbreite um ~51% gestiegen ist sind die Frames ohne AA nur um ~10%, mit 4xMSAA um ~15% angestiegen.

Fazit:
Dem G92 mangelt es auf keinem Fall an Bandbreite, zumindest bis 4xMSAA.

Edit2:
Die Datenkompression beim G92 scheint zu funktionieren. Crysis mit 1280x1024 4xMSAA/16xAF high Details:

G92 = 470MB
G80 = 543MB

AnarchX
2008-02-02, 17:15:49
NVIDIA_G92.DEV_0600.1 = "NVIDIA GeForce 8800 GTS 512/1024"

Fragt sich nur, wann die Karten auftauchen und wie sie im Vergleich zur 9800 GTX aussehen.

Gast
2008-02-02, 19:03:07
Toll, eine 1GB GTS und?!

Remix2k
2008-02-06, 20:05:20
Bringt was erst recht ab auflösungen ab 19xx... Google mal nach Reviews :D

Gast
2008-02-06, 22:36:57
Habe mal ein klein wenig gebencht, u.a. auch den Crysis GPU-Benchmark.
Unter XP 32-bit Die Demo in 1280x1024, alle Parameter auf high, aber ohne AA + AF.
Treiber war der 169.21 beta.


GeForce 8800GTS: avg.: 42.39 min.: 16.07 max.: 49.34




Welchen Takt?
Sieht nich gerade doll aus besonders die min. FPS^^

KinGGoliAth
2008-02-07, 01:39:29
ich quatsch mal eben dazwischen und hoffe auf eine kurze aber informative antwort. ;)
wie groß ist der performanceunterschied zwischen der 8800gt und der neuen 8800gts?
bisher habe ich immer was von um die 10% gelesen. passt das?
ich fahre immer auf 1600*1200 mit soviel aa und af wie leistungstechnisch möglich ist.

=Floi=
2008-02-07, 03:46:22
im durchschnitt schon. Dafür hast du eben beim übertakten auch einen breiteren chip (inlusive besserem kühler) und die volle leistung des G92.
Wenn es dir um das beste P/L geht, dann nimm die GT. Wenn du stark übertakten willst und die ca. 50€ keine rolle spielen, dann nimm die GTS 512. Wenn du keine probleme mit einem "alten" chip hast und du die schnellste karte willst, dann nimm die GTX.

Metalmaniac
2008-02-07, 15:58:37
Wenn du keine probleme mit einem "alten" chip hast und du die schnellste karte willst, dann nimm die GTX.


Ich habe mehrere Tests mit der MSI-GTS OC gelesen, und zwar mit der mit den "richtigen" Taktraten (da ja die neue Revision scheinbar niedriger getaktet ist von Haus aus). Und da stellte es sich so da, daß alles in allem diese die schnellste Grafikkarte war und ist. Summa summarum auch schneller als die mitgetestete 8800 Ultra. Und die GTS-Karten gehen alle mind. in diese OC-Bereiche. Also würde ich nicht mehr davon reden, daß die GTX die schnellste Karte (von nVidia, die X2 von ATI ist ja scheinbar momentan das schnellste Stück Grafikhardware was man kaufen kann) ist. Natürlich brechen die neuen Karten in extremen Auflösungen und Bildverbesserungsdetails schlimmer ein, wo dann die "älteren" High-End Karten doch noch mehr frames bringen, aber im Schnitt ist die neue GTS schneller.

Gast
2008-02-08, 00:47:37
Ich habe mehrere Tests mit der MSI-GTS OC gelesen, und zwar mit der mit den "richtigen" Taktraten (da ja die neue Revision scheinbar niedriger getaktet ist von Haus aus). Und da stellte es sich so da, daß alles in allem diese die schnellste Grafikkarte war und ist. Summa summarum auch schneller als die mitgetestete 8800 Ultra. Und die GTS-Karten gehen alle mind. in diese OC-Bereiche. Also würde ich nicht mehr davon reden, daß die GTX die schnellste Karte (von nVidia, die X2 von ATI ist ja scheinbar momentan das schnellste Stück Grafikhardware was man kaufen kann) ist. Natürlich brechen die neuen Karten in extremen Auflösungen und Bildverbesserungsdetails schlimmer ein, wo dann die "älteren" High-End Karten doch noch mehr frames bringen, aber im Schnitt ist die neue GTS schneller.

ich stehe genau or solch einer kaufentscheidung, weil ich gerne auf sli umruesten moechte.

bestellt habe ich eine bfg 8800 gtx oc2 welche aber bei meinem haendler auf backorder ist.

alternativ,
falls mir das zu lange dauert, wuerde ich ggf. meine
vorhandene gtx oc2 ins ebay tun und dafuer 2 8800gts 512 ordern.

nur,
bei anandtech und computerbase (bei cb sogar uebertaktete gts im test)
ist die gtx oder ultra immer dann schneller wenn hohe qualitaetseinstellungen verwendet werden, von daher muss ich dir leider widersprechen.

was in meinem falle fuer die gts sprechen wuerde sind 3 dinge,
1. der guenstigere preis, der geringere verbrauch und 3. das kuerzere pcb, welches mir womoeglich mit meiner wasserkuehlinstallation entgegen kommen duerfte.
(schlaeuche zur pumpe fuehren rechts neben dem mainboard zur pumpe)

gefallen duerfte mir die "top" version von asus (ich meine 730/1800/2060 Mhz),
kostet hier um 370$.

Metalmaniac
2008-02-08, 19:02:16
nur,
bei anandtech und computerbase (bei cb sogar uebertaktete gts im test)
ist die gtx oder ultra immer dann schneller wenn hohe qualitaetseinstellungen verwendet werden, von daher muss ich dir leider widersprechen.


Hatte ich ja auch so geschrieben. Allerdings nutzen die wenigsten solch hohen Qualitätseinstellungen und bei ganz neuen Games sind diese auch auf den "alten" Karten unspielbar.

severator
2008-02-09, 14:17:19
ich stehe genau or solch einer kaufentscheidung, weil ich gerne auf sli umruesten moechte.

bestellt habe ich eine bfg 8800 gtx oc2 welche aber bei meinem haendler auf backorder ist.

alternativ,
falls mir das zu lange dauert, wuerde ich ggf. meine
vorhandene gtx oc2 ins ebay tun und dafuer 2 8800gts 512 ordern.

nur,
bei anandtech und computerbase (bei cb sogar uebertaktete gts im test)
ist die gtx oder ultra immer dann schneller wenn hohe qualitaetseinstellungen verwendet werden, von daher muss ich dir leider widersprechen.

was in meinem falle fuer die gts sprechen wuerde sind 3 dinge,
1. der guenstigere preis, der geringere verbrauch und 3. das kuerzere pcb, welches mir womoeglich mit meiner wasserkuehlinstallation entgegen kommen duerfte.
(schlaeuche zur pumpe fuehren rechts neben dem mainboard zur pumpe)

gefallen duerfte mir die "top" version von asus (ich meine 730/1800/2060 Mhz),
kostet hier um 370$.

Hast dir schonmal das Review hier angesehen, interessanterweise zieht die neue GTS die GTX in jedem Spiel ab :confused:

..und selbst in Auflösungen wie 1920x1200 :eek:

http://www.bjorn3d.com/read.php?cID=1229

Gast
2008-02-09, 15:03:57
ja habe ich, das ist uebrigens die top version die ich bereits erwaehnt hatte.

das problem ist nur, das dieses review bei b3d eines der wenigen die die gts so weit vorne sehen, bei vielen anderen der reviews welche ich mir angeschaut habe, ist es eben nicht so.

ich gebe viel auf anandtech und computerbase...

man muesste fuer sich letzten endes abklaeren, welches reviews man glauben schenken mag.

ich habe gestern,
nach mehrmaligen nachhaken, endlich die bestaetigung erhalten, des meine gtx auf dem weg ist. ich hatte mich schon fast auf die 8800gts top eingerichtet.

haette ich die gtx oc2 nicht schon besessen,
dann waehre es wohl die gts geworden, haupstaechlich wegen dem geringerem verbrauch, der kleineren bauform und 1. stromanschluss vs. 2 bei gtx.

=Floi=
2008-02-09, 15:32:41
weil sie eben in diesem test schneller getaktet ist wie die standardversion

Gast
2008-02-09, 17:38:18
stimmt,
deswegen waere ich auch recht scharf auf die asus 8800gts top gewesen,
ich wuerde dieser karte gegenueber einer standard gtx auch den vorzug geben.
mich wuerde jetzt mal ein vergleich der top zur gtx oc2 und zur ultra interessieren.

konnte leider nichts finden, bei hardwarezone spricht man im fazit bei hohen aufloesungen mit aa der gtx einen vorteil (nicht eindeutig genug gg. die top)zu.

ich suche mal nach reviews fuer die EVGA E-GEFORCE 8800GTS Ssc Crysis Edition 740MHZ 512MB, vielleicht finde ich dort was.

Gast
2008-02-09, 18:02:07
das einzigste was ich hierzu finden konnte:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5506&Itemid=1&limit=1&limitstart=1

Metalmaniac
2008-02-09, 18:29:16
So wie ich das mitbekommen habe kann man eigentlich alle GTS-Karten mind. über 700Mhz bringen. Einige kommen sogar mit Luftkühlung über 800Mhz. Die Tests, auf die ich mich beziehe, sind mit der MSI-OC durchgeführt worden, die 730Mhz läuft. Und dies zumeist gegen Ultras, also schon ebenfalls übertaktete GTXen. Die neuen gehen wirklich gut. Meine habe ich einfach auf 750Mhz getrieben, ein bißchen getestet, und alles läuft problemlos. Hatte auch gedacht, daß meine wahrscheinlich nicht so gut gehen kann, weil man die besseren Chips bei den Herstellern erwartungsgemäß für die OC-Varianten nehmen würde. Zumindest bei mir scheint das nicht der Fall zu sein oder man hat ihn übersehen o.ä..:smile:

Gast
2008-02-09, 18:46:37
ja,
die mit g92 erzielbaren oc-takte sind wirklich recht beeindruckend.

bei sli jedoch wuerde ich dennoch eher 2 werksgetaktete karten haben wollen, weil eben nicht sicher isein duerfte das mit beiden karten zuverlaessig die 740/1800/2000+ zu packen sind.

ich hatte schon graka besessen, welche sich sehr schlecht oder gar nicht zuverlaessig takten liessen.

manche hingegen waren richtige oc-knaller.

r3ptil3
2008-02-09, 19:59:17
Übrigens zu den Preisen, in der Schweiz gibts die 8800 GTS 512 schon ab 220.- € lieferbar. Vielleicht werde auch mir einen Kauf überlegen, sofern die 3870 nicht mehr fällt in den nächsten Tagen.

dargo
2008-02-23, 11:54:11
Übrigens zu den Preisen, in der Schweiz gibts die 8800 GTS 512 schon ab 220.- € lieferbar. Vielleicht werde auch mir einen Kauf überlegen, sofern die 3870 nicht mehr fällt in den nächsten Tagen.
In DE ab 206€. :)
http://geizhals.at/deutschland/a301729.html

pest
2008-02-23, 11:57:26
daß meine wahrscheinlich nicht so gut gehen kann, weil man die besseren Chips bei den Herstellern erwartungsgemäß für die OC-Varianten nehmen würde. Zumindest bei mir scheint das nicht der Fall zu sein oder man hat ihn übersehen o.ä..:smile:

also so wie ich das bis jetzt (bei Freunden) mitbekommen habe, schaffen die OC Varianten oft nur den Takt für den sie freigegeben sind und wenig mehr. Da hat man mit ner normalen Karte oft mehr Glück.

Anarchy-HWLUXX
2008-02-24, 00:12:42
In DE ab 206€. :)
http://geizhals.at/deutschland/a301729.html
Argh :(

Wobei, bei Norsk würd ich eh net kaufen ;D und nur die bieten diese komige - noname an, absonsten eben ~230€

Mal sehen wie lang das angebot steht.

Gast
2008-02-24, 08:59:43
Argh :(

Wobei, bei Norsk würd ich eh net kaufen ;D und nur die bieten diese komige - noname an, absonsten eben ~230€

Mal sehen wie lang das angebot steht.
Wobei mich ja schon interesseren würde wie diese sich dann übertakten lassen?

Wie siehts mit den 8800GT´s aus (g92)
Gleiches Übertaktungspotenzial oder nicht wirklich? gibs dazu schon Reviews?

Captain Future
2008-02-24, 09:25:02
Argh :(

Wobei, bei Norsk würd ich eh net kaufen ;D und nur die bieten diese komige - noname an, absonsten eben ~230€

Mal sehen wie lang das angebot steht.
Hi Anarchy-HWLUXX,

Sind die noname-Karten denn schlechter als die von Asus oder Sapphire oder so?

Sven77
2008-02-24, 10:47:40
Ich persönlich würde da mehr Geld ausgeben, und bei einem renommierten Händler eine Markenarte kaufen. Grafikkarten gehen nicht selten über den Jordan, und da kann die Geiz-ist-Geil Mentalität einen ganz schnell wieder einholen.. Ich wechsel aber die Grakas auch nicht wie Unterhosen, wie so mancher hier ;)

AnarchX
2008-02-26, 10:14:44
Fudzilla konnte nun mal die Gainward 1GiB GTS testen:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=5891&Itemid

Hat offenbar ein recht nettes Potential beim Speicher:
We overclocked Gainward 8800 GTS 1024MB cards to 780MHz core and 1100MHz memory. This was the maximum core speed we managed whereas the memory could’ve gone even higher than 1150MHz. In the tables we put our first result with 780MHz core and 1100MHz (effective 2200MHz) memory speed.

Sven77
2008-02-26, 11:27:24
Wie testet ihr eigentlich wie weit die Karte geht? ATI-Tool?

Lotzi
2008-02-26, 20:46:21
an alle mal

kollege schwankt zwsichen einer

ATI 3870 X2

oder einer

XFX 8800GTS 512MB G92

er hat einen 24" tft und spielt seine spiele immer in 1900x1200

als cpu hat er einen QX6850


welche soll er nehmen egal ob bald die neuen GF rauskommen oder nicht

danke

crux2005
2008-02-26, 20:56:55
8800GTS ;)

Lotzi
2008-02-26, 20:58:37
darf ich fragen warum


ne 3870 x2 müsste doch fixer sein und hat 1gb ram

puntarenas
2008-02-26, 21:11:06
darf ich fragen warum


ne 3870 x2 müsste doch fixer sein und hat 1gb ram
Effektiv hat sie auch nur 512MB-RAM, aber fixer sollte sie schon sein, das stimmt. Außerdem geht sie mit den 512MB genügsamer um.

san.salvador
2008-02-26, 21:18:06
darf ich fragen warum


ne 3870 x2 müsste doch fixer sein und hat 1gb ram
Du könntest dir alternativ auch einen der zig Threads zu diesem Thema durchlesen, was auch dem Sinn eines Forums recht nahe kommen dürfte.

crux2005
2008-02-26, 21:22:36
als ich geantwortet habe stand da nur 3870

vinacis_vivids
2008-02-27, 01:01:34
an alle mal

kollege schwankt zwsichen einer

ATI 3870 X2

oder einer

XFX 8800GTS 512MB G92

er hat einen 24" tft und spielt seine spiele immer in 1900x1200

als cpu hat er einen QX6850


welche soll er nehmen egal ob bald die neuen GF rauskommen oder nicht

danke


3870x2, das dürfte klar sein. Müssen wir jetzt nicht großartig diskutieren.

Gast
2008-02-27, 01:05:07
X2 hat Mikroruckler und schlechte Treiber, nimm die GTS

vinacis_vivids
2008-02-27, 01:07:00
Und alle Nvidiakarten haben den VRAM Bug, welcher seit über einem Jahr noch nicht behoben wurde - weil er gar nicht zu beheben ist.

Gast
2008-02-27, 01:10:27
Und alle Nvidiakarten haben den VRAM Bug, welcher seit über einem Jahr noch nicht behoben wurde - weil er gar nicht zu beheben ist.

Beweise es...oder schweige Ati Fanboy

Schrotti
2008-02-27, 01:35:06
vinacis_vivids ist ATI Fanboy und das Problem der Microruckler ist weder bei ATI noch bei nVidia behoben.

Nimm die 8800GTS.

Gast
2008-02-27, 01:38:28
Und das Problem der Mikroruckler wird auch in Zukunft nicht behoben, auf beiden Seiten.
http://www.pcgameshardware.de/aid,633537/News/Multi-GPU_Mikroruckler_Erste_Statements_von_AMD_und_Nvidia/

vinacis_vivids
2008-02-27, 01:53:07
Beweise es...oder schweige Ati Fanboy

http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page9.asp

http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page19.asp

KinGGoliAth
2008-02-27, 01:57:48
auch wenn ich das thema nicht wirklich verfolgt habe aber gab es so ein problem damals bei den voodoo 2 karten von 3dfx auch?
soweit ich mich erinner hat sich da nie einer beschwert. was wurde da denn so entscheidend anders gemacht?

Gast
2008-02-27, 02:01:21
http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page9.asp

http://www.firingsquad.com/hardware/xfx_geforce_8800_gt_256mb_xxx_review/page19.asp

Nein keine Benchmarks ich will Beweise (nachweisbare).

Sven77
2008-02-27, 02:05:26
Und alle Nvidiakarten haben den VRAM Bug, welcher seit über einem Jahr noch nicht behoben wurde - weil er gar nicht zu beheben ist.

nimm nen aktuellen Treiber, dann ist der "Bug" quasi nicht mehr existent

http://www.pcgameshardware.de/?menu=browser&article_id=633746&image_id=781524&show=original

vinacis_vivids
2008-02-27, 02:06:08
auch wenn ich das thema nicht wirklich verfolgt habe aber gab es so ein problem damals bei den voodoo 2 karten von 3dfx auch?
soweit ich mich erinner hat sich da nie einer beschwert. was wurde da denn so entscheidend anders gemacht?

Bei 3dfx weiß ich es nicht aber der VRAm Bug besteht definitiv bei allen Nvidia Karten. Auch bei der 8800 G92 und 9600GT:
http://techreport.com/articles.x/14168/5

vinacis_vivids
2008-02-27, 02:08:15
nimm nen aktuellen Treiber, dann ist der "Bug" quasi nicht mehr existent

http://www.pcgameshardware.de/?menu=browser&article_id=633746&image_id=781524&show=original

Siehe Beitrag oben, da wurde die 9600GT mit 174.12 inc. VRAM Bug getestet.

Sven77
2008-02-27, 02:15:26
das scheint eher eine SLI problematik zu sein, die einzelkarten brechen nicht weg

vinacis_vivids
2008-02-27, 02:17:37
das scheint eher eine SLI problematik zu sein, die einzelkarten brechen nicht weg

Der VRAM Bug schlägt bei Crysis voll durch wenn man 4xAA und AF zuschaltet in höheren Auflösungen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

Gast
2008-02-27, 02:22:41
Wem interessieren unspielbare Einstellungen?

Schrotti
2008-02-27, 02:23:27
Wieder diese tolle CB Bench wo mit unterschiedlichen Treibern gebencht wurde.

vinacis_vivids
2008-02-27, 02:25:45
Wieder diese tolle CB Bench wo mit unterschiedlichen Treibern gebencht wurde.

Die 9600er wurde mit neuestem Treiber gestetet ;)

Schrotti
2008-02-27, 02:26:42
Toll die 8800er aber nicht!

Sven77
2008-02-27, 02:32:08
und woher kommt der geschwindigkeitsboost mit 17x.xx bei der 320MB GTS? vom heiligen geist, oder was?

Gast
2008-02-27, 02:40:58
Der VRAM Bug schlägt bei Crysis voll durch wenn man 4xAA und AF zuschaltet in höheren Auflösungen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis

Also die 3870er sieht kein Land dort, liegt das am VRAM Bug?

Gast
2008-02-27, 02:42:47
Die 9600er wurde mit neuestem Treiber gestetet ;)

Gibt es noch Beweise oder drückst du dich wieder?

vinacis_vivids
2008-02-27, 04:12:37
Toll die 8800er aber nicht!

Ich rede auch von Nvidias VRAM Bug nicht nur vom Bug der 8800er :wink:

und woher kommt der geschwindigkeitsboost mit 17x.xx bei der 320MB GTS? vom heiligen geist, oder was?

Hier wurde der VRAM BUG durch gesteigerte Kompression in höhere Auflösungen verschoben.

Also die 3870er sieht kein Land dort, liegt das am VRAM Bug?

Crossfire Skaliert überall mit 40-60% während 9600SLI bei zuschaltung von AA/AF nahezu 0% skaliert Aufgrund des VRAM Bugs :wink:
Zumal sind die ATI treiber bei dem Test uralt :wink:

vinacis_vivids
2008-02-27, 05:38:30
Das sieht man mal wieder wie dumm du bist. Nimmst irgendwelche Balken und laberst vom VRAM-Bug. Du weisst ja nichtmal was das überhaupt ist... Nur weil es nicht skaliert ist ein VRAM Bug aktiv? OH Mann so ein Trottel....

9600SLI ist sogar wegen des SLI Rechenaufwandes und dem VRAM BUG langsamer als die Einzelkarte. Hab mich vertippt sry. SLI sklaliert hier Aufgrund des VRAM Bugs ins negative trotz der doppelten Bandbreite ;).

RoNsOn Xs
2008-02-27, 09:05:10
es gibt keinen bug, das ist ineffektives speichermanagment.
darüber hinaus ist sli/cf nur was für freaks und nix für genießer

Gast
2008-02-27, 09:05:24
Ich rede auch von Nvidias VRAM Bug nicht nur vom Bug der 8800er :wink:



Wieso redest du von nicht existenten Dingen? Es gibt keinen VRAM-Bug und es gab auch nie einen.

Gast
2008-02-27, 09:50:53
Der VRAM Bug schlägt bei Crysis voll durch wenn man 4xAA und AF zuschaltet in höheren Auflösungen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/21/#abschnitt_crysis
Wenn ich da sehe das eine 9600GT in 1280x1024 4xAA/16xAF so schnell wie eine X2 ist, was hat die ATI dann für einen Bug :D

dargo
2008-02-27, 09:53:55
Wenn ich da sehe das eine 9600GT in 1280x1024 4xAA/16xAF so schnell wie eine X2 ist, was hat die ATI dann für einen Bug :D
Einen Speede-Bug? ;D

Ich kann diesen Schwachsinn @Vram-Bug nicht mehr hören. Das Wort des Jahres 2007 taucht wieder im Jahre 2008 auf. :|

MartinRiggs
2008-02-27, 10:28:54
naja, so ganz für schwachsinn halte ich das nicht, Oblivion hatte bei mir öfter unerklärliche Einbrüche mit der 8800GT, von 70 FPS auf 20 runter obwohl sich an der Szene nix geändert hat.
Einstellung war 1680x1050 mit 4xAA/16xAF.
Selbst wenn der V-RAM voll ist dürfte die Karte nicht so in die Knie gehen und mit der HD3870 ist das nicht aufgetreten.
Ich muss es jetzt nochmal mit dem 174er Treiber testen.

The_Invisible
2008-02-27, 11:20:59
Ich rede auch von Nvidias VRAM Bug nicht nur vom Bug der 8800er :wink:



Hier wurde der VRAM BUG durch gesteigerte Kompression in höhere Auflösungen verschoben.



Crossfire Skaliert überall mit 40-60% während 9600SLI bei zuschaltung von AA/AF nahezu 0% skaliert Aufgrund des VRAM Bugs :wink:
Zumal sind die ATI treiber bei dem Test uralt :wink:

die x2 treiber können nicht uralt sein.

mir scheint es außerdem das die unbeschnittenen g80 nicht auf einmal so wegzubrechen scheinen. jedenfalls fällt mir auf die schnelle kein game ein wo das der fall ist.

mfg

Mr. Lolman
2008-02-27, 11:25:43
mir scheint es außerdem das die unbeschnittenen g80 nicht auf einmal so wegzubrechen scheinen. jedenfalls fällt mir auf die schnelle kein game ein wo das der fall ist.

mfg

Wenn der RAM voll ist, ist das überall der Fall. zB http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html

puntarenas
2008-02-27, 11:42:32
Wenn der RAM voll ist, ist das überall der Fall. zB http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html
Ja, sieht man an der 8800GT 256MB in diesem Test sehr schön, bricht gelegentlich böse weg. :eek:

An der 3850 256MB sieht man dagegen, wie es besser gehen könnte, diese verliert zwar in VRAM-kritischen Szenarien natürlich auch gegenüber dem 512MB-Gegenpart, allerdings bricht sie nicht regelrecht weg. Bevor Einwände kommen, es geht mir um die Relation, dass die Karte in solchen Szenen keine spielbaren Ergebnisse liefert, ist mir dabei egal.

Erschreckend ist aber auch irgendwie, wie nah eine 9600GT der 8800GT in hohen Auflösungen mit AA rückt, wurden beim G92 noch alte Treiber verwendet oder ist G94 einfach effizienter? Es steht nur Forceware 174.12, aber vielleicht herrscht dort ja das Computerbase-Syndrom und die anderen Ergebnisse wurden aus früheren Reviews übernommen, mein Französich gibt das leider nicht her existiert leider nicht.

Edit: Interessant wäre mal eine 9600GT mit 256MB...

The_Invisible
2008-02-27, 11:44:56
Wenn der RAM voll ist, ist das überall der Fall. zB http://www.hardware.fr/articles/705-1/dossier-geforce-9600-gt-radeon-hd-3650.html

leider keine echter g80 dabei.

mfg

severator
2008-02-27, 15:10:11
warum nicht eine 8800gtx kaufen, die ist der 3870 ob x2 oder nicht allemal vorzuziehen, bei einem tft mit geringerer auflösung ginge auch 8800gts 512 noch sehr gut ;)

bei nv gibts auch noch schöne bildqualtität mit ssaa, allerdings wird hier immer bhauptet, dass es ohnehin nicht zu verwenden sei aufgrund des großen leistungsverlusts, kann aber aus erfahrung sagen bis 1280x1024 manchmal auch höher ist 8xs bei nahezu jedem spiel verwendbar

und den vram bug..wenns denn einer ist - den kenn ich nur aus gts320 zeiten bei karten mit 512mb+ ist es derzeit kein problem!

lg

vinacis_vivids
2008-02-27, 17:27:02
Ja, sieht man an der 8800GT 256MB in diesem Test sehr schön, bricht gelegentlich böse weg. :eek:

An der 3850 256MB sieht man dagegen, wie es besser gehen könnte, diese verliert zwar in VRAM-kritischen Szenarien natürlich auch gegenüber dem 512MB-Gegenpart, allerdings bricht sie nicht regelrecht weg. Bevor Einwände kommen, es geht mir um die Relation, dass die Karte in solchen Szenen keine spielbaren Ergebnisse liefert, ist mir dabei egal.

Edit: Interessant wäre mal eine 9600GT mit 256MB...

Die Version mit 512MB bricht ebenfalls böse weg, wenn man nur eine etwas höhere Auflösung verwendet.
Interessant wäre die 256MB 9600GT natürlich nicht, weil die genauso wegbricht aufgrund des VRAM Bugs.

4711
2008-03-05, 12:26:57
naja,hab ja nun auch ne GTS (92)drinn (irgendwann mußten die Ultras ja mal weg sonst kannste die über kurz oder lang an die Wand tackern)hab mal Oblivion mit den selben Einstellungen gespielt wie mit der Ultra und da passiert nix negatives,gleiches gilt für Stalker,COD4,G3,bin etwas überrascht :eek:
Vieleicht wir die Bandbreite ja doch was überschätzt und Shader und CoreClock unterschätzt.
Und vom "vrambug" ;D bin ich bis jetzt auch verschont geblieben.

Sven77
2008-03-05, 12:37:29
falls dich der VRam-Bug mal in den Arsch beissen sollte, kannst ja in den von vinacis_vivids erstellten Selbshilfetread im deluxx vorbeigucken. sehr selbstlos...

4711
2008-03-05, 12:43:00
Ich hab für Sekten nix übrig :D

4711
2008-03-06, 09:30:41
boooa hat mich der Lüfter erschreckt :D
Ultra 60% nix zu hören
GTS 60% Hubschraubär ;D
jetzt weiß ich auch warum das Ding nur mit 20% läuft ab "Werk".
Hab ihn jetzt auf 40% im Idle 300/500/300>41 Grad
zocke jetzt alles mit nem 24" WS in 1680x1050 (750/1880/1080)mit allem Schnickschnack.
Und muß gestehen die Karte ist jeden Cent Wert für diese Gegebenheiten.

=Floi=
2008-03-06, 10:04:00
schön zu hören