PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 285: (P)Review-Thread


AnarchX
2009-01-15, 13:05:35
http://img73.imageshack.us/img73/9982/geforcegtx285med3qtrhj4.png

Daten der GTX 285 im Vergleich zur GTX 280:
• Taktrate Shader-ALUs: 1.476 MHz (1.296 MHz)
• Taktrate ROP-Domäne (Kerntakt): 648 MHz (602 MHz)
• Taktrate VRAM: 1.242 MHz (1.107 MHz)
• Speicherbandbreite: 159GB/s (141,7GB/s)
• Größe VRAM: 1.024 MiB GDDR3
• Anzahl Shader-ALUs: 240
• Textureinheiten (TMUs): 80
• Texturfüllrate: 51.840 MTex/Sek. ( 48.160 MTex/Sek.)
• Render-Backends/ROPs: 32
• Fertigungsprozess: 55nm (65nm)
• TDP: 183 Watt (236 Watt)
• Kühlung: 80-mm-Radiallüfter, Doppel-Slot
• Stromversorgung: PCI-E.-Slot + 2x 6-Pin-Anschluss (PCI-E.-Slot + 6-Pin- und 8-Pin-Anschluss)

Testberichte:

deutsch:

PCGH (http://www.pcgameshardware.de/aid,672945/Test/Benchmark/Geforce_GTX_285_-_Test_der_neuen_Nvidia-Grafikkarte)
Point of View GeForce GTX 285 und MSI GeForce GTX 295 (http://ht4u.net/reviews/2009/nvidia_gtx_285_295/)
Test: Nvidia GeForce GTX 285 (SLI) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/)
andere Sprachen:
http://www.pcper.com/article.php?aid=660&type=expert&pid=1
http://www.tbreak.com/articles/40/1/Zotac-GTX285-AMP-Edition/Page1.html
http://www.cpu3d.com/review/7015-1/asus-engtx285-top-geforce-gtx-285/introduction.html
GeForce GTX 285 review | 3-way SLI (http://www.guru3d.com/article/geforce-gtx-285-review--3way-sli/)
GeForce GTX 285: 55nm Enabling Higher Performance (http://www.anandtech.com/video/showdoc.aspx?i=3501)

mictasm
2009-01-15, 14:56:36
Tjoar, stellt sich nur noch die Frage: Jetzt Standard kaufen oder auf eine werksübertaktete warten? Für mich werden es wohl die letzten Grafikkarten für lange Zeit (oder wenn nur noch Konsolenumsetzungen kommen die letzten überhaupt).

KonKorT
2009-01-15, 15:10:11
Hier noch ein paar weitere. Computerbase hat es sich offenbar gespart, einen Artikel zu bringen, nachdem man schon ein Preview lieferte. Oder die Redis sind noch in Las Vegas. ;)

Hartware (http://www.hartware.de/review_892.html)
HT4U (http://ht4u.net/reviews/2009/nvidia_gtx_285_295/)

deekey777
2009-01-15, 15:11:32
http://www.anandtech.com/video/showdoc.aspx?i=3501&p=9
Interessant wäre eine Apple-to-Apple-Verbrauchsmessung (GTX285@GTX280 oder noch besser GTX280@GTX285). Die GTX285 ist ja deutlich höher getaktet (hallo, Shadertakt von fast 1,5 GHz?), so diese fünf Watt Mehrverbrauch sind alles andere als schlecht. Natürlich könnte der Watthunger niedriger sein, aber immerhin.

HT4U liefert ja etwas andere Verbrauchsmessungen als Anandtech, die IMO noch viel angenehmer sind. :up:

Werewolf
2009-01-15, 15:15:04
Tjoar, stellt sich nur noch die Frage: Jetzt Standard kaufen oder auf eine werksübertaktete warten? Für mich werden es wohl die letzten Grafikkarten für lange Zeit (oder wenn nur noch Konsolenumsetzungen kommen die letzten überhaupt).

Viel eher: Auf 40nm warten. Spielemäßig tut sich erst einmal nicht viel großartiges dass es einer GTX 285 bedarf.

DraconiX
2009-01-15, 15:24:52
Hier noch das Review von HardTecs4u, 285 vs 295:

http://ht4u.net/reviews/2009/nvidia_gtx_285_295/

EDIT:
Mist, zu langsam :D

Jake Dunn
2009-01-15, 15:35:26
:|

http://www.abload.de/img/18003ozkp.png (http://www.abload.de/image.php?img=18003ozkp.png)

pXe
2009-01-15, 15:36:25
Hmm, ich hatte ja mit weniger Stromhunger gerechnet, die TDP wurde ja deutlich gesenkt im Gegensatz zur 280. Neues Netzteil kaufen möchte ich eigentlich nicht extra. Viel leiser als die 280 wird sie dann wohl auch nicht sein.

pXe

Undertaker
2009-01-15, 15:45:16
Ein bisschen mehr Leistung bei konstantem Verbrauch war doch das, was vom 55nm Prozess zu erwarten war, insofern doch eine sinnvolle Evolution der GTX280 :) Das es keine Quantensprünge geben wird, ließ doch schon der Prozesswechsel beim G92 erwarten...

derguru
2009-01-15, 15:46:13
so richtig happy durch die kleinere fertigung kann man nicht sein,jedenfalls als kunde.
verbrauch,preis und lautstärke bleiben bei alten.es gibt nur minimal bessere oc ergebnisse aber das war es schon.

LovesuckZ
2009-01-15, 15:52:10
so richtig happy durch die kleinere fertigung kann man nicht sein,jedenfalls als kunde.
verbrauch,preis und lautstärke bleiben bei alten.es gibt nur minimal bessere oc ergebnisse aber das war es schon.

Als Kunde kann es egal sein, welche Fertigung verwendet wird.

Spasstiger
2009-01-15, 15:54:18
Die ganz große Überraschung bezüglich der Leistungsaufnahme blieb aus, aber 15 Watt weniger im idle und 20-25 Watt weniger unter Last sind doch auch was. Das Leistungsaufnahme-Testsystem der PCGH braucht mit der GTX 285 im idle gerade mal 80 Watt, das braucht eine HD 4870 fast schon alleine im idle.

Schade, dass der Referenzkühler der GTX 285 gegenüber der GTX 280 etwas kürzer ausfällt, aber dennoch ist die Lautstärke geringer als bei der GTX 280.

derguru
2009-01-15, 15:57:54
Als Kunde kann es egal sein, welche Fertigung verwendet wird.
naja sehe ich nicht so,ich erwarte durch eine kleine fertigung und sonst keiner änderung am design mehr oc potenzial,kühler und auch weniger laustärke.
und wenn ich jetzt die preise der neuen 285 sehe krieg ich gleich herpes.

einziger gewinn durch die karten ist das die 280 gtx schön im preis fallen.

reunion
2009-01-15, 16:05:15
Die ganz große Überraschung bezüglich der Leistungsaufnahme blieb aus, aber 15 Watt weniger im idle und 20-25 Watt weniger unter Last sind doch auch was. Das Leistungsaufnahme-Testsystem der PCGH braucht mit der GTX 285 im idle gerade mal 80 Watt, das braucht eine HD 4870 fast schon alleine im idle.


Ja lol, je nach Test verbraucht die Karte sogar mehr. Doch ziemlich witzig nachdem man die TDP derart deutlich gesenkt hatte. Aber das gleiche Spiel gab es ja auch schon bei der 8800U.

LovesuckZ
2009-01-15, 16:06:14
naja sehe ich nicht so,ich erwarte durch eine kleine fertigung und sonst keiner änderung am design mehr oc potenzial,kühler und auch weniger laustärke.
und wenn ich jetzt die preise der neuen 285 sehe krieg ich gleich herpes.

einziger gewinn durch die karten ist das die 280 gtx schön im preis fallen.

Dann hätte wohl nVidia nicht einen eigenen Namen verwenden soll - achne, dass ist ja auch nicht gut für den Kunden. :rolleyes:
Ein Fertigungsprozeß ist kein Merkmal einer Grafikkarte.

Jake Dunn
2009-01-15, 16:07:44
Das Leistungsaufnahme-Testsystem der PCGH braucht mit der GTX 285 im idle gerade mal 80 Watt, das braucht eine HD 4870 fast schon alleine im idle.


Hää ? Ich denk du kannst mit Zahlen ?

PCHG-Testsystem ->79,7W GTX285 vs. 116W HD4870 sind 36,3W mehr ;)

Und jeder der die HD hat weiß das man mit untertakten (auf 250/250) ~35W einsparen kann


so richtig happy durch die kleinere fertigung kann man nicht sein,jedenfalls als kunde.
verbrauch,preis und lautstärke bleiben bei alten.es gibt nur minimal bessere oc ergebnisse aber das war es schon.

Schon Bestellt ? :D

Gast
2009-01-15, 16:08:52
Ja lol, je nach Test verbraucht die Karte sogar mehr.

Die Karte auf gar keinen Fall, sondern das Gesamtsystem.

derguru
2009-01-15, 16:10:05
Schon Bestellt ? :D

biste wahnsinnig,haste mal die preise angeschaut.ne ich lebe ganz gut mit der 295gtx zur zeit.

bei alternate gibts echt 285gtx karten die soviel kosten wie eine 295gtx,viel glück beim verkauf.;D

Spasstiger
2009-01-15, 16:11:20
Hää ? Ich denk du kannst mit Zahlen ?

PCHG-Testsystem ->79,9W GTX285 vs. 116W HD4870 sind 36,3W mehr ;)
Ich glaube, du hast mich missverstanden.
Testsystem komplett inkl. CPU, Speicher, HDD, Netzteil und GTX 295: 80 Watt
HD 4870 alleine ohne Rechner drumrum: fast 80 Watt (laut Xbitlabs sinds 65 Watt)
So habe ich das gemeint.

Jake Dunn
2009-01-15, 16:15:10
biste wahnsinnig,haste mal die preise angeschaut.ne ich lebe ganz gut mit der 295gtx zur zeit.

bei alternate gibts echt 285gtx karten die soviel kosten wie eine 295gtx,viel glück beim verkauf.;D

Ja stimmt schon, die nehmen es von den Lebendigen :rolleyes: die GTX285 ist 299€ Wert und die alte ca. 20-30€ weniger, bei der gebotenen Leistung :D

mictasm
2009-01-15, 16:16:04
so richtig happy durch die kleinere fertigung kann man nicht sein,jedenfalls als kunde.
verbrauch,preis und lautstärke bleiben bei alten.es gibt nur minimal bessere oc ergebnisse aber das war es schon.

Die Zielgruppe sind ja nun auch nicht gerade die GTX 280 Käufer...

Raff
2009-01-15, 16:17:24
Ja stimmt schon, die nehmen es von den Lebendigen :rolleyes: die GTX285 ist 299€ Wert und die alte ca. 20-30€ weniger, bei der gebotenen Leistung :D

Nö, bei der GTX 280 kriegst du mehr Kupfer, ALUminium und Silizium (Die-Fläche) für dein Geld. ;)

MfG,
Raff

Jake Dunn
2009-01-15, 16:18:14
Ich glaube, du hast mich missverstanden.
Testsystem komplett inkl. CPU, Speicher, HDD, Netzteil und GTX 295: 80 Watt
HD 4870 alleine ohne Rechner drumrum: fast 80 Watt (laut Xbitlabs sinds 65 Watt)
So habe ich das gemeint.

Mit dem Testsystem zockt kein Mensch mit den Karten :D


Nö, bei der GTX 280 kriegst du mehr Kupfer, ALUminium und Silizium (Die-Fläche) für dein Geld. ;)

MfG,
Raff

Stimmt :biggrin:

Gast
2009-01-15, 16:21:14
Also wenn ich mir den reduzierten Idle-Verbrauch und auch die zugegeben kleinen Einsparungen unter Vollast bei ht4u.net bei Gleichzeitig 5-10% Mehrleistung anschaue, dann bin ich eigentlich sehr zufrieden. Wenn Nvidia jetzt noch einen halsbrecherischen Preispunkt setzt und das dürfte der etwas günstigere Chips ja hergeben, dann ist die GTX285 ausgesprochen attraktiv.

Warum sind die Karten bei ht4u.net eigentlich im B1-Stepping? Hinkt CPU-Z hinterher oder ist vom B3-Stepping noch ein klein wenig mehr zu erwarten?

dean
2009-01-15, 16:22:21
Nicht ganz unwichtig finde ich folgendes Zitat von PCGH:

"Während der Lasttests fiel uns die im Vergleich zur GTX 280 höhere Tendenz unserer GTX-285-Exemplare zum sogenannten "Spulenfiepen", einem sehr hohen Ton ähnlich dem Zirpen einer Grille, auf. Unser Meßinstrument nimmt allerdings Geräusche aus dem gesamten für Menschen hörbaren Spektrum auf und rechnet diese in die angegebenen Sone-Werte um. Das Fiepen findet in den Werten also bereits Berücksichtigung."

Also haben die Sparmaßnahmen doch noch einen Nachteil, der evtl. schon nerven kann.

Außerdem wüsste ich noch gerne, ob bei 2 angeschlossenen Bildschirmen endlich der 2D-Takt wieder geht, was aber wohl erst User-Berichte zeigen können...ne 280er ist bei mir deshalb gleich wieder rausgeflogen.

MadManniMan
2009-01-15, 16:24:17
Ein Fertigungsprozeß ist kein Merkmal einer Grafikkarte.

Warum nur hab ich das Gefühl, dass Du bei einer anderen Konstellation diesen Satz nicht geschrieben hättest? :rolleyes:

Coda
2009-01-15, 16:26:20
naja sehe ich nicht so,ich erwarte durch eine kleine fertigung und sonst keiner änderung am design mehr oc potenzial,kühler und auch weniger laustärke.
Das gilt eigentlich nur für Shrinks zwischen Full Nodes.

LovesuckZ
2009-01-15, 16:27:40
Warum nur hab ich das Gefühl, dass Du bei einer anderen Konstellation diesen Satz nicht geschrieben hättest? :rolleyes:

Tja, wer weiß. Fakt ist nunmal, dass die fast schon lemmingartigen User in den Foren sich beschweren, wenn nVidia keinen neuen nimmt und sich beschweren, wenn sie einen neuen Namen wählen, um auf einen neuen Fertigungsprozeß aufmerksam zu machen.
Und wenn dann der neue Fertigungsprozeß keine gravierenden Vorteile bringt, dann wird darauf auch rumgehauen.

derguru
2009-01-15, 16:28:58
Die Zielgruppe sind ja nun auch nicht gerade die GTX 280 Käufer...

ehrlich gesagt wüßte ich jetzt auf anhieb nicht wer die zielgruppe sein soll.

280gtx user niemals.
x2 user sowieso nicht weil mehr leistung(egal ob multigpu und skalierungsnachteile das nimmt man in kauf,die meisten jedenfalls)
260gtx user eigentlich auch nicht mit bissel oc kommt man auf die leistung
4870 1gb user viel zuteuer,dafür kriegt man fast 2 karten.

was bleibt denn da noch übrig?

die zielgruppe sind leute die gerade komplett ihren pc aufrüsten oder gleich alles neu kaufen.

Coda
2009-01-15, 16:31:01
die zielgruppe sind leute die gerade komplett ihren pc aufrüsten oder gleich alles neu kaufen.
Was doch nichts ungewöhnliches ist?

Jake Dunn
2009-01-15, 16:34:39
ehrlich gesagt wüßte ich jetzt auf anhieb nicht wer die zielgruppe sein soll.

280gtx user niemals.
x2 user sowieso nicht weil mehr leistung(egal ob multigpu und skalierungsnachteile das nimmt man in kauf,die meisten jedenfalls)
260gtx user eigentlich auch nicht mit bissel oc kommt man auf die leistung
4870 1gb user viel zuteuer,dafür kriegt man fast 2 karten.

was bleibt denn da noch übrig?

die zielgruppe sind leute die gerade komplett ihren pc aufrüsten oder gleich alles neu kaufen.

Die Karte(en) (265/285) sind ja auch hauptsächlich zur Kostensenkung gebracht worden.

derguru
2009-01-15, 16:35:03
Was doch nichts ungewöhnliches ist?
findest du?
dann werden sich die karten aber nicht wie warme semmel verkaufen.
oder was meinst du warum die auf 55nm aufgefahren haben um geld zu machen oder nicht?

Die Karte(en) (265/285) sind ja auch hauptsächlich zur Kostensenkung gebracht worden.
ist schon klar bin nur gespannt ob sich das rentieren wird.

Coda
2009-01-15, 16:39:54
findest du?
Natürlich. Die wenigsten kaufen sich Karten alle 6 Monate. Wenn überhaupt mal alle 12.

oder was meinst du warum die auf 55nm aufgefahren haben um geld zu machen oder nicht?
Kostensenkung und etwas mehr Performance. Win win.

derguru
2009-01-15, 16:50:55
man wird es dann in den quartals zahlen sehen,ob win,win enstanden ist;)

naja wie auch immer suuuper karte nur halbes jahr zuspät.

Spasstiger
2009-01-15, 16:59:35
Interessant finde ich, dass die OC-Varianten der GTX 285 teils mit so hohen Taktraten kommen, wie sie die PCGH maximal erreichte. Bei den offenbar 5 Retail-Testkarten wurde nur zwischen 1566 und 1620 MHz Shadertakt erreicht. Asus bringt die GTX 285 in einer OC-Variante mit eben diesen 1620 MHz. Ob die Karte so auch wirklich dauerhaft stabil läuft? Vielleicht hat man ja die Spannung ab Werk erhöht, aber da frage ich mich dann wieder, ob da noch die TDP von 189 Watt und die maximal erlaubte Leistungsaufnahme von 150 Watt über den Zusatzstecker eingehalten wird.

Matrix 3:16@work
2009-01-15, 17:06:22
ehrlich gesagt wüßte ich jetzt auf anhieb nicht wer die zielgruppe sein soll.

280gtx user niemals.
x2 user sowieso nicht weil mehr leistung(egal ob multigpu und skalierungsnachteile das nimmt man in kauf,die meisten jedenfalls)
260gtx user eigentlich auch nicht mit bissel oc kommt man auf die leistung
4870 1gb user viel zuteuer,dafür kriegt man fast 2 karten.

was bleibt denn da noch übrig?Gibt ja noch viele mit 8800GT (S) und so.

mictasm
2009-01-15, 17:08:59
ich zähle mich mal zur zielgruppe, die 8800gtx können jetzt in den ruhestand

y33H@
2009-01-15, 17:10:16
Ob die Karte so auch wirklich dauerhaft stabil läuft?Früher gab es genug OC-Karten, die die Clocks nicht gepackt haben. Wer sich die Asus kauft, möge sie dich mal mit SSAA quälen ;D

cYa

Coda
2009-01-15, 17:10:35
man wird es dann in den quartals zahlen sehen,ob win,win enstanden ist;)
Das ist angesichts der derzeitigen Wirtschaftsflaute wohl kaum auf die GTX 285 zu übertragen.

naja wie auch immer suuuper karte nur halbes jahr zuspät.
Natürlich ist sie zu spät. Ursprünglich war der Plan von NVIDIA auch G200 sofort in 55nm zu bringen.

Fetza
2009-01-15, 17:24:33
Ein Fertigungsprozeß ist kein Merkmal einer Grafikkarte.

Natürlich ist er das, jeder interessierte user weiss, dass die gtx 285 durch den neuen fertigungsprozeß besser zu takten ist, und weniger verbraucht.

Was glaubst du, warum ein namenhafter hersteller auf seine gtx 260 karten dick ein 55nm schild klebt.

Btw, irgendwie finde ich die karte für den preis auch nicht sehr sexy, hab mir auch mehr oc-potential erhofft.

Coda
2009-01-15, 17:29:28
Natürlich ist er das, jeder interessierte user weiss, dass die gtx 285 durch den neuen fertigungsprozeß besser zu takten ist, und weniger verbraucht.
Naja, im Prinzip hat er recht. Was den Benutzer interessiert ist Leistung, Features und Stromverbrauch und evtl. noch Übertaktbarkeit.

In welchem Fertigungsverfahren und mit welchen Taktraten das erreicht wird ist doch völlig nebensächlich.

whtjimbo
2009-01-15, 17:30:31
auch ich als 8800GTX Besitzer zähle mich zu der Gruppe der möglichen Käufer :)

erstaunlich ist aber, vor 2 Jahren habe ich locker 600€ für die 8800GTX bezahlt und jetzt zögere ich beim Preis von 350€ ... (obwohl die 285er fast 2x so schnell ist)

Daredevil
2009-01-15, 17:35:50
Das liegt unter anderem bestimmt auchnoch daran das du mit deiner 8800gtx immernoch aktuelle Spiele spielen kannst. :)

Mr.Magic
2009-01-15, 17:38:50
@whtjimbo

Wundert mich nicht.
Ich bin zwar auch immer wieder kurz davor zuzuschlagen, aber jetzt 350€ ausgeben, und dann beim Erscheinen der DX11-Karte gleich wieder rauswerfen, oder gar stattdessen die erste DX11-Generation überspringen (sofern sie nicht wesentlich schneller als die GTX280 ist)?!
Die "paar" Monate halte ich jetzt auch noch mit der 8800GTX aus, schließlich ist sie fürs meiste noch schnell genug, auch wenn ich bereits bei zwei Spielen die Auflösungen etwas senken musste (Crysis und GTA4).

LovesuckZ
2009-01-15, 17:58:21
erstaunlich ist aber, vor 2 Jahren habe ich locker 600€ für die 8800GTX bezahlt und jetzt zögere ich beim Preis von 350€ ... (obwohl die 285er fast 2x so schnell ist)

Das liegt wohl eher dran, dass man hir nur Leistung kauft. Und Leistungstechnisch sind es gerademal im Durchschnitt 80%. Imo macht es keinen Sinn auf diese Karte von einer 8800GTX zu wechseln.

Ronny G.
2009-01-15, 18:03:01
In meinen Augen ist die GTX285 der schwächste Refresh einer GPU die NVidia jemals getätigt hat, bis auf evtl. neue Taktrekorde hat das Ding einfach mal effetktiv nichts sonderbares was dem Gerät nen Mehrwert von auch nur 1€ gegenüber der GTX280 rechtfertigt, nee da bleibe ich lieber beim Oldschool GT200 und habe noch was für mein Geld.

Aber eigentlich bin ich ja auch Glücklich darüber, so habe ich noch mindest 6Monate lang nicht schon wieder Auslaufwahre im Rechner stecken.

dargo
2009-01-15, 18:12:24
In meinen Augen ist die GTX285 der schwächste Refresh einer GPU die NVidia jemals getätigt hat, bis auf evtl. neue Taktrekorde hat das Ding einfach mal effetktiv nichts sonderbares was dem Gerät nen Mehrwert von auch nur 1€ gegenüber der GTX280 rechtfertigt, nee da bleibe ich lieber beim Oldschool GT200 und habe noch was für mein Geld.

Die GTX 285 ist als Upgrade auch nicht für Besitzer von GT200 GPUs gedacht. Schon gar nicht der schon eine GTX 280 sein eigen nennt. ;)

Spasstiger
2009-01-15, 18:14:38
In meinen Augen ist die GTX285 der schwächste Refresh einer GPU die NVidia jemals getätigt hat, bis auf evtl. neue Taktrekorde hat das Ding einfach mal effetktiv nichts sonderbares was dem Gerät nen Mehrwert von auch nur 1€ gegenüber der GTX280 rechtfertigt, nee da bleibe ich lieber beim Oldschool GT200 und habe noch was für mein Geld.
Die GeForce 8800 Ultra war imo deutlich unspannender. Kein besseres OC-Potential als bei der 8800 GTX, nur 9-10% schneller, lauterer Kühler als bei der 8800 GTX, höhere Leistungsaufnahme, deutlich höherer Preis.

Die GTX 285 kostet wenigstens nur soviel mehr als die GTX 280, wie sie schneller ist. Zudem ist die Leistungsaufnahme der GTX 285 gegenüber der GTX 280 gesunken und nicht gestiegen. Gleiches gilt für die Lautstärke.

LovesuckZ
2009-01-15, 18:15:44
Abgesehen davon, wird es sowieso die einzige Karte sein, die auf den Markt bleiben wird. GTX280 Käufer werden nicht verarscht und Neukäufer können nur diese Karte erwerben.

Ronny G.
2009-01-15, 18:33:31
Die GTX 285 ist als Upgrade auch nicht für Besitzer von GT200 GPUs gedacht. Schon gar nicht der schon eine GTX 280 sein eigen nennt. ;)

Für wenn dann? Wer vorher keine GTX280 wollte wird jetzt bestimmt auch nicht die GTX285 haben wollen, weil es keine wirklichen Pro-Argumente gibt.

Die GeForce 8800 Ultra war imo deutlich unspannender. Kein besseres OC-Potential als bei der 8800 GTX, nur 9-10% schneller, lauterer Kühler als bei der 8800 GTX, höhere Leistungsaufnahme, deutlich höherer Preis.

Die GTX 285 kostet wenigstens nur soviel mehr als die GTX 280, wie sie schneller ist. Zudem ist die Leistungsaufnahme der GTX 285 gegenüber der GTX 280 gesunken und nicht gestiegen. Gleiches gilt für die Lautstärke.

Dabei wurde ja eigentlich auch nichts weiter am GPU geändert, es blieb ein G80, somit sehe ich das nicht so kritisch, aber bei der GTX285 VS. GTX280 sieht es auf dem Papier doch wesentlich besser aus, allerdings nur dort.

Gast
2009-01-15, 18:39:53
Für wenn dann? Wer vorher keine GTX280 wollte wird jetzt bestimmt auch nicht die GTX285 haben wollen, weil es keine wirklichen Pro-Argumente gibt.

Neben den Kleinigkeiten gibt es da noch den Preis. Ich habe mir zu Anfangs keine GTX280 gekauft, weil ich sie zu teuer fand. Als sie dann schließlich preislich interessanter wurde war klar, dass die GTX285 bald kommt. Ich denke viele Kaufwillige haben dann noch ein wenig gewartet, der Rest hat ohnehin schon eine GTX280 oder bedient sich in anderen Marktsegmenten.

Also wird Nvidia jetzt die Zurückhaltenden der vergangenen Monate einsammeln und dann ist da ja noch das alltägliche Geschäft aus Komplettaufrüstern und Neusystemkäufern.

Schlammsau
2009-01-15, 18:47:24
Neben den Kleinigkeiten gibt es da noch den Preis. Ich habe mir zu Anfangs keine GTX280 gekauft, weil ich sie zu teuer fand. Als sie dann schließlich preislich interessanter wurde war klar, dass die GTX285 bald kommt. Ich denke viele Kaufwillige haben dann noch ein wenig gewartet, der Rest hat ohnehin schon eine GTX280 oder bedient sich in anderen Marktsegmenten.

Also wird Nvidia jetzt die Zurückhaltenden der vergangenen Monate einsammeln und dann ist da ja noch das alltägliche Geschäft aus Komplettaufrüstern und Neusystemkäufern.

Aber die GTX285 ist ja jetzt genauso teuer wie eine GTX280 vor 2 Wochen.
Ich glaube nicht, dass durch die neue Karte die Umsätze für nVidia steigen werden.
Vielmehr wird der Gewinn nVidia´s wieder etwas steigen, da die GPU günstiger zu fertigen ist.

Gast
2009-01-15, 18:50:05
Aber die GTX285 ist ja jetzt genauso teuer wie eine GTX280 vor 2 Wochen.
Ja, aber die GTX280 hatte vor 2 Wochen den Mangel, dass die GTX285 vor der Tür stand.


Ich glaube nicht, dass durch die neue Karte die Umsätze für nVidia steigen werden.
Vielmehr wird der Gewinn nVidia´s wieder etwas steigen, da die GPU günstiger zu fertigen ist.
Gewinnsteigerung werden wir sehen, ich denke der Wettbewerb wird auch den aktuellen Preis noch in die Tiefe ziehen. Allerdings kann man besser im Preiskampf mithalten und weniger Verlust ist auch eine Art von Gewinn.

Gast
2009-01-15, 18:53:41
und weniger Verlust ist auch eine Art von Gewinn.

In Marketingsprech auf jeden Fall ;D

Ronny G.
2009-01-15, 18:55:03
Neben den Kleinigkeiten gibt es da noch den Preis. Ich habe mir zu Anfangs keine GTX280 gekauft, weil ich sie zu teuer fand. Als sie dann schließlich preislich interessanter wurde war klar, dass die GTX285 bald kommt. Ich denke viele Kaufwillige haben dann noch ein wenig gewartet, der Rest hat ohnehin schon eine GTX280 oder bedient sich in anderen Marktsegmenten.

Also wird Nvidia jetzt die Zurückhaltenden der vergangenen Monate einsammeln und dann ist da ja noch das alltägliche Geschäft aus Komplettaufrüstern und Neusystemkäufern.

Klar die GTX280 war gerade nach dem Release viel zu teuer, hat sich dann aber recht schnell eingependelt und war über viele Monate für ~350€ zu haben, warum also so lange enthaltsam sein? Die GTX285 wird jetzt schon beim Relaise für ~350€ angeboten(sofort lieferbar), das ist aber kein Geschenk von Nvidia, sondern der Markt, sie können einfach nicht mehr verlangen, ATI macht zu viel druck. Nur verdient NV dabei jetzt wieder mehr pro GTX285 als vorher bei GTX280.

edit: wo bleibt der Mehrwert für den Endkunden?

MadManniMan
2009-01-15, 19:01:51
Tja, wer weiß. Fakt ist nunmal, dass die fast schon lemmingartigen User in den Foren sich beschweren, wenn nVidia keinen neuen nimmt und sich beschweren, wenn sie einen neuen Namen wählen, um auf einen neuen Fertigungsprozeß aufmerksam zu machen.
Und wenn dann der neue Fertigungsprozeß keine gravierenden Vorteile bringt, dann wird darauf auch rumgehauen.

Haja, so habe ich das jetzt nicht direkt empfunden.

Aber wahrscheinlich hab ich nur meinen Bullshit-Filter insoweit etwas aktiver, als dass ich auf völlig neben der Spur befindliche Äußerungen weniger achte.
Dass der G200 bisher in 65nm kam, wurde meinem Empfinden nach eher als "schade" als als "scheiße" betitelt, der neue Name begründet sich durch die höhere Performance und ich sehe bei dem Prozess eigentlich nur Vorteile: niedrigerer Verbrauch im idle, unter Last kein Mehrverbrauch trotz höherer Performance, leicht geringere Abwärme im Schnitt und letztendlich günstigere Preise - auch für nV.

Vielleicht bin ich inzwischen zu vernünftig :usad:

Ronny G.
2009-01-15, 20:00:33
Haja, so habe ich das jetzt nicht direkt empfunden.

Aber wahrscheinlich hab ich nur meinen Bullshit-Filter insoweit etwas aktiver, als dass ich auf völlig neben der Spur befindliche Äußerungen weniger achte.
Dass der G200 bisher in 65nm kam, wurde meinem Empfinden nach eher als "schade" als als "scheiße" betitelt, der neue Name begründet sich durch die höhere Performance und ich sehe bei dem Prozess eigentlich nur Vorteile: niedrigerer Verbrauch im idle, unter Last kein Mehrverbrauch trotz höherer Performance, leicht geringere Abwärme im Schnitt und letztendlich günstigere Preise - auch für nV.

Vielleicht bin ich inzwischen zu vernünftig :usad:

natürlich sind das eigentlich alles positive neuerungen, aber eben nix weltbewegendes, alles mehr oder weniger Nuancen besser als der Vorgänger.
Die Richtung stimmt, aber von vernünftigkeit im Highendbereich zu reden ist halt auch sehr Gegensätzlich, Highend war noch nie vernünftig. Den Porschefahrer interessiert es auch nicht ob sein Wagen nun 0,3l weniger verbraucht, das bei 10ps mehr, solche Dinge sind in solchen Klassen uninterresant.

dargo
2009-01-15, 20:09:25
Für wenn dann? Wer vorher keine GTX280 wollte wird jetzt bestimmt auch nicht die GTX285 haben wollen, weil es keine wirklichen Pro-Argumente gibt.

Du wirst lachen - ich habe mir unter anderem die GTX280 nicht geholt weil sie zu viel Verlustleistung und dementsprechend zu viel Abwärme für meinen Geschmack produziert hat. Hätte ich meine G80 GTS noch drin wäre die GTX285 für mich eine gute Option.

Coda
2009-01-15, 20:14:38
Also ich finde die GTX 285 auch wesentlich sympatischer.

Gast
2009-01-15, 20:21:14
Wesentlich? Wo sind denn die wesentlichen (!) Verbesserungen die das begründen könnten? :confused:

Darkman]I[
2009-01-15, 20:22:04
mich juckts ja auch in den fingern. im moment stören mich nur einige dinge:

- das angebliche spulenpiepsen
- der preis
- noch nicht verfügbare wasserkühler

würde gerne meine gute 8800 gtx in rente schicken. die hat sie sich sehr verdient.

aber eigentlich wäre es vernünftig auf die nächste generation zu warten, weil mit der 8800 gtx eigentlich noch alles ganz gut rennt...

schwierig schwierig... ;)

Gast
2009-01-15, 20:23:05
Also ich bitte dich... Wenn ich ne 88GTX hätte würde ich über nen Wechsel garnicht erst nachdenken...

Gast
2009-01-15, 20:25:19
I[;7042731']
- das angebliche spulenpiepsen

Siehe dazu auch: nVidia - GTX 285 und das berüchtigte Spulenpfeifen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=444282).

Coda
2009-01-15, 20:31:26
Also ich bitte dich... Wenn ich ne 88GTX hätte würde ich über nen Wechsel garnicht erst nachdenken...
Also 27 statt 15 FPS sind dann schon ein Argument. 80% mehr Leistung sind doch deutlich spürbar.

Darkman]I[
2009-01-15, 20:33:15
was mich auch an der gtx285 reizt ist der niedrigere verbrauch im idle. ist auch ein dicker pluspunkt für die gtx285 vs. 8800 gtx.

nur bin ich darauf angewiesen auf die gtx285 direkt einen wasserkühler zu setzen, da der luftkühler mit dem nb-wasserkühler kollidieren wird. :/

mictasm
2009-01-15, 21:22:13
Also ich bitte dich... Wenn ich ne 88GTX hätte würde ich über nen Wechsel garnicht erst nachdenken...

jo, und das gilt natürlich für jeden anwendungsfall... :rolleyes:

mit 30" und dem wunsch nach nativer auflösung ist ein 285er sli ein ordentlicher fortschritt gegenüber einem 88gtx sli.
ist vielleicht ein extremer wunsch, aber das war er vor 2 jahren auch schon... ;D

MuLuNGuS
2009-01-16, 08:35:26
also,

für jemanden wie mich mit einer 8800GT und einem 24er ist das doch eine sehr attraktive karte.

mekakic
2009-01-16, 09:23:44
also,

für jemanden wie mich mit einer 8800GT und einem 24er ist das doch eine sehr attraktive karte. Bei mir ganz genauso. Bräuchte die Karte zwar eigentlich nicht (so selten wie ich spiele), wenn ich spiele wäre gute Qualität schon nett. Und wenn sie erstmal verfügbar ist, wird die bestimmt schnell auf 300€ fallen und ist dann auch preislich okay. Nur das Spulenpfeifen macht mir Sorgen...

Raff
2009-01-16, 09:47:25
Boah, was für ein Anti-Hype. Die HD4870 X2 pfeift, die GTX 260 pfeift, die 280 ebenfalls – aber bei der GTX 285 bekommen alle Angst, weil das mal explizit ausgesprochen wird? ;D So aufdringlich ist das nun auch wieder nicht. Wirklich evil ist nur das Fiepen bei vierstelligen Fps ... und das lässt sich durch Framelocks gesichert umgehen.

MfG,
Raff

mekakic
2009-01-16, 09:52:50
Was heißt hier Hype? Habe gerade zum ersten Mal davon gehört, ich habe keine dieser genannten Karten, aber von anderen pfeifenden Geräten weiß ich, wie sehr mich sowas stören kann. Ob das jetzt hier zutrifft wird sich zeigen. Ein paar Wochen werden sowieso noch ins Land gehen bevor ich sie mir kaufe - also Zeit genug, um ein differenziertes Meinungsbild zu bekommen. Und wenn am Ende mich ein Pfeifen stören sollte, geht die Karte eben zurück.

Darkman]I[
2009-01-16, 09:54:24
ist ja nicht so dass meine 8800 gtx nicht pfeift (crysis hauptmenü z.b.:rolleyes:)

Psychopat
2009-01-16, 10:00:13
Was noch nicht angesprochen wurde:
Mit der GTX 285 wird der Abstand zur GTX 260 größer, was auch sehr wichtig ist. Es gibt ja GTX 260er mit Werks OC die schneller als eine GTX 280 sind. Da stellt man den Mehrpreis schon in Frage.
Mir zumindest ist es bisher so vorgekommen, das eine GTX 280 sich nicht wirklich lohnt gegenüber einer GTX 260...

Mr.Magic
2009-01-16, 10:08:29
Boah, was für ein Anti-Hype. Die HD4870 X2 pfeift, die GTX 260 pfeift, die 280 ebenfalls – aber bei der GTX 285 bekommen alle Angst, weil das mal explizit ausgesprochen wird? ;D So aufdringlich ist das nun auch wieder nicht. Wirklich evil ist nur das Fiepen bei vierstelligen Fps ... und das lässt sich durch Framelocks gesichert umgehen.

MfG,
Raff

Die Frage ist eben ob es sich um das übliche Pfeifen handelt, oder ob es durch die Sparmaßnahmen noch lauter/häufiger ist als bisher.

Will sagen, es wird sich zeigen müssen, ob das nur ein Einzelfall war.
Während der Lasttests fiel uns die im Vergleich zur GTX 280 höhere Tendenz unserer GTX-285-Exemplare zum sogenannten "Spulenfiepen", einem sehr hohen Ton ähnlich dem Zirpen einer Grille, auf.

Es gibt ja GTX 260er mit Werks OC die schneller als eine GTX 280 sind. Da stellt man den Mehrpreis schon in Frage.
Mir zumindest ist es bisher so vorgekommen, das eine GTX 280 sich nicht wirklich lohnt gegenüber einer GTX 260...

Es gibt auch GTX280 und 285 mit Werks-OC, und die kosten nicht wesentlich mehr als die mit mit Referenztakt (~20€ mehr). Das ist also kein echtes Argument.

Schlammsau
2009-01-16, 10:26:02
Pfeifen tun einige Karten am Markt, unabhängig davon obs ATi oder nVidia ist.
Die Frage ist nur, ist es bei der GTX285 stärker als bei ihrem Vorgänger?

Werewolf
2009-01-16, 10:28:43
Das Pfeifen einer GTX 260/280 ist deutlich lauter und unangenehmer als das einer 4870 (bei der es erfreulich minmal ist). Ja, auch bei 1000fps.

The_Invisible
2009-01-16, 10:43:07
überlege auch umzusteigen, alleine schon wegen dem 2d verbrauch, weil gamer pc = dev pc. pfeifen hatte ich schon seit meiner 6800gt, hör das gar nicht mehr :D

mfg

Gast
2009-01-16, 10:49:55
Bei ATI hatte ich das zum Glück noch nicht (toi, toi, toi), aber ich musste drei 8800GT zurückschicken, bevor ich eine behalten konnte. Eine Palit pfiff schon beim Scrollen im Browser "Oh Lapaloma", zwei Gainwards bereits bei >100FPS unerträglich, bei VSync und 60FPS nur wie ein leises Zischeln.

Sowas macht einen kirre, die jetztige Karte läßt sich mit ATITool auch zum Zirpen bringen, aber auch nur in solchen Extremsituationen und selbst dort recht verhalten. Muss man vom neuen Design gleich 3 Stück bestellen in der Hoffnung, dass eine davon nur im üblichen Rahmen zirpt?

Von Raff würde ich mehr Verständnis wünschen. Wer von Flimmerfiltern und Shaderflimmern Alpträume bekommt, sollte in der Lage sein, sich in Leute hinein zu versetzen, die besonders empfindlich auf diesen Aspekt der Grafikkarten reagieren (und Mainboards). Das ist keine Hetzjagd, das ist schiere Verzweiflung, es ist ja nicht so dass der Markt hochwertige Designs zur Verfügung stellen würde, diese Ansprüche werden nicht bedient. Wenns flimmert nimmt man Nvidia, wenns zirpt Zyankali. :mad:

The_Invisible
2009-01-16, 11:21:57
Bei ATI hatte ich das zum Glück noch nicht (toi, toi, toi), aber ich musste drei 8800GT zurückschicken, bevor ich eine behalten konnte. Eine Palit pfiff schon beim Scrollen im Browser "Oh Lapaloma", zwei Gainwards bereits bei >100FPS unerträglich, bei VSync und 60FPS nur wie ein leises Zischeln.

Sowas macht einen kirre, die jetztige Karte läßt sich mit ATITool auch zum Zirpen bringen, aber auch nur in solchen Extremsituationen und selbst dort recht verhalten. Muss man vom neuen Design gleich 3 Stück bestellen in der Hoffnung, dass eine davon nur im üblichen Rahmen zirpt?

Von Raff würde ich mehr Verständnis wünschen. Wer von Flimmerfiltern und Shaderflimmern Alpträume bekommt, sollte in der Lage sein, sich in Leute hinein zu versetzen, die besonders empfindlich auf diesen Aspekt der Grafikkarten reagieren (und Mainboards). Das ist keine Hetzjagd, das ist schiere Verzweiflung, es ist ja nicht so dass der Markt hochwertige Designs zur Verfügung stellen würde, diese Ansprüche werden nicht bedient. Wenns flimmert nimmt man Nvidia, wenns zirpt Zyankali. :mad:

dann würde die karte eben teurer werden und die leute würden wieder heulen.

früher hat man noch locker 500€ für ne neu erschienene highendkarte bezahlt, heute heult man schon bei knapp über 300€. immer diese schei* "geiz ist geil" moral, es hat nun mal alles seinen preis.

vielleicht ist das auch nur die neue jugend, früher hat man zumindest zb über den preis einer geforce 2 ultra noch gelacht, heute wird nur mehr geheult.

mfg

Spasstiger
2009-01-16, 11:51:14
vielleicht ist das auch nur die neue jugend, früher hat man zumindest zb über den preis einer geforce 2 ultra noch gelacht, heute wird nur mehr geheult.
Jopp, die Leute sind nicht mehr bereit, soviel für Hardware auszugeben wie früher. Zu GeForce-2-Zeiten galt die Geforce 2 MX mit 300 DM als Schnäppchen. Dabei war sie nur ein Drittel so schnell wie die GeForce 2 Ultra. Eine Radeon HD 4870 1 GiB ist auf vergleichbarem Preisniveau wie die GeForce 2 MX damals (Inflation eingerechnet), bietet aber immerhin schon die Hälfte des High-End-Leistungsniveaus. Und wenn man Dual-GPU-Karten außen vor lässt, liefert sie sogar 75% des High-End-Leistungsniveaus.

Mr. Lolman
2009-01-16, 11:59:51
Und wenn man Dual-GPU-Karten außen vor lässt, liefert sie sogar 75% des High-End-Leistungsniveaus.

Imo sogar ~80. Schon mit 8.12 warens 81% zur GTX280 (bei 1680x1050 4xAA(16xAF). Bei 2560x1600 4xAA/16xAF sinds sogar 90%: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

reunion
2009-01-16, 12:04:41
Das ist nur Cat. 8.11.

derguru
2009-01-16, 12:15:11
der cat 9.1 wird auch nochmal den leistungsunterschied zwischen den karten um die 5-10% verkürzen.
am ende könnte der vorsprung einer 280gtx bei 10% liegen und umso höhere settings umso enger wird es.

Werewolf
2009-01-16, 12:18:02
Ist der 9.1er nun wirklich so gut oder eher in extremen unspielbaren Settings? Bin mal gespannt

derguru
2009-01-16, 12:22:15
was heißt extrem gut,richtige performancesprünge machen eigentlich nur crysis und call of juarez und bei crysis gibts noch das af problem wo man noch mal von der beta performance ca.15% abziehen müßte.

Schlammsau
2009-01-16, 12:25:52
was heißt extrem gut,richtige performancesprünge machen eigentlich nur crysis und call of juarez und bei crysis gibts noch das af problem wo man noch mal von der beta performance ca.15% abziehen müßte.

Man muss noch dazu sagen, dass das fehlende AF in Crysis (Warhead) nur in DX10 vorkommt!
Ich selber habe Benches in DX9@Enthusiast gemacht, mit funktionierendem AF, wo die Steigerung auch etwas bringt!

Rechne mal in Crysis@Very High + 16xAF rund 10% weniger, dann hast du die Performance des neuen Treibers!

Raff
2009-01-16, 12:35:21
Rechne mal in Crysis@Very High + 16xAF rund 10% weniger, dann hast du die Performance des neuen Treibers!

16:1 AF kostet auf einer Radeon mehr als 10 Prozent. Ok, bei 8x AA und vielleicht noch vollem VRAM vielleicht, sonst aber eher 20 Prozent.

MfG,
Raff

Schlammsau
2009-01-16, 12:38:28
16:1 AF kostet auf einer Radeon mehr als 10 Prozent. Ok, bei 8x AA und vielleicht noch vollem VRAM vielleicht, sonst aber eher 20 Prozent.

MfG,
Raff

Aber nicht im Durchschnitt....gerade in Enthusiast/Very High, ist AF doch relativ wenig vertreten. Bei der Masse an POM in Crysis.

y33H@
2009-01-16, 12:42:23
Nur weil man es aufgrund des POMs weniger bemerkt ist der Rechenaufwand trotzdem gleich. Auch Sachen die man nicht direkt sieht, kosten Leistung ;)

cYa

mekakic
2009-01-16, 12:43:18
dann würde die karte eben teurer werden und die leute würden wieder heulen.

früher hat man noch locker 500€ für ne neu erschienene highendkarte bezahlt, heute heult man schon bei knapp über 300€. immer diese schei* "geiz ist geil" moral, es hat nun mal alles seinen preis.
Naja, nicht-pfeifende Elektronik kostet keine 200€ :rolleyes: Und früher wurde genauso über die Preise geredet. V² SLI für 1300DM und die GF2U waren da hauptsächlich Stein des Anstoßes. Das die Karten heute günstiger sind, liegt doch wohl in erster Linie an Konkurrenz und billigen Speicherpreisen - und einer anderen Marktdurchdringung. Man bezahlt ja auch heute nicht mehr 10 bis 20.000DM für einen PC ohne das deren Qualität nachgelassen hätte.

Jopp, die Leute sind nicht mehr bereit, soviel für Hardware auszugeben wie früher. Zu GeForce-2-Zeiten galt die Geforce 2 MX mit 300 DM als Schnäppchen. Dabei war sie nur ein Drittel so schnell wie die GeForce 2 Ultra. Den Hype um die GF2MX fand ich damals übertrieben. Sicher konnte man mit der Karte gut was anfangen, aber sie war schon deutlich beschnitten und den guten Ruf hat sie ja in erster Linie durch ihre tolle T&L Einheit bekommen.

Spasstiger
2009-01-16, 12:58:10
Den Hype um die GF2MX fand ich damals übertrieben. Sicher konnte man mit der Karte gut was anfangen, aber sie war schon deutlich beschnitten und den guten Ruf hat sie ja in erster Linie durch ihre tolle T&L Einheit bekommen.
In meinem Bekanntenkreis hatten etliche eine GeForce 2 MX, die Verbreitung dürfte bei mindestens 50% gelegen haben. Als wir mal in der Clique auf einer Elektronik-Messe waren, haben sich gleich drei Bekannte eine GeForce 2 MX mitgenommen. Für Counter Strike, Unreal Tournament und Quake 3 hats gereicht. ;)

HD-Ronny
2009-01-16, 15:16:19
In meinem Bekanntenkreis hatten etliche eine GeForce 2 MX, die Verbreitung dürfte bei mindestens 50% gelegen haben. Als wir mal in der Clique auf einer Elektronik-Messe waren, haben sich gleich drei Bekannte eine GeForce 2 MX mitgenommen. Für Counter Strike, Unreal Tournament und Quake 3 hats gereicht. ;)

Sicher repräsentativ. :rolleyes:

Spasstiger
2009-01-16, 15:28:01
Sicher repräsentativ. :rolleyes:
Die GeForce 2 MX war damals mit Sicherheit die meist verkaufte Zockergrafikkarte. Wenn man damals auf einer LAN-Party war, brauchte man gar nicht erst nach der Grafikkarte zu fragen, fast immer war es eine GeForce 2 MX. Ich kannte einen einzigen mit einer schnelleren Karte (GeForce 2 Ti).

Ich hab selbst mal eine GeForce 2 MX einem Kumpel zum Spass abgekauft zum symbolischen Preis eines Essens im Fast-Food-Restaurant. Wahrscheinlich gammeln viele von den Karten heute noch in den Kellern oder Eltern-PCs vor sich hin.

Armaq
2009-01-16, 15:53:43
Das war definitiv eine der Karten überhaupt. Genauso wie die Geforce 4 MX Verschnitte.

Mr.Magic
2009-01-16, 15:56:49
Den Hype um die GF2MX fand ich damals übertrieben. Sicher konnte man mit der Karte gut was anfangen, aber sie war schon deutlich beschnitten und den guten Ruf hat sie ja in erster Linie durch ihre tolle T&L Einheit bekommen.

Die GF2MX ging damals weg wie warme Semmeln.
Ändert aber nichts nichts daran, dass selbst eine olle GeForce 256 schneller ist. Die hatten wir irgendwann mal (entweder nach der Ti oder der Ultra-Einführung) für einen ähnlichen Preis im Abverkauf.

Gast
2009-01-16, 16:10:32
Weiß man schon welche Beigaben bei den Karten der einzelnen Nvidia-Partnern beigelegt werden ?

Bei den ganzen Reviews der Karte steht nie etwas dazu. Das finde ich persönlich sehr schade. Auch die Shops listen das mehr halbherzig als detailgetreu auf.

Bei folgenden Nv-Partnern liegen -wahrscheinlich- diese Sachen bei:

ASUS: Kein Vollpreisspiel, dafür einen Gutschein (keine Ahnung, was man damit einlösen kann und wieviel) und ein sehr kleines Mousepad. Schade eigentlich, denn ASUS tratt in solchen Aktionen immer anders auf!

MSI: Tomb Raider Underworld , steht wohl fest

XFI: Far Cry 2 ????!!!!! Oder doch gar nichts ? Oder eher Assassins Creed ?

Zotac: Grid wahrscheinlich wieder ??

EVGA: keine Ahnung

Gainward: gar nichts ?

Rest: keine Ahnung

Vielleicht kann man diese Liste mal komplettieren , wenn ihr da Infos zu habt !


Vielen Dank !

MfG

dargo
2009-01-16, 16:10:37
also,

für jemanden wie mich mit einer 8800GT und einem 24er ist das doch eine sehr attraktive karte.
Wobei, wenn man es genauer betrachtet gibts die GTX 260-216 schon für 210€:
http://geizhals.at/deutschland/a364550.html

Dh. man zahlt bei der GTX 285 für ca. 20-25% mehr Leistung >50% mehr. Jetzt mal den etwas größeren Vram außen vor gelassen. Es war aber schon sehr oft der Fall, dass das P/L-Verhältnis bei der schnellsten Hardware schlechter ist. Naja, die Entscheidung muss jeder für sich treffen. :)

Mr.Magic
2009-01-16, 16:36:34
Weiß man schon welche Beigaben bei den Karten der einzelnen Nvidia-Partnern beigelegt werden ?

XFX: wahlweise Far Cry 2 oder Assassin's Creed (Gutschein)
Zotac: Race Driver: Grid + 3DMark Vantage Advanced
MSI: Tomb Raider: Underworld
Asus: 10% (max. $25) Nachlass-Gutschein auf max. 5 Spiele vom nVidia Store
Point of View: Prince of Persia (SE-Bundle)
EVGA: Nichts
GigaByte: Nichts
Leadtek: Nichts

ps: Die Informationen sind entweder vom Packungsaufdruck, aus Tests oder von der Herstellerseite.

Gast
2009-01-16, 18:04:28
Dh. man zahlt bei der GTX 285 für ca. 20-25% mehr Leistung >50% mehr. Jetzt mal den etwas größeren Vram außen vor gelassen.
Okay, aber nach der Rechnung landet man sowieso bei ATI und freut sich über Bang (FPS) for the buck. Besonders angesichts der Hybrid-Modi begrüsse ich den Mehrspeicher der GTX 285 sehr und wenn man das einbezieht tut der Mehrpreis nicht mehr ganz so weh, auch wenn das sehr teure 128MB GDDR3-RAM sind. :)

mictasm
2009-01-16, 18:24:51
Mir juckt es grad extrem in den Fingern, noch schnell zum Wochenende zwei 285 vor Ort zu kaufen (Palit, kein OC, ca. 330 Euro).

Schreibt mir mal Gründe, warum ich lieber auf eine Werks OC Version oder auf eine sichere B3 Version warten soll...

Ich bin so unentschlossen...

Gast
2009-01-16, 18:31:31
Schlaf ne Woche drüber. Impulskäufe sind immer eine schlechte Idee.

Spasstiger
2009-01-16, 21:13:46
Schreibt mir mal Gründe, warum ich lieber auf eine Werks OC Version oder auf eine sichere B3 Version warten soll...
Die PCGH brachte nur OC-Varianten auf über 1600 MHz Shadertakt. Zudem gibts OC-Varianten, die ab Werk mit über 1600 MHz Shadertakt arbeiten.

Gast
2009-01-16, 21:24:24
Wann kommt den was schnelleres von nV? Meine für 6-7 Monate würd ich das Geld jetzt ned ausgeben...

Spasstiger
2009-01-16, 21:30:49
Wann kommt den was schnelleres von nV? Meine für 6-7 Monate würd ich das Geld jetzt ned ausgeben...
Da sich die 40-nm-GPUs offenbar verschieben, würde ich erst im September oder Oktober mit neuen Nvidia-GPUs rechnen. Bei ATI gibt es evtl. schon im März oder April was Neues.

whtjimbo
2009-01-16, 21:57:59
bei EVGA: Mirror's Edge Download Gutschein (nur USA?)

Mr.Magic
2009-01-17, 12:16:56
Ich habe mir gestern aus Jux und Dollerei mal eine Zotac GTX 285 AMP! Edition bestellt. Die kam heute auch prompt an.

Von Spulenpfeifen merke ich nichts, und der Lüfter ist im offenen Gehäuse -bei ansonsten runtergeregelten Lüftern- kaum wahrnehmbar. Er dreht ab ~80°C etwas auf, wodurch er auch bei geschlossenem Gehäuse im stillen Kämmerlein hörbar wird. Die bisherige Maximaltemperatur lag bei 83°C (FurMark Xtreme Burning Mode).

http://home.arcor.de/magic-dsl/nethands/3DMarkVantage.png

derguru
2009-01-17, 12:30:11
haste auch so ein lautes summen das über die boxen kommt wenn du in einem spielmenü bist mit hoher fps zahl?

Mr.Magic
2009-01-17, 12:42:22
haste auch so ein lautes summen das über die boxen kommt wenn du in einem spielmenü bist mit hoher fps zahl?

Nein, habe zum Testen sogar die Lautstärke aufgedreht.

Dafür höre ich tatsächlich ein Spulenpfeifen bei 1000FPS+, wenn ich mein Ohr ans Gehäuse halte.

ollix
2009-01-17, 13:29:42
Hmm, die Karte mit so einem Gerät (Accelero Xtreme GTX280) ab Werk (http://www.arctic-cooling.com/vga2.php?idx=202) würde mich reizen; vielleicht bringt Elitegroup oder sonstwer wieder so ein Modell auf den Markt.

Gast
2009-01-17, 13:34:41
Hmm, die Karte mit so einem Gerät (Accelero Xtreme GTX280) ab Werk (http://www.arctic-cooling.com/vga2.php?idx=202) würde mich reizen;

Wozu soll der Schrott gut sein? Hat ja nur 3 Lüfter...

ollix
2009-01-17, 14:25:27
Leise? Habe die 8800GT mit einem Werks-Accelero der Vorgängerversion und bin davon sehr angetan.

Gast
2009-01-17, 14:27:22
Die Karte ist mit dem Serienkühler schon leise...

Mayk-Freak
2009-01-19, 00:05:34
Wozu soll der Schrott gut sein? Hat ja nur 3 Lüfter...

Steht doch da wozu der Kühler gut ist für OC und längere Lebensdauer!:rolleyes:

Unyu
2009-01-19, 00:12:06
Leise?
Die armen Spawas.

SentinelBorg
2009-01-19, 15:34:34
Außerdem wüsste ich noch gerne, ob bei 2 angeschlossenen Bildschirmen endlich der 2D-Takt wieder geht, was aber wohl erst User-Berichte zeigen können...ne 280er ist bei mir deshalb gleich wieder rausgeflogen.
Das würde ich auch gerne wissen.

y33H@
2009-01-19, 20:24:04
Mit dem 181.20 gings bei mir nicht :(

EDIT
CRT + TFT

cYa

Gast
2009-01-20, 11:20:29
Gibt es einen speziellen Grund, warum noch kaum Reviews veröffentlicht wurden (ComputerBase, xbitlabs, ...)? Ist die Karte noch gar nicht offiziell vorgestellt? Wann geht es richtig los?

Raff
2009-01-20, 11:38:55
Die wurde am 15. gelauncht und ist in Massen verfügbar. CB hatte eine Preview online, dann kam die CES, vermutlich hatten sie einfach keine Zeit.

MfG,
Raff

mictasm
2009-01-20, 17:11:43
und manche preise sind sogar schon wieder gestiegen o_O

reunion
2009-01-20, 17:16:21
Ja weil der Euro in den Keller geht.

mictasm
2009-01-20, 18:21:30
ja genau, deshalb werden manche 285er billiger und andere teurer... aber egal, du hast ja recht.

Gast
2009-01-21, 15:51:03
Mit dem 181.20 gings bei mir nicht :(

EDIT
CRT + TFT

cYa

Dank dir für den Gegen-Test.

Vielleicht noch jemand, der das mal ausprobieren kann?

Wäre ja wirklich sehr schade, wenn das noch immer nicht gefixt ist.....

Gruss
Dean

deekey777
2009-01-24, 02:19:33
Test: Nvidia GeForce GTX 285 (SLI) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/) auf CB.

Gast
2009-01-24, 02:45:44
Test: Nvidia GeForce GTX 285 (SLI) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/) auf CB.

Treiberchaos :rolleyes:

Spasstiger
2009-01-24, 02:47:40
Test: Nvidia GeForce GTX 285 (SLI) (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/) auf CB.
Da wurde mal wieder mit unterschiedlichen Treibern getestet.
GTX 285 und GTX 295 @ 181.20, der Rest @ 180.48.
Mit 8xAA erscheint die GTX 285 deshalb in diesem Review ungewöhnlich stark gegenüber der GTX 280 (z.B. +24% bei Lost Planet @ 1280x1024).

/EDIT: Mein Vorredner hats auch schon bemerkt. :biggrin:

Crazy_Chris
2009-01-24, 12:07:15
Laut Computerbase erreicht die Karte im Idle nur ~40°C bei 40% Lüftergeschwindigkeit... Nvidia ist sowas von selten dämlich. :rolleyes: Ich will verdammt nochmal eine leise Karte wenn ich arbeite und da ist es egal ob die Karte nun bei 20, 30, 40, 50, 60 oder 70°C läuft. Hauptsache es ist leise!!!!111 :mad: Spulenpfiepen ist für mich auch indiskutabel.

ATI soll zu potte kommen und endlich einen 4870 Refresh bringen.

LovesuckZ
2009-01-24, 12:15:52
Du kannst auch einfach die Lüftergeschwindigkeit per Hand senken. :rolleyes:

Crazy_Chris
2009-01-24, 12:17:35
Du kannst auch einfach die Lüftergeschwindigkeit per Hand senken. :rolleyes:

Hab mir schon gedacht das es eventuell über einen BIOS Hack geht. Aber warum sind die Defaulteinstellungen so grottig? :ubash2:

LovesuckZ
2009-01-24, 12:20:12
Hab mir schon gedacht das es eventuell über einen BIOS Hack geht. Aber warum sind die Defaulteinstellungen so grottig? :ubash2:

Kein Plan.
Rivatuner sollte ausreichend sein, um die Geschwindigkeit im 2D Modus einzustellen.

AnarchX
2009-01-24, 12:23:18
Hab mir schon gedacht das es eventuell über einen BIOS Hack geht. Aber warum sind die Defaulteinstellungen so grottig? :ubash2:
Geht auch simple via SW:
Rivatuner-Anleitung für den GT200 (Taktraten, Lüftersteuerung) (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=427987)

Nvidia wird sich schon bei dieser Einstellung etwas gedacht haben, wenn auch nicht auf Basis der Kundenperspektive.

Crazy_Chris
2009-01-24, 12:29:14
Na dann steht ja dem Kauf nichts mehr im Wege. :biggrin: (abgesehen vom Spulenpfeifen)

GeneralHanno
2009-01-24, 14:13:36
wieso ist nvidia eigentlich so restriktiv beim reverenzdesign? gerade bei der GTX285 würde ich gerne einige "eigenkreationen" sehen ...

Gast
2009-01-24, 14:18:39
ATI soll zu potte kommen und endlich einen 4870 Refresh bringen.
Leider malt ATI nur viele Bilder pro Zeiteinheit, aber keine schönen und die Leistung wahlweise für SuperSampling und Hybrid Modi einzusetzen erlauben sie nicht, stattdessen übernimmt A.I. vermutlich auch bald das Spielen selbst und man darf gar nichts mehr. Bleibt also für Viele nur Nvidia und deren Karten haben dafür andere schwerwiegende Macken. :(

y33H@
2009-01-24, 14:20:16
Siehe AMDs Board-Partner-Kreationen, die im FurMark abfackeln ;D nV hat da wohl kein Bock drauf. Aber in Asien gibts GTX280/260 mit alternativen Kühlern, einige werden in den nexten Wochen sicher auch hierher kommen.

cYa

Gast
2009-01-24, 16:17:12
Siehe AMDs Board-Partner-Kreationen, die im FurMark abfackeln ;D nV hat da wohl kein Bock drauf. Aber in Asien gibts GTX280/260 mit alternativen Kühlern, einige werden in den nexten Wochen sicher auch hierher kommen.

cYa
Für das abfackeln sorgt Nvidia lieber gleich selber sieht HeatBug ;D

GeneralHanno
2009-01-24, 21:43:43
palit wagt ein eigendesign (erstmal für die GTX260-55nm). vll folgt ja auch eine GTX285 ;)
http://hardwareluxx.de/story.php?id=9187

y33H@
2009-01-25, 00:09:01
Für das abfackeln sorgt Nvidia lieber gleich selber sieht HeatBugNur fürs Throtteln, sterben tun die Geforces - im Gegensatz zu den Radeons - nicht durch Überhitzung im Betrieb. Dafür kommts gerne mal vor, dass man den Rechner startet und ein Blackscreen eine tote 280 verkündigt ;D AMD und nV geben sich da nicht wirklich was ...

cYa

Ronny G.
2009-01-25, 00:40:56
palit wagt ein eigendesign (erstmal für die GTX260-55nm). vll folgt ja auch eine GTX285 ;)
http://hardwareluxx.de/story.php?id=9187


Non Referenz hat meist den Vorteil der günstigeren herstellung, natürlich mehr für den Hersteller als für den Endkunden.:rolleyes:

=Floi=
2009-01-25, 01:01:46
bei amd stirbt auch nicht der chip, sondern die stromversorgung. hier gibt es ebenfalls bessere modelle und kühllösungen. Ich hoffe nv setzt zukünftig dann auch eine stromversorgung mit mehr reserven. Davon profitiert auch der normale kunde.

y33H@
2009-01-25, 01:28:46
Ich hoffe nv setzt zukünftig dann auch eine stromversorgung mit mehr reserven.Im Falle der 55nm-Karten schon mal nicht. Die SpaWas fiepen stärker und sind offenbar empfindlicher - zumindest spacken die früher rum als die der 65er :(

cYa

Gast
2009-01-25, 10:44:04
Nur fürs Throtteln, sterben tun die Geforces - im Gegensatz zu den Radeons - nicht durch Überhitzung im Betrieb. Dafür kommts gerne mal vor, dass man den Rechner startet und ein Blackscreen eine tote 280 verkündigt
Worauf führst du das zurück, wenn nicht auf Überhitzung?

Crazy_Chris
2009-01-25, 11:03:25
Könnte man die pfeifenden Spulen nicht einfach mit etwas Kleber fixieren? :confused:

Gast
2009-01-25, 11:06:07
Könnte man die pfeifenden Spulen nicht einfach mit etwas Kleber fixieren? :confused:
Wann hast du zuletzt eine "richtige" Spule auf den Karten gesehen, also freier Blick auf die gewickelten Kupferdrähte? Auf neuen Karten sind diese Ferrit-Teile und an die Spule im Kern kommst du nicht ran.

Crazy_Chris
2009-01-25, 11:11:57
Wann hast du zuletzt eine "richtige" Spule auf den Karten gesehen, also freier Blick auf die gewickelten Kupferdrähte? Auf neuen Karten sind diese Ferrit-Teile und an die Spule im Kern kommst du nicht ran.

Ja ich weiß. Diese Ummantelung scheint ja mehr oder weniger nur eine "Attrappe" zu sein :wink: sonst würden die Spulen nicht pfeifen. Ne Öffnung muß es auch geben und diese könnte man doch versiegeln. Freiwillige vor? ;)

Gast
2009-01-25, 11:21:09
Es pfeifen vermutlich auch nicht die Spulen, sondern das Pfeifen kommt vom periodischen Ausdehnen und Zusammenziehen des Ferritkerns aufgrund der magnetischen Kräfte.

Crazy_Chris
2009-01-25, 11:39:13
Also wahrscheinlich alles eine Frage der Verarbeitungsqualität.

mictasm
2009-01-25, 13:35:11
nicht mal unbedingt, es könnte auch ein falsch dimensioniertes bauteil sein...

y33H@
2009-01-25, 13:47:51
Worauf führst du das zurück, wenn nicht auf Überhitzung?Ich weiß es nicht, ich weiß nur, dass die Dinger gerne mal sterben. Und ja, auch ohne Heat-Bug.

cYa

Gast
2009-01-25, 14:06:18
Ich weiß es nicht, ich weiß nur, dass die Dinger gerne mal sterben. Und ja, auch ohne Heat-Bug.

cYa
Die GPU ist eh das robusteste Teil auf der Graka. Da kann der Kühler auch mal in der Luft hängen. Was kaputt geht, sind die Bauteile auf dem PCB. Die werden durch die Stromfresser immer höheren Belastungen ausgesetzt. Dann noch die Wirtschaftskrise, da liefern Zulieferer auch mal Bauteile, die eigentlich Ausschuss sind und nicht die Spezifikationen erfüllen usw..
Denke in Zukunft werden wir das Phänomen des jungen unvermittelten Graka-Blitztods noch öfter erleben.

Raff
2009-01-25, 15:37:57
Denke in Zukunft werden wir das Phänomen des jungen unvermittelten Graka-Blitztods noch öfter erleben.

Möglich. Bei GeForce-Karten, welche sich anscheinend bald reihenweise overvolten lassen ... und bei Radeons, weil Spiele erscheinen, die einen auf FurMark machen. Da wird Ati sicher nichts bremsen lassen, denn es geht ja um Benchmark-Siege. ;)

MfG,
Raff

AnarchX
2009-01-28, 08:00:13
EVGA mit der schnelllsten GTX 285:
GeForce GTX 285 FTW (720MHz / 1620MHz / 1386MHz) (http://www.evga.com/products/moreinfo.asp?pn=01G-P3-1288-AR)

The_Invisible
2009-01-28, 09:26:45
EVGA mit der schnelllsten GTX 285:
GeForce GTX 285 FTW (720MHz / 1620MHz / 1386MHz) (http://www.evga.com/products/moreinfo.asp?pn=01G-P3-1288-AR)

die würde schon durchgehend doppele 8800ultra performance liefern, oder wie sehr ihr das?

mfg

Mr.Magic
2009-01-28, 14:06:29
die würde schon durchgehend doppele 8800ultra performance liefern, oder wie sehr ihr das?

mfg

Das hängt von den Einstellungen ab.
Ab 1920er Auflösung + 4xAA hat man oft Faktor 2, mit Hybridmodi dann fast immer, wenn die CPU nicht bremst.

KonKorT
2009-02-05, 14:45:28
Gainward GTX 285 und GTX 295 (http://www.hardware-infos.com/tests.php?test=55)

Getestet wurde mit Geforce 181.20 und Catalyst 9.1. :)

y33H@
2009-02-05, 16:08:21
3-Way-285 vs. 295-Quad-SLI vs. Crossfire-X (3 + 4 GPUs) (http://www.pcgameshardware.de/aid,675191/Test/Benchmark/Grafikkarten-Test_Crossfire-X_gegen_Quad-SLI_und_3-Way-SLI/)

181.20 und 8.12

cYa

Gast
2009-02-06, 16:35:31
3-Way-285 vs. 295-Quad-SLI vs. Crossfire-X (3 + 4 GPUs) (http://www.pcgameshardware.de/aid,675191/Test/Benchmark/Grafikkarten-Test_Crossfire-X_gegen_Quad-SLI_und_3-Way-SLI/)

181.20 und 8.12

cYa
Zu diesen Beobachtungen kommt stets eine verstärkte Eingabeverzögerung hinzu (Input-Lag), die ebenfalls mit der Arbeitsweise des Alternate Frame Renderings (AFR) zusammenhängt. Quad-GPU-Systeme berechnen 7 Frames im Voraus, bevor diese nacheinander ausgegeben werden (das Limit von Vista liegt jedoch bei 4 Frames, ergo müssen 3 Frames "warten"). Der Input-Lag wird deshalb bei fallender Frame-Anzahl störender. Hinzu kommt, dass aufgrund der extremen Frameverteilung ein zusätzlicher Lag auftritt: Während der 80-Millisekunden-Pause (im Falle von Clear Sky etwa) wird keine Mausbewegung umgesetzt.

Hö? Wieso 7?

derguru
2009-08-04, 01:14:27
schick,schick
http://www.abload.de/img/asusmatrix_gtx285_1_dhylua.jpg
http://www.abload.de/img/asusmatrix_gtx285_3_dh1x10.jpg
quelle (http://www.xtremesystems.org/forums/showthread.php?t=230825")

Gast
2009-08-04, 09:15:03
Ansichtssache. ;D