PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Erste GTX260 in 55nm im Anmarsch! - neue Designs - 1792 MiB VRAM


Seiten : [1] 2

LaCroatino
2008-12-21, 11:39:35
Die Erste bzw. die ersten 3 Karten (EVGA) der GTX 260 in 55nm und 216 Shadereinheiten ist/sind verfügbar:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=11035&Itemid=1

http://www.ditech.at/artikel/GPE809/Grafikkarte_PCI-E_2.0_EVGA_e-GeForce_GTX_260_Core216_55nm_Superclocked_Retail_896MB.html

Megamember
2008-12-21, 12:00:53
Was hats denn mit diesem Flextronics auf sich. Ist das irgendwas besonderes mit denen nur die ersten Karten gefertigt werden und später nicht mehr? Hab ich jetzt net so ganz verstanden.

Gast
2008-12-21, 12:04:12
Verfügbar? Ich lese da was von Lagerbestand "0"...

Gast
2008-12-21, 22:57:14
Verfügbar? Ich lese da was von Lagerbestand "0"...

...dann sollte es besser "im Anmarsch" heißen...

Gast
2008-12-21, 23:00:46
Jo, mit unbekanntem Liefertermin :D

Schätze so in 2 Wochen wirds wohl soweit sein...

Leonidas
2008-12-22, 14:32:52
Was hats denn mit diesem Flextronics auf sich. Ist das irgendwas besonderes mit denen nur die ersten Karten gefertigt werden und später nicht mehr? Hab ich jetzt net so ganz verstanden.


Flextronics: Auftragshersteller nVidias, welcher beispielsweise die Referenzkarten erstellt und auch die ersten Batches an Verkaufskarten, die die eigentliche Grafikkarten-Hersteller dann vertreiben. Die Grafikkarten-Hersteller basteln in aller Regel erst nach dem Launch einer neuen Karte an ihren eigenen Designs los und brauchen daher am Anfang diese Flextronic-Karten, um lieferfähig zu sein. Zum anderen kann nVidia mit diesen Flextronic-Karten auch ein wenig den Marktpreis kontrollieren, da dort nicht nur der Grafikchip, sondern die ganze Karte (an die Grafikkarten-Hersteller, nicht an Endkunden) abgegeben wird.

Bei ATI übernimmt diese Rolle wohl immer noch Sapphire, obwohl die inzwischen ja auch mächtig im Retailgeschäft stecken.

deekey777
2008-12-22, 14:51:50
Die Herstellung von Grafikkarten ist von Außenstehenden kaum überschaubar, denn wir sind ja an gewisse Namen wie ASUS, Gigabyte usw. gewohnt.
So wie ich das verstanden habe, gibt es nur wenige (Auftrags-)Hersteller, die dann Grafikkarten für ASUS und Co bauen. Viele gehen soweit, dass sie nur ihre Aufkleber draufhauen, andere lassen nur die PCBs herstellen und übernehmen den Rest selbst. Powercolor, Club3D, (Gainward), XpertVision/Palit lassen ihre Produkte auch bei einem gemeinsamen Hersteller fertigen und versehen dann die Platinen entweder nur mit eigenen Aufklebern oder Kühllösungen.
Sapphire lässt seine Produkte bei PC Partner fertigen. PC Partner hat aber ein Tochterunternehmen Zotac. Das führte zur Verwirrung, denn eine gewisse Seite schrieb, PC Partner sei das Elternunternehmen von Zotac und Sapphire, was Sapphire gar nicht schmeckte.

Flextronics' Tochter ist Foxconn, auch Leadtek soll irgendwie dazu gehören. Zumindest hat Foxconn die 8800GTX und die GTS (640) für alle anderen "grünen" Hersteller gefertigt.

LaCroatino
2008-12-22, 16:06:52
Die Herstellung von Grafikkarten ist von Außenstehenden kaum überschaubar, denn wir sind ja an gewisse Namen wie ASUS, Gigabyte usw. gewohnt.
So wie ich das verstanden habe, gibt es nur wenige (Auftrags-)Hersteller, die dann Grafikkarten für ASUS und Co bauen. Viele gehen soweit, dass sie nur ihre Aufkleber draufhauen, andere lassen nur die PCBs herstellen und übernehmen den Rest selbst. Powercolor, Club3D, (Gainward), XpertVision/Palit lassen ihre Produkte auch bei einem gemeinsamen Hersteller fertigen und versehen dann die Platinen entweder nur mit eigenen Aufklebern oder Kühllösungen.
Sapphire lässt seine Produkte bei PC Partner fertigen. PC Partner hat aber ein Tochterunternehmen Zotac. Das führte zur Verwirrung, denn eine gewisse Seite schrieb, PC Partner sei das Elternunternehmen von Zotac und Sapphire, was Sapphire gar nicht schmeckte.

Flextronics' Tochter ist Foxconn, auch Leadtek soll irgendwie dazu gehören. Zumindest hat Foxconn die 8800GTX und die GTS (640) für alle anderen "grünen" Hersteller gefertigt.

Das nenn´ ich doch mal aufschlussreich! :biggrin:

Spasstiger
2008-12-22, 16:28:08
Knapp 300€ sind schon arg überzogen für diese Karten, eine schnellere GTX 260-216 gibts von XFX (http://geizhals.at/deutschland/a374208.html) schon für 230€. Bei diesem Preisunterschied verzichtet man auch gerne auf 55 nm.
Wer den Weihnachtsurlaub über zocken möchte, sollte sich lieber noch eine 65-nm-GTX-260 zulegen.

Gast
2008-12-22, 16:41:22
Die Preise werden schnell sinken wenn die 55nm erstmal flächendeckend verfügbar sind.

Die gelbe Eule
2008-12-22, 16:45:13
@Spasstiger:

Gerade zur GTX280 ist ja dann der Abstand sehr gering, preislich gesehen. Bisher haben noch nicht viele begriffen, daß die Märkte überall stagnieren und nicht jeder die Kohle für was neues ausgeben möchte.
Hätte gerne ein ordentliches 775 Brett mit der 3D Abschaltung, dann würde sich mein Stromzähler freuen und ich könnte mir so eine Karte anleiern.

AnarchX
2008-12-22, 17:41:44
Die Preise von Ditech sind völlig überzogen:
http://www.zipzoomfly.com/jsp/ProductDetail.jsp?ProductCode=10009817
http://www.zipzoomfly.com/jsp/ProductDetail.jsp?ProductCode=10009839
http://www.eworldsale.com/evga-896-p3-1257-ar-geforce-gtx260-core-216-superclocked-896mb-gddr3-express-x16-hdcp_5874_28290.html

Hier hat man zudem schon ein Bild vom neuen Kühler, den EVGA einsetzt:
http://img48.imageshack.us/img48/2259/10009817a4103447kx5.jpg (http://imageshack.us)

Gast
2008-12-22, 17:48:14
das ist doch der gleiche wie auf der zotac 55nm von der als erstes bilder durchs www gingen.

deekey777
2008-12-22, 17:48:19
Sind das 55nm-Versionen?
Denn die von ditech hat die Herstellerbezeichnung "896-P3-1257-ER", die von dir aber AR.

http://www.scan.co.uk/Product.aspx?WebProductId=934323

AnarchX
2008-12-22, 18:21:08
Wenn ich es recht durchschaue scheint, dann ist "ER" das Kürzel für 216SPs und "AR" für 192SPs, laut Geizhals.

Aber darauf darf man imo nicht soviel geben, im Endeffekt zeigen die verlinkten Händler ein Bild eines noch nicht bekannten Kühlerdesigns und (v2.0) ist auch oben in der Beschreibung vermerkt.

Am sichersten geht man wohl mit Herstellern wie Inno3D, welche die 55nm direkt auf dem Kühler vermerkt haben.;)

Hier gibt es auch noch eine direkt gelistete 55nm Karte:
https://www.czechcomputer.cz/product.jsp?artno=61966&localelang=en_US
... umgerechnet ~260€ mit dt. MwSt.

Coda
2008-12-22, 20:23:34
Wie ist eigentlich die Die Size von einem 55nm G200?

AnarchX
2008-12-22, 21:06:56
Wie ist eigentlich die Die Size von einem 55nm G200?
575mm² * 0.81?
Jedenfalls entsprachen die 55nm-G9x der TSMC Angabe des 90% linearen Shrinks.

Aber genaue Infos gibt es zu G200B leider noch nicht.

deekey777
2008-12-22, 21:23:56
(Wenn dazu noch die Packdichte eines RV770 hinzukommt...)

AnarchX
2008-12-22, 21:49:16
(Wenn dazu noch die Packdichte eines RV770 hinzukommt...)
Nur hat die nicht viel mit TSMC zu tun.

btw.
Das AR und ER bezieht sich auf die Verkaufsregion.

Wichtig ist die Nummer davor und da sind alle die hier verlinkten Karten 55nm SKUs.

pest
2008-12-22, 22:05:39
575mm² * 0.81?
Jedenfalls entsprachen die 55nm-G9x der TSMC Angabe des 90% linearen Shrinks.


irgendwo zwischen
(Sqrt[575]*55/65)²=411mm² und (Sqrt[575]*55/65*1.1)²=498mm² :D

Gast
2008-12-22, 23:58:44
Verdammich, ich kanns kaum erwarten dass jemand die Dinger endlich mal reviewt... Von wegen Temps, Lautstärke, Leistungsaufnahme... Warum dauert des so lange wenn man sie in Fernost schon kaufen kann :ungeduldigmitdemfingeraufdietischplattetrommel:

=Floi=
2008-12-23, 02:42:54
die ganzen leute sind im urlaub. Da geht jetzt garnichts mehr.

AnarchX
2008-12-23, 08:19:07
Nun auch offiziell bei EVGA:
http://www.evga.com/products/moreInfo.asp?pn=896-P3-1255-AR&family=GeForce%20GTX%20200%20Series%20Family

Interessant ist, dass diese "normale" GTX260-216SPs laut Spec-Sheet einen Shadertakt von 1350MHz haben soll:
http://www.evga.com/products/pdf/896-P3-1255-AR.pdf

Gast
2008-12-23, 10:22:05
Warum sind die EVGAs immer so teuer?

Gast
2008-12-23, 11:23:29
Weil eVGA den besten Service hat, und das bezahlst du beim Kauf mit.

KonKorT
2008-12-23, 11:59:16
Zumindest eine EVGA-Karte ist jetzt auch bei Geizhals geführt:

http://geizhals.at/deutschland/a392101.html

LolekDeluxe
2008-12-23, 12:13:26
Verdammich, ich kanns kaum erwarten dass jemand die Dinger endlich mal reviewt... Von wegen Temps, Lautstärke, Leistungsaufnahme... Warum dauert des so lange wenn man sie in Fernost schon kaufen kann :ungeduldigmitdemfingeraufdietischplattetrommel:
Übertreib mal nicht, da wird sich nichts ändern imgegensatz zu 65nm.
Die paar Mhz mehr werden den vorteil von 55nm auffressen.
War genauso bei der 9800 GTX, null unterrschied im Verbrauch zwischen 65 nm und 55 nm.
Einzige vorteil Nvidia wird mehr an der Karte verdienen.

Armaq
2008-12-23, 12:41:26
Übertreib mal nicht, da wird sich nichts ändern imgegensatz zu 65nm.
Die paar Mhz mehr werden den vorteil von 55nm auffressen.
War genauso bei der 9800 GTX, null unterrschied im Verbrauch zwischen 65 nm und 55 nm.
Einzige vorteil Nvidia wird mehr an der Karte verdienen.
Woher nimmst du das?

Ronny G.
2008-12-23, 12:54:05
Woher nimmst du das?

ansich hat er doch recht, Leistungstechnisch wird sich nix weiter ändern, nur halt nen geringer Stromverbrauch und damit weniger Abwärme. Wie sich die Dinger Ocen lassen steht halt noch aus.
Kann auch nicht verstehen wie man auf diesen Refreshchip so Geil sein kann.

Gast
2008-12-23, 12:59:17
Wenn Papi den Strom bezahlt kann einem die Leistungsaufnahme natürlich wirklich egal sein...

Ronny G.
2008-12-23, 13:04:03
Wenn Papi den Strom bezahlt kann einem die Leistungsaufnahme natürlich wirklich egal sein...

das stimmt, oder Vati ist bei den Grünen, dann sieht es duster aus.

Ich finde den Weg der besseren Effiziens doch auch nicht schlecht, aber eigentlich zählt alleine das in der Grafikkartenklasse doch sehr wenig, in aller erster Linie zählt hier Rechenleistung, und dabei kommt ja nix neues mit rum, keine zusätzlichen Recheneinheiten, kein höherer Takt.

Nen Porschefahrer kauft sich auch keinen Porsche weil er Sparsam ist, sondern weil er Leistung hat, die erkauft er sich nunmal mit höheren Fixkosten.

deekey777
2008-12-23, 13:28:25
55nm ist der Zwilling von 65 nm, nur kleiner. Und dass der Übergang von 65 auf 55 nm nicht ganz gelingen kann, sieht man beim Übergang von HD2400/2600 auf 3400/3600.

y33H@
2008-12-23, 13:41:33
Die paar Mhz mehr werden den vorteil von 55nm auffressen.Fail. Schau mal bei den XBitLabs vorbei oder stopf ne GTX und ne GTX+ in den Rechner - letztere zieht viel weniger unter Last (trotz höherer Clocks!) und lässt sich besser OCen.

cYa

deekey777
2008-12-23, 14:09:51
Fail. Schau mal bei den XBitLabs vorbei oder stopf ne GTX und ne GTX+ in den Rechner - letztere zieht viel weniger unter Last (trotz höherer Clocks!) und lässt sich besser OCen.

cYa
Das ist der Knackpunkt: Wie gut ist der Wechsel von 65 auf 55 beim GT200? Man hat zwei oder drei Respins gebraucht, bis die 55nm-Version fertig (oder zufriedenstellend?) war.

Gast
2008-12-23, 22:24:37
Ja eben, deshalb sind die Reviews ja so spannend, die Balkenlänge in irgendwelchen Spielebenchmarks, geschenkt, uninteressant, aber alles andere sehr spannend :)

robbitop
2008-12-24, 18:06:10
55nm ist der Zwilling von 65 nm, nur kleiner. Und dass der Übergang von 65 auf 55 nm nicht ganz gelingen kann, sieht man beim Übergang von HD2400/2600 auf 3400/3600.
Ich tippe fast eher darauf, dass diese TDP Ersparnis auf die Kappe der Prozessreife und der 3! Respins geht. Zumindest zu einem nicht unbedeutenden Teil.

=Floi=
2008-12-24, 20:57:45
beim normalen GT200 wird man auch auch schon bis ans letzte optimiert haben.

robbitop
2008-12-24, 22:46:40
Da gab es keine Respins.

Gast
2008-12-25, 09:19:15
Da gab es keine Respins.

Beim 55nm ebenfalls nicht!

robbitop
2008-12-25, 09:30:28
Beim 55nm ebenfalls nicht!
Doch. Schau doch mal bitte auf die Chip-Revision. Es waren zumindest 3 Respins.

Gast2
2008-12-25, 11:44:30
Doch. Schau doch mal bitte auf die Chip-Revision. Es waren zumindest 3 Respins.

Welche Chiprevisionen gibt es vom G200 denn?

AnarchX
2008-12-25, 11:47:28
Welche Chiprevisionen gibt es vom G200 denn?
Auf den GTX 295 sind aktuell B3-Chips, was bedeutet dass es die 3. 55nm Revision ist.

Eigentlicht reichte in Vergangenheit meist hier nur eine, weil es ja nur ein optischer Shrink ist.

Aber 55nm war wohl etwas problematisch für NV, denn selbst der winzige G96 besitzt sogar eine C1-Version, sodass hier wohl noch einiges mehr schief lief.

Gast
2008-12-25, 13:26:47
Auf den GTX 295 sind aktuell B3-Chips, was bedeutet dass es die 3. 55nm Revision ist.



Wieviele B-Revisionen gibt es? Zwei soweit ich weiss, also nix mit 3 Revisionen.

deekey777
2008-12-25, 13:32:46
Auf den GTX 295 sind aktuell B3-Chips, was bedeutet dass es die 3. 55nm Revision ist.

Eigentlicht reichte in Vergangenheit meist hier nur eine, weil es ja nur ein optischer Shrink ist.

Aber 55nm war wohl etwas problematisch für NV, denn selbst der winzige G96 besitzt sogar eine C1-Version, sodass hier wohl noch einiges mehr schief lief.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/2/#abschnitt_technische_daten
Die ersten 9500GT waren (noch) B1 (in 65 nm?). Vielleicht kam C1 als deutliche Abgrenzung zu den ersten B1-Chips in 65 nm?

Megamember
2008-12-26, 00:13:56
Hat der Kerl hier die neue? Blaues Platinendesign deutete doch auf die neue Zotac hin, oder?

http://www.forumdeluxx.de/forum/showthread.php?t=567685

Gast
2008-12-26, 01:06:11
Jo, des is ne 55nm

AnarchX
2008-12-26, 09:03:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/2/#abschnitt_technische_daten
Die ersten 9500GT waren (noch) B1 (in 65 nm?). Vielleicht kam C1 als deutliche Abgrenzung zu den ersten B1-Chips in 65 nm?
Jedenfalls gab es aber auch eine A1 Revision:
http://www.thg.ru/technews/20080115_100631.html

[dzp]Viper
2008-12-26, 09:19:54
Hat der Kerl hier die neue? Blaues Platinendesign deutete doch auf die neue Zotac hin, oder?

http://www.forumdeluxx.de/forum/showthread.php?t=567685

Ja das ist 100%ig eine da alle Chips auf einer Platinen-Seite sind. Das geht nur mit dem 55nm Chip (wahrscheinlich wegen Platz)


Da die Zotac 55nm 260iger genauso viel kostet wie die "alte" 65nm Karte ist jetzt die Frage, ob Zotac nur noch die 55nm Karte liefert und die 65nm Karte schnell "aussterben".

Dann wäre das eine Karte für mich *sabber*

War damals bei den 8800GTS ja bei Zotac ähnlich mit der Revision A0 und A1 :)

AnarchX
2008-12-26, 09:29:58
Viper;7000103']Ja das ist 100%ig eine da alle Chips auf einer Platinen-Seite sind. Das geht nur mit dem 55nm Chip (wahrscheinlich wegen Platz)
Das Package worauf der kleinere Die sitzt, ist gleich groß geblieben.

Es ist einfach nur das neue PCB exklusiv für die GTX 260, was durch die einseitige Bestückung und nur 10 Layer(genau soviel wie eine 98GTX+ AFAIR) günstigere Preise ermöglicht zusammen mit der günstigeren GPU.

Hier gibt es nun auch bessere Bilder der 55nm EVGA-Karten:
http://www.expreview.com/news/hard/2008-12-26/1230277601d10985.html

Aber die neue GTX 260 soll im Bezug auf Abwärme und Übertaktbarkeit sich durchaus positiv von der 65nm Version abheben, soweit ich gehört habe.

Viper;7000103']
War damals bei den 8800GTS ja bei Zotac ähnlich mit der Revision A0 und A1 :)
A2 und A3, welche mit der Ultra kam und dann auch auf den GTS verbaut wurde. ;)

[dzp]Viper
2008-12-26, 09:33:16
A2 und A3, welche mit der Ultra kam und dann auch auf den GTS verbaut wurde. ;)

Stimmt.. war jetzt durcheinandergekommen.

deekey777
2008-12-26, 23:19:57
Jedenfalls gab es aber auch eine A1 Revision:
http://www.thg.ru/technews/20080115_100631.html
Die News ist vom 15. Januar, der Test von CB vom Ende Juli. Vielleicht deswegen der Buchstabentausch.

EVGA SuperSuper clocked GTX 260 55nm at 675MHz tested (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11117&Itemid=1)
Der Shader-Clock ist ja heftig (die 65nm-Version (http://www.evga.com/products/pdf/896-P3-1267-AR.pdf): 1350)

Gast
2008-12-27, 00:06:07
Da die Zotac 55nm 260iger genauso viel kostet wie die "alte" 65nm Karte ist jetzt die Frage, ob Zotac nur noch die 55nm Karte liefert und die 65nm Karte schnell "aussterben".

Dann wäre das eine Karte für mich *sabber*


Mooooment... Es ist zwar die neue Platine... Aaaaber... Wer sagt denn dass auf der neuen Platine zwingend auch eine 55nm GPU sitzen muss?

KonKorT
2008-12-27, 00:40:59
Der Shader-Clock ist ja heftig (die 65nm-Version (http://www.evga.com/products/pdf/896-P3-1267-AR.pdf): 1350)

Naja, heftig würde ich das jetzt nicht bezeichnen. Es gab auch schon im 65-nm-Verfahren GTX-260-Chips mit 1450 MHz Shadertakt. Heftig hätte ich > 1600 MHz gefunden - aber ist vermutlich einfach nur reine Definitionsfrage. :)

derguru
2008-12-27, 00:59:34
Naja, heftig würde ich das jetzt nicht bezeichnen. Es gab auch schon im 65-nm-Verfahren GTX-260-Chips mit 1450 MHz Shadertakt. Heftig hätte ich > 1600 MHz gefunden - aber ist vermutlich einfach nur reine Definitionsfrage. :)

wieso sollte es auch heftig sein,zotac amp,xfx und auch evga hat doch sogar karten mit 1400 MHz.vieleicht war es ja ironisch gemeint;)
1600 MHz und eigentlich weit mehr erhoffe ich mir bei den 55nm Karten mit hand angelegtem oc.

VooDoo7mx
2008-12-27, 01:15:21
Mooooment... Es ist zwar die neue Platine... Aaaaber... Wer sagt denn dass auf der neuen Platine zwingend auch eine 55nm GPU sitzen muss?
Wieso das so ist, steht im letzten Posting von AnarchX. Einfach mal lesen.
Naja, heftig würde ich das jetzt nicht bezeichnen. Es gab auch schon im 65-nm-Verfahren GTX-260-Chips mit 1450 MHz Shadertakt. Heftig hätte ich > 1600 MHz gefunden - aber ist vermutlich einfach nur reine Definitionsfrage. :)

Nein es ist schon ziemlich heftig.
Es gibt bisher keine GTX 260 wo ab Werk so hohe Taktraten eingestellt sind. Diese Karte erreicht ja schon ungefähr GTX 280 Niveau und das in den Werkseinstellungen. Und da ist sicher noch Luft nach oben, steht ja sogar am Ende des Artikels. Fudzilla will ja noch Overclockingwerte nachreichen.
Also ich hab ne "uralt" GTX 260 mit 192 Shader Cores und diese Karten lassen sich schon prozentual gesehen und auch im Vergleich zur Konkurrenz gut übertakten. Aber die neuen Karten scheinen ja da echt nochmal ne Schippe drauf zu legen. :|
Hier mal, was mein altes Kärtchen so schafft:
http://img3.imagebanana.com/img/lzcjwmoe/evgaprecision.jpg

Also mit den neuen G200b Produkten ist nVidia für das neue Jahr echt gut aufgestellt. In Vergleich zu ATi hat man bessere Filterqualität, Supersampling Anti Alaising, bessere Treiber, bessere Performance per Watt, geringerer Stromverbrauch, bessere Referenzkühler und mit den 55nm Produkten können die Hersteller und nVidia endlich bessere Margen fahren und müssen nicht so extrem teure Chips/Boards zu ATi Schleuderpreisen verhökern.
Gut man muss dann zwar etwas mehr Geld für hinlegen, aber das war es mir schon bei meiner letzten Karte wert und wenn nVidia den derzeitigen Kurs weiterfährt, wird es das mir auch bei der nächsten Generation wert sein.

Gast
2008-12-27, 01:31:52
Wieso das so ist, steht im letzten Posting von AnarchX. Einfach mal lesen.

Wo? Ich kann das nirgends herauslesen...

Homy
2008-12-27, 01:54:39
Wo? Ich kann das nirgends herauslesen...
Nagel im Kopp? :biggrin:

Das Package worauf der kleinere Die sitzt, ist gleich groß geblieben.

Es ist einfach nur das neue PCB exklusiv für die GTX 260, was durch die einseitige Bestückung und nur 10 Layer(genau soviel wie eine 98GTX+ AFAIR) günstigere Preise ermöglicht zusammen mit der günstigeren GPU.

Hier gibt es nun auch bessere Bilder der 55nm EVGA-Karten:
http://www.expreview.com/news/hard/2008-12-26/1230277601d10985.html

Aber die neue GTX 260 soll im Bezug auf Abwärme und Übertaktbarkeit sich durchaus positiv von der 65nm Version abheben, soweit ich gehört habe.


A2 und A3, welche mit der Ultra kam und dann auch auf den GTS verbaut wurde. ;)

Gast
2008-12-27, 02:00:44
Ja und? Neues PCB, hab ich doch gesagt. Da kann eine 55nm oder eine 65nm GPU drauf sein...

Spasstiger
2008-12-27, 02:01:28
Eine GTX 260, die ab Werk schneller ist als eine GTX 280, ist schon was Nettes. Klar kann man auch die GTX 280 übertakten, aber nicht jeder übertaktet seine Grafikkarte. Jedenfalls ist bei der Leistung auch der hohe Preis von rund 300€ verständlich.

Gast
2008-12-27, 02:02:47
Huh? Die AMP² kostet irgendwas um 240 Oiro, die normale nochmal 10 Oiro weniger...

mike49
2008-12-27, 02:12:14
Huh? Die AMP² kostet irgendwas um 240 Oiro, die normale nochmal 10 Oiro weniger...
Die AMP² in 55nm scheint aber - zumindest lt. Alternate - default nicht so hoch getaktet zu sein (was mir persönlich komplett egal wäre).

Scheinbar sind evga die einzigen, die mit den 55nm offiziell werben dürfen...

Spasstiger
2008-12-27, 02:12:22
Huh? Die AMP² kostet irgendwas um 240 Oiro, die normale nochmal 10 Oiro weniger...
Ich hab von der neuen EVGA Superclocked geredet.

mike49
2008-12-27, 02:15:00
Ich hab von der neuen EVGA Superclocked geredet.
Die Zotac AMP scheint von Alternate schon in 55nm ausgeliefert zu werden und ist eben deutlich günstiger.

Gast
2008-12-27, 02:16:42
Den Kühler unten hatte noch keiner und die Stromaufnahme hat auch noch keiner gemessen... Möglich, vielleicht sogar wahrscheinlich dass es wirklich 55nm Teile sind aber sicher sein kann man sich im Moment noch nicht. Wer weiss wieviele 65nm GPUs da noch lagern die gerne verbaut werden wollen...

Spasstiger
2008-12-27, 02:20:10
Die Zotac AMP scheint von Alternate schon in 55nm ausgeliefert zu werden und ist eben deutlich günstiger.
Aber sie taktet ein Stück niedriger als die EVGA und kann somit nicht direkt mit einer GTX 280 konkurrieren. Eine Karte, die so schnell arbeitet wie eine GTX 280 und lediglich 12,5% weniger Speicher besitzt, kann man durchaus für den GTX-280-Preis - 10% verkaufen. Es soll ja auch Leute geben, die nicht selbst das Taktpotential ausloten wollen, sondern das dem Hersteller überlassen.

Ich persönlich warte noch auf eine Art GTX-260-Light in 55 nm für 150€. Aber da wird wohl so schnell nix kommen.

derguru
2008-12-27, 02:24:34
es gibt ja nicht nur zotac;)

die XFX GeForce GTX 260 666M Black Edition ist z.b. schon abwerk schneller wie eine 280gtx und kostet gerade mal 235.
frag mich wie man den preis der 280gtx mit ca. 100 euro aufpreis rechtfertigt.(bitte jetzt nicht sagen die 280gtx kann man ja auch übertakten):biggrin:
http://www.neoseeker.com/Articles/Hardware/Reviews/xfxgtx260black/

Spasstiger
2008-12-27, 02:36:00
Ich bin mal auf die OC-Versionen der GTX 285 gespannt. Wenn jetzt schon die GTX 260 auf 675 MHz Chiptakt und 1450 MHz Shadertakt hochgezogen wird, was erwartet uns dann erst beim Spitzenmodell? 750 MHz Chiptakt und 1650 MHz Shadertakt? Irgendwie müssen die Hersteller ja die Exklusivität des Topmodells wahren.

VooDoo7mx
2008-12-27, 02:41:05
Ich persönlich warte noch auf eine Art GTX-260-Light in 55 nm für 150€. Aber da wird wohl so schnell nix kommen.
Naja was stellst du dir denn unter eine GTX 260 light vor? Eniger Taktraten oder Recheneinheiten? Ich glaube so eine GTX 260 light gibt es schon. Die heißt zwar 9800GTX+, aber Namen sind eh nur Schall und Rauch. ;)
Ich bin mal auf die OC-Versionen der GTX 285 gespannt.
Ja ich auch. ;)

mike49
2008-12-27, 02:44:50
es gibt ja nicht nur zotac;)

die XFX GeForce GTX 260 666M Black Edition ist z.b. schon abwerk schneller wie eine 280gtx und kostet gerade mal 235.

Das die ab Werk schon schneller ist als eine GTX280 ist ein Mythos, mehr aber auch nicht.

Rein rechnerisch benötigt die GTX260-216 einen Takt von ~ 675/1.440/1.265 um mit der GTX280 - bis auf die fehlenden 128MB - gleichzuziehen.

derguru
2008-12-27, 02:49:21
Das die ab Werk schon schneller ist als eine GTX280 ist ein Mythos, mehr aber auch nicht.

Rein rechnerisch benötigt die GTX260-216 einen Takt von ~ 675/1.440/1.265 um mit der GTX280 - bis auf die fehlenden 128MB - gleichzuziehen.

ach haste denn link dazu gesehen:wink:
Rein rechnerisch ist eben nicht alles.

naja wer kauft sich denn oc karten,mehr als marketing ist das nicht.sinnvoll sind oc karten wenn die preisdifferenz fast null ist;)

auf ein oc potenzial bis 800/1800 mit luft hoffe ich schon bei den 55nm karten(meine oldie 260 lief schon mit 735/1540),müsste auch machtbar sein wenn die kein murks fabriziert haben.

Spasstiger
2008-12-27, 03:00:44
Naja was stellst du dir denn unter eine GTX 260 light vor? Eniger Taktraten oder Recheneinheiten? Ich glaube so eine GTX 260 light gibt es schon. Die heißt zwar 9800GTX+, aber Namen sind eh nur Schall und Rauch. ;)
Meine Wünsche wären eigentlich:
über 800 GFlops
über 100 GB/s Speicherbandbreite
über 40 GTexel/s bilineare Füllrate
über 15 GPixel/s bei 4xAA
mind. 896 MiB VRAM

Und das Ganze halbwegs sparsam in 40 nm oder 55 nm für ~150€. Mal schauen, wie sich die Preise in den nächsten Wochen entwickeln.
Auf jeden Fall brauche ich 2009 was Flotteres als meine HD 2900 Pro, um meinen 24-Zöller zu befeuern. Und Nvidia ist momentan einen Tick mehr in meiner Gunst wegen der besseren AF-Quali und SSAA.

mike49
2008-12-27, 03:16:02
ach haste denn link dazu gesehen:wink:
Rein rechnerisch ist eben nicht alles.

Sorry, aber der Test ist kompletter Quatsch, oder wie soll sowas funktionieren:

http://www.abload.de/img/vertexdysh.png (http://www.abload.de/image.php?img=vertexdysh.png)

Das ist 'bestenfalls' über unterschiedliche Treiberrevisionen zu erklären, was den Test dann aber auch unbrachbar macht.

auf ein oc potenzial bis 800/1800 mit luft hoffe ich schon bei den 55nm karten(meine oldie 260 lief schon mit 735/1540),(...=
Ganz sicher nicht, mehr als 50% des ALU-Takts sind beim ROP-Takt nicht drin ;)

Die 800/1800 (besonders letzteres) halte ich übrigens für sehr optimistisch. Bin aber auch schon gespannt, wie weit die in 55nm jetzt gehen...

derguru
2008-12-27, 03:34:26
wieso sollte der test quatsch sein,das der wert hier nicht stimmt liegt wohl eher an einem tippfehler als an unterschiedlichen treiberversionen.


Ganz sicher nicht, mehr als 50% des ALU-Takts sind beim ROP-Takt nicht drin ;)

so lief meiner auch wenn das nicht dem tatsächlichen wert entspricht;)

mike49
2008-12-27, 03:45:11
wieso sollte der test quatsch sein,das der wert hier nicht stimmt liegt wohl eher an einem tippfehler als an unterschiedlichen treiberversionen.

Enthält aber eine ganze Menge Tippfehler der Test: ;)

http://www.abload.de/img/etqwn1ij.png (http://www.abload.de/image.php?img=etqwn1ij.png)

so lief meiner auch wenn das nicht dem tatsächlichen wert entspricht;)
Wenn es nicht den tatsächlichen Werten entspricht, dann lief die auch nicht so ;)

derguru
2008-12-27, 04:17:17
wenn der test dir nicht gefällt dann nimm den,andere karte aber selbe werte.
http://www.overclockersclub.com/reviews/evga_gtx260/

Armaq
2008-12-27, 10:35:17
Meine Wünsche wären eigentlich:
über 800 GFlops
über 100 GB/s Speicherbandbreite
über 40 GTexel/s bilineare Füllrate
über 15 GPixel/s bei 4xAA
mind. 896 MiB VRAM

Und das Ganze halbwegs sparsam in 40 nm oder 55 nm für ~150€. Mal schauen, wie sich die Preise in den nächsten Wochen entwickeln.
Auf jeden Fall brauche ich 2009 was Flotteres als meine HD 2900 Pro, um meinen 24-Zöller zu befeuern. Und Nvidia ist momentan einen Tick mehr in meiner Gunst wegen der besseren AF-Quali und SSAA.
Die 98GTX+ mit 1024 MB sollte dich P/L befriedigen.

robbitop
2008-12-27, 11:17:47
Gibt es neu eigentlich noch G92 in 65nm zu kaufen oder sind die 9800GTX ohne + nur umgelabelte G92b? Was anderes macht ja langfristig wenig Sinn.

AnarchX
2008-12-27, 12:15:03
Hmm..., bei Expreview wird die 55nm GTX 260 heißer, wobei auch der Kühler in seiner Leistung reduziert wurde, und verbraucht auch mehr als die 65nm Version:
http://en.expreview.com/2008/12/27/the-first-review-of-55nm-geforce-gtx260.html
:|

Wohlmöglich hat man da eine 1.06V GTX 260 65nm gegen ein 55nm GTX 260 mit 1.12V getestet.

Mal sehen ob Fudo noch ein paar OCing und Verbrauchswerte der EVGA-Karte nachliefert.

Gast
2008-12-27, 12:26:20
Na super... :(

derguru
2008-12-27, 12:26:50
Hmm..., bei Expreview wird die 55nm GTX 260 heißer, wobei auch der Kühler in seiner Leistung reduziert wurde, und verbraucht auch mehr als die 65nm Version:
http://en.expreview.com/2008/12/27/the-first-review-of-55nm-geforce-gtx260.html
:|

Wohlmöglich hat man da eine 1.06V GTX 260 65nm gegen ein 55nm GTX 260 mit 1.12V getestet.

Mal sehen ob Fudo noch ein paar OCing und Verbrauchswerte der EVGA-Karte nachliefert.

anders kann man auch die werte auch nicht erklären,die frage ist aber wieso überhaupt die 55nm eine höhere spannung bedarf.:confused:
omg das nenn ich fortschritt.naja mal abwarten was andere seiten dazu schreiben.
wenn sich das wirklich bewahrheitet dann kann ich nvidia verstehen das sie die 55nm klammheimlich auf den markt bringen.;)

Gast
2008-12-27, 12:55:48
Oder sie sind auf eine "65nm GPU auf neuem PCB" Karte hereingefallen, LÖL :)

horn 12
2008-12-27, 13:55:41
Rechne dass auch bei den GTX 260 /280 im 55 um Verfahren nicht alles so gelaufen ist wie man sich dies erwünscht hat, und so wie seinerzeit bei ATI das PP2.0 nicht funktionierte die Karten somit billiger angeboten werden als zuerst von NV geplant war.
Das da was nicht mit rechten Dingen zugeht dürfte wohl langsam durchsickern, da gibt sich NV gleich bedeckt wie damals ATI zu dem Powerplay Bug!
Denke die Karten wurden nun nur noch auf enormsten Druck schnell rausgehauen, die erhofften Werte wurden bei weitem NICHT erreicht!
Nur wollte man ATI nicht noch weiter vorlassen, und somit musste man reagieren nach ca. 4 Monaten Verspätung, denn der Refresh sollte ja schon im September/ Oktober kommen...

Schlammsau
2008-12-27, 14:02:59
Wie ich es mir dachte, ein reiner Shrink bringt rein gar nichts, ausser weniger kosten für den Hersteller.
Aber das er auch noch mehr verbraucht, hätte ich mir nicht erträumen lassen.

Gast
2008-12-27, 14:06:40
Wie ich es mir dachte, ein reiner Shrink bringt rein gar nichts, ausser weniger kosten für den Hersteller.
Aber das er auch noch mehr verbraucht, hätte ich mir nicht erträumen lassen.
Was hast du auf der letzten Seite alles NICHT gelesen?

Ronny G.
2008-12-27, 15:19:23
Wir sollten noch etwas warten.

Klar würde so dieses Stille Heimliche Einführen des 55er GPU Sinn machen, aber die Hoffnung der Ökos stirbt ja auch nur zuletzt. Am Ende wird es wie schon erwähnt dem User weniger vorteile als dem Hersteller selber bringen.

robbitop
2008-12-27, 15:26:10
Einerseits zeigte die Vergangenheit, dass Half-Nodes keine Senkung der Leistungsaufnahme brachten. Andererseits senkte NVIDIA die TDP. Ich würde auf eine richtige Messung warten. Am besten von xbit-labs.

Gast
2008-12-27, 22:33:36
http://www.pcgameshardware.de/aid,671676/News/GT200b-_Test_der_55nm-GTX_260_aufgetaucht/

wärmer? verbraucht mehr watt unter last? hö? sinn ausser die kostensenkeung für nv?

für leute die nich übertakten bizzle fies

Coda
2008-12-27, 22:34:29
Hm seltsam. Wartet mal Xbit-Verbrauchsmessungen ab.

Gast
2008-12-27, 22:35:12
Hm seltsam. Wartet mal Xbit-Verbrauchsmessungen ab.

nein man kann sie nnur höher takten

Coda
2008-12-27, 22:35:49
Sorry, hab's nicht richtig gelesen gehabt. Hast recht.

VooDoo7mx
2008-12-27, 23:21:41
Also die Messungen vond er Seite da asind schon merkwürdig. :|
Da verbraucht auch eine 4870 im gesamtsystem 40 Watt mehr als eine GTX 260.:hammer:
Und anscheiend wurde da der stromverbrauch mit Furmark ermittelt.
Naja lieber xbit abwarten.

derguru
2008-12-27, 23:23:13
echt komisch,man sagt doch der 285 gtx ein tdp von ca.180w nach und das mit bissel höherem takt.das dann die 260gtx 55nm variante mehr verbraucht versteht auch wohl niemand.

LovesuckZ
2008-12-27, 23:29:13
Und wer sagt, dass die dort eine 55nm Karte haben? Dazu kommt noch, dass eine Karte, die mehr Wärme abgibt, sich auch nicht besser übertakten lässt.
Also warten wir doch einfach, was andere Test herbeiführen.

Gast
2008-12-28, 00:15:41
http://www.pcgameshardware.de/aid,671676/News/GT200b-_Test_der_55nm-GTX_260_aufgetaucht/

wärmer? verbraucht mehr watt unter last? hö? sinn ausser die kostensenkeung für nv?

für leute die nich übertakten bizzle fies
Wenn der Test stimmt, sieht es so aus, als dass der Shrink höhere Taktraten zulässt und auch bei den Temps mehr verträgt. Sprich nV spart bei der Chipproduktion Kosten ein und durch den kleineren Kühler können ebenfalls Kosten eingespart werden. Also am Ende kein schlechter Deal für nV. Dem Konsumenten kann die geringe Erhöhung der Power Consumption eigentlich sein. 10 Watt mehr oder weniger spielen bei diesen Rechnern keine Rolle. Zudem lässt sie sich ganz gut übertakten. Wenn das auf alle Modelle zutreffen sollte, wäre der Shrink eine Win-Win-Situation für nV und dem Konsumenten.

Frank1974
2008-12-28, 00:33:33
Ich weiß nicht was jetzt besonders daran ist, ich habe meine GTX280 seid dem ersten Tag, ich warte schon auf eine neue die mindestens 50% schneller ist, die neue GTX260 kommt vielleicht mit ihrer Übertaktung an meine Karte, aber ich habe auch noch gut 15% Spielraum, und wie gesagt, die Leistung ist ein halbes Jahr alt, ich will mehr.

mfg
Frank

Coda
2008-12-28, 01:30:23
Einen wirklichen Leistungssprung kann man wohl erst von der 45/40nm-Generation erwarten.

Ronny G.
2008-12-28, 01:47:48
Ich weiß nicht was jetzt besonders daran ist, ich habe meine GTX280 seid dem ersten Tag, ich warte schon auf eine neue die mindestens 50% schneller ist, die neue GTX260 kommt vielleicht mit ihrer Übertaktung an meine Karte, aber ich habe auch noch gut 15% Spielraum, und wie gesagt, die Leistung ist ein halbes Jahr alt, ich will mehr.

mfg
Frank

das ist doch aber nix neues, die bisherigen Vermutungen bei den 55er GPU´s haben doch nichts Leistungssteigerndes versprochen, höchsten mehr Takt, da bleibt dir wohl nur der Ausflug ins MultiGPU-Lager. Ansonsten halt noch auf deinem alten Eisen ruhen, ich weiß die Lust auf was neues ist immer da, vorallem nach nen halben Jahr, aber siehe es doch positiv, so bist du mit einer GTX280 nicht schon wieder nach nem halben Jahr mit "alter" Hardware unterwegs, nein du hällst noch schritt ohne wieder neu zu investieren.

Spasstiger
2008-12-28, 02:10:35
Einen wirklichen Leistungssprung kann man wohl erst von der 45/40nm-Generation erwarten.
Für die Ungeduldigen gibts ja auch die GTX 295.

Coda
2008-12-28, 02:12:55
Wie wir alle wissen ist das nicht wirklich eine Lösung.

mictasm
2008-12-28, 02:19:33
Als Besitzer von 8800 GTX oder Ultras kann man über diese Ungeduld nur schmunzeln.

boxleitnerb
2008-12-28, 10:05:55
Das stimmt, allerdings schätze ich den Leistungssprung von einer 8800GTX zu einer 285 GTX schon so auf 40-50% ein. Dazu etwas mehr Speicher und bei den gemischten AA-Modi ist auch bis zu 100% Plus drin.
Übel aufstoßen tut mir aber die Leistungsaufnahme. Die 8800 soll real etwa 150W verbraten bei, die 285er könnte da noch etwas drüber liegen, wobei man ja genaue gemessene Werte noch nicht hat. Ne Karte mit 2x8800GTX Leistung und einem Verbrauch eher wieder in Richtung 100W wäre lecker :)

Megamember
2008-12-28, 12:18:42
Und wer sagt, dass die dort eine 55nm Karte haben? Dazu kommt noch, dass eine Karte, die mehr Wärme abgibt, sich auch nicht besser übertakten lässt.
Also warten wir doch einfach, was andere Test herbeiführen.

Wahrscheinlich lief die 55nm Karte mit 1,12V Corespannung und die 65nm mit 1,06V oder so ähnlich. Das ist bei Nvidia ja von Karte zu Karte unterschiedlich. Kein Wunder das sich die Verbrauchswerte da nicht gross unterscheiden.

LovesuckZ
2008-12-28, 12:49:14
Als Besitzer von 8800 GTX oder Ultras kann man über diese Ungeduld nur schmunzeln.

Ich finde es eher erbärmlich, dass man fast drei Jahren warten muss, bis sich die Leistung zu einer 8800GTX im Durchschnitt verdoppelt.

Gast
2008-12-28, 12:59:54
Ich finde es eher erbärmlich, dass man fast drei Jahren warten muss, bis sich die Leistung zu einer 8800GTX im Durchschnitt verdoppelt.
Ähh, das wird wohl in Zukunft wohl noch langsamer von statten gehen. Es ist unmöglich die Leistung ausgehend von der zuvorigen Generation in Zukunft immer zu verdoppeln. Dazu kommt, dass man immer näher an die Grenzen des technisch Machbaren kommt und dadurch die Entwicklungszeiten länger und die Herstellungskosten dadurch teurer werden. In absehbarer Zeit wird man wohl kleinere Brötchen backen müssen und auch nach 3 Jahren mit 50 % oder weniger Leistungszuwachs zufrieden sein müssen.

pest
2008-12-28, 13:43:25
was regt ihr euch auf?
ihr seid nur konsumenten, die nichts an produkten oder marktsituationen ändern können, da könnt ihr noch so viel drüber spekulieren und diskutieren.
selbst wenn es technisch möglich wäre 3x8800GTX Leistung zu bringen, keiner würde sowas jetzt produzieren, weil viele das zeug auch so kaufen.

Ronny G.
2008-12-28, 14:01:49
was regt ihr euch auf?
ihr seid nur konsumenten, die nichts an produkten oder marktsituationen ändern können, da könnt ihr noch so viel drüber spekulieren und diskutieren.
selbst wenn es technisch möglich wäre 3x8800GTX Leistung zu bringen, keiner würde sowas jetzt produzieren, weil viele das zeug auch so kaufen.

Genau,

der enorme Leistungshunger wird ja nun schon mit Multi-GPU Lösungen gestillt, und genau dieser Weg gefällt mir nicht, die Hersteller machen es sich da zu einfach! Die Leute brennen ja regelrecht darauf die neuen Karten mit fießen AA-Modis in die Knie zu zwingen:biggrin:

Mann sollte vielleicht auch mal ne umfrage starten wieviele User hier von einer 8800GTX oder Ultra auf ne GTX280 umgestiegen sind, ich habe den eindruck das es nicht sehr viele sind.
Das es jetzt dank der GTX285 so viel mehr sein sollen kann ich mir einfach nicht glauben, den Rummel hier zu Urteilen währe das aber zu vermuten, warum bleibt mir allerdings immer noch ein großes Rätsel.

AnarchX
2008-12-28, 16:02:03
Wahrscheinlich lief die 55nm Karte mit 1,12V Corespannung und die 65nm mit 1,06V oder so ähnlich. Das ist bei Nvidia ja von Karte zu Karte unterschiedlich. Kein Wunder das sich die Verbrauchswerte da nicht gross unterscheiden.

Wobei auch noch auffällig ist, dass hier ein G200-B2 verbaut ist, während auf der GTX 295 G200-B3, also der 3. Respin, verbaut wird.

Entweder ist die Karte keine finale Version oder NV hat den noch nicht so optimalen 2. Respin günstig an die Hersteller weitergegeben, welche diese auf den GTX 260 verbauen, wo es auf eine niedrige TDP(GTX 295) bzw. einen hohen Takt (GTX 285) nicht ankommt.

Ronny G.
2008-12-28, 16:58:46
Wobei auch noch auffällig ist, dass hier ein G200-B2 verbaut ist, während auf der GTX 295 G200-B3, also der 3. Respin, verbaut wird.

Entweder ist die Karte keine finale Version oder NV hat den noch nicht so optimalen 2. Respin günstig an die Hersteller weitergegeben, welche diese auf den GTX 260 verbauen, wo es auf eine niedrige TDP(GTX 295) bzw. einen hohen Takt (GTX 285) nicht ankommt.

na das wäre ja ein schlag ins gesicht an die Preisbewußteren Ocer hier, die GTX260 war bis jetzt wesentlich beliebter bei den Ocern, alleine schon wegen dem Preis und nicht zuletzt wegen ihrem OC-Verhalten.

Demzufolge müßte es doch bei den alten GT280er auch ne art Respin gegeben haben, da steht doch meist auch A2 auf dem Spreader.

reunion
2008-12-28, 17:04:33
Also mit den neuen G200b Produkten ist nVidia für das neue Jahr echt gut aufgestellt.

Für das erste Quartal bestenfalls wenn man die Karten jetzt bald kaufen kann. Spätestens im Q2 kommen 40nm Chips und dann ist GT200b bestenfalls noch als Stormschleuder zu gebrauchen. GT200b kommt ganz einfach zu spät.


In Vergleich zu ATi hat man bessere Filterqualität, Supersampling Anti Alaising,

Richtig, allerdings auch nur wenn man entsprechend Leistung zur Verfügung hat.


bessere Treiber,

Ansichtssache, auch wenn ich dir hier zustimme.


bessere Performance per Watt,

Wahrscheinlich.


geringerer Stromverbrauch,

Im Vergleich zu was? Ein GT200b verbraucht wohl kaum weniger als ein RV770. Performance per Watt hattest du schon.


bessere Referenzkühler

Eine AMD-Karte bekommst du praktisch nicht mal mehr mit Referenzkühler.

Megamember
2008-12-28, 19:33:25
Wobei auch noch auffällig ist, dass hier ein G200-B2 verbaut ist, während auf der GTX 295 G200-B3, also der 3. Respin, verbaut wird.

Entweder ist die Karte keine finale Version oder NV hat den noch nicht so optimalen 2. Respin günstig an die Hersteller weitergegeben, welche diese auf den GTX 260 verbauen, wo es auf eine niedrige TDP(GTX 295) bzw. einen hohen Takt (GTX 285) nicht ankommt.

Warum? Das sind doch überhaupt nicht dieselben Chips. Die 295 hat ja quasi 2 285er Chips drauf mit 240 Shader Einheiten.

Ronny G.
2008-12-28, 21:32:21
Warum? Das sind doch überhaupt nicht dieselben Chips. Die 295 hat ja quasi 2 285er Chips drauf mit 240 Shader Einheiten.

Mann kann die Sicher mit dem Lasercut zu ner GTX260er GPU cutten. Es sind ja doch die gleichen GPU´s nur mit deaktivierten einheiten.

Fetza
2008-12-28, 21:45:54
Ich weiß nicht was jetzt besonders daran ist, ich habe meine GTX280 seid dem ersten Tag, ich warte schon auf eine neue die mindestens 50% schneller ist, die neue GTX260 kommt vielleicht mit ihrer Übertaktung an meine Karte, aber ich habe auch noch gut 15% Spielraum, und wie gesagt, die Leistung ist ein halbes Jahr alt, ich will mehr.

mfg
Frank

Dann warte nochmal ein halbes jahr. :)


Ich finde es eher erbärmlich, dass man fast drei Jahren warten muss, bis sich die Leistung zu einer 8800GTX im Durchschnitt verdoppelt.

Die frage ist, ob du überhaupt beurteilen kannst was es bedeutet nach drei jahren einen chip rauszubringen, der glatt die doppelte performance einer 8800gtx hat. Zumal nv ja scheinbar vor allem gpgpu im sinn hatte, beim g200.

Wirklich beurteilen kann sowas wohl nur jemand, der mikrochipentwicklungszeuchs undso studiert hat.;)

Coda
2008-12-28, 22:16:19
Von der Die-Size und dem Herstellungsprozess wäre das wirklich kein großes Thema gewesen. GPUs skalieren recht gut über die Einheiten.

G200 hat einerseits das Problem des zu geringen ALU-Taktes und andererseits haben wohl die DP-ALUs zu viel Platz verbraucht. Wobei ersteres auch mit letzterem zusammenhängen könnte.

Eine Gamer-GPU mit mehr Leistung hätte NVIDIA schon entwicklen können, das steht kaum zur Debatte.

=Floi=
2008-12-28, 22:24:18
aber für den kunden ist eine hohe leistung bei cuda auch von vorteil. (zukünftig)

Coda
2008-12-28, 22:27:21
Sie ist ja nicht hoch, es ist nur DP-Support vorhanden. Den braucht aber außerhalb des wissenschaftlichen Bereichs wirklich niemand.

reunion
2008-12-28, 22:57:12
Da ist die Vec5-ALU von AMD, welche bei Bedarf auch ein DP MAD raushauen kann wohl die deutlich effizientere Variante. SP und DP gleichzeitig kann ich auch bei nV ohnehin nicht verwenden.

pest
2008-12-28, 23:00:46
SP und DP gleichzeitig kann ich auch bei nV ohnehin nicht verwenden.

welchen Sinn sollte das haben, wenn DP in voller Geschwindigkeit läuft?

Coda
2008-12-28, 23:05:56
Da ist die Vec5-ALU von AMD, welche bei Bedarf auch ein DP MAD raushauen kann wohl die deutlich effizientere Variante.
Die Möglichkeit hätte NVIDIA auch gehabt. Nur kann man mit den 32-Bit-FP-ALUs mit mehreren Takten keine volle IEEE754-Kompatibilität bekommen, so wie ATI auch.

reunion
2008-12-28, 23:09:10
welchen Sinn sollte das haben, wenn DP in voller Geschwindigkeit läuft?

FP64-Einheiten werden ja kaum benötigt, da wäre es nicht verkehrt wenn man parallel dazu wenigstens auch die FP32-ALUs verwenden könnte, wenn man diese schon extra verbaut. Leider werden Datenpfade, etc. geshared. Und was heißt volle Geschwindigkeit? Es sind deutlich weniger FP64-ALUs vorhanden.

Fetza
2008-12-29, 00:03:54
Sie ist ja nicht hoch, es ist nur DP-Support vorhanden. Den braucht aber außerhalb des wissenschaftlichen Bereichs wirklich niemand.

Ja, aber dann frage ich mich, warum hat nvidia soviel wert auf diesen verflixten gpgpu-kram wert gelegt, den ati doch glaube ich genausogut mit den normalen shadern realisiert. Macht das sinn? Kann man den g200 als fehldesign bezeichen?

Warhammer Online
2008-12-29, 00:16:31
Sie ist ja nicht hoch, es ist nur DP-Support vorhanden. Den braucht aber außerhalb des wissenschaftlichen Bereichs wirklich niemand.

Gehört aber dazu nicht z.B PhysX (ok gut..ob mans braucht und obs in zukunft effektiv genutzt wird sei mal hingestellt..aber PhysX mit der Grafikkarte ist schon sehr gut wie ich finde..jedenfalls die Leistungssteigerung)

Oder halt Converter... Badaboom z.B... ok gut zwar finde ich Badaboom extrem schlecht in vergleich zu anderen Video Convertern aber er ist schon verdammt schnell.

pest
2008-12-29, 00:20:42
Gehört aber dazu nicht z.B PhysX (ok gut..ob mans braucht und obs in zukunft effektiv genutzt wird sei mal hingestellt..aber PhysX mit der Grafikkarte ist schon sehr gut wie ich finde..jedenfalls die Leistungssteigerung)


dafür reicht SP vollkommen


Oder halt Converter... Badaboom z.B... ok gut zwar finde ich Badaboom extrem schlecht in vergleich zu anderen Video Convertern aber er ist schon verdammt schnell.

da würde sogar Festkomma reichen

Coda
2008-12-29, 00:24:16
Gehört aber dazu nicht z.B PhysX
Nein.

Oder halt Converter... Badaboom z.B... ok gut zwar finde ich Badaboom extrem schlecht in vergleich zu anderen Video Convertern aber er ist schon verdammt schnell.
Auch dafür braucht man kein DP.

Warhammer Online
2008-12-29, 00:43:18
Nein.


Auch dafür braucht man kein DP.

ich kenn mich damit nicht aus... weiss halt nur das damit CUDA verbunden wurde.

So wiez.B diese ganzen BrutalForce Hacks.. da braucht man auch ne CUDA.
Allso geht war auch mit CPU aber mit der GPU schneller.

Coda
2008-12-29, 00:44:27
ich kenn mich damit nicht aus... weiss halt nur das damit CUDA verbunden wurde.
CUDA heißt nicht DP.

deekey777
2008-12-29, 00:47:40
...
Auch dafür braucht man kein DP.
Nichteinmal Floating Point, sonder Integer, wenn ich mich nicht irre (darum pusht ja AMD die HD4000-Serie, da Integerleistung ums Fünffache verbessert).

Coda
2008-12-29, 00:49:39
Das schnellste ist allerdings ganz normales FP32. Zumindest auf NVIDIA-GPUs, und alles vor RV7xx bei ATI.

pest
2008-12-29, 01:01:35
das Gefühl der Nichtexistenz war noch nie stärker als in diesem Thread ;) :D

Frank1974
2008-12-29, 01:09:54
Das stimmt, allerdings schätze ich den Leistungssprung von einer 8800GTX zu einer 285 GTX schon so auf 40-50% ein. Dazu etwas mehr Speicher und bei den gemischten AA-Modi ist auch bis zu 100% Plus drin.
Übel aufstoßen tut mir aber die Leistungsaufnahme. Die 8800 soll real etwa 150W verbraten bei, die 285er könnte da noch etwas drüber liegen, wobei man ja genaue gemessene Werte noch nicht hat. Ne Karte mit 2x8800GTX Leistung und einem Verbrauch eher wieder in Richtung 100W wäre lecker :)

Das stimmt schon mal gar nicht, wenn die Cpu nicht limitiert.

Hier der letzte Vernünftige Test wo eine 8800GTX dabei war, in neuen Tests wird sie ja leider gar nicht mehr genommen -> http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/22/#abschnitt_performancerating_qualitaet

57-141% Vorsprung auf eine 8800GTX, und das nur mit der GTX280, die neue GTX285 wird da noch ca. 10% drauflegen.

Ihr schaut euch wohl alle nur Test an wo eine extrem übertaktete 8800GTX gegen eine Standard GTX280 getestet wird oder wie:|

Schau dir mal so eine Monster GTX280 wie die von Ronny hier an -> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7003604&postcount=400

Meine läuft auch ganz gut mit 702/1458/1260MHz

Für mich hatte es sich auch gelohnt, ich hatte ja vorher nur eine 8800GTS die alte Version.

Wenn ich eine 8800GTX gehabt hätte, wäre ich auch nicht sofort umgestiegen, dann hätte ich noch 2-3 Monate gewartet.

Ich spiele eh nur 4-5 Games pro Jahr, ich teste nun mal sehr gerne, deshalb brauche ich auch öfter mal was neues.

Seid ich mich hier 2005 angemeldet habe, ist aus einem 100% Vollblutgamer, immer mehr ein Hardwarefreak geworden(ja das Forum ist Schuld:smile:), jetzt ist das Gamen bei vielleicht 20%, das liegt wahrscheinlich auch am Alter, ich habe in den gut 20 Jahren so viele Games gesehen, jetzt möchte ich so viel Hardware(hauptsächlich Grafikkarten) wie möglich testen, nur bei SLI bin ich noch nicht überzeugt, Crossfire kommt allein wegen der vielen Nachteile von ATI eh nicht in Frage.

Ich bin einfach immer wieder Happy:biggrin: wenn ich eine neue Grafikkarte habe, bei Prozessoren ist das noch nicht so wichtig.

mfg
Frank

Schrotti
2008-12-29, 01:56:40
Für mich hatte es sich auch gelohnt, ich hatte ja vorher nur eine 8800GTS die alte Version.
mfg
Frank

Für mich gilt das gleiche (auch von einer 8800GTS 640MB umgestiegen).

Meine GTX 280 hat allerdings den Heatbug und ich habe ich keine Lust den HS abzumontieren. Darum betreibe ich das Teil mit 650/1400/1100 bei 1,06V@3D (maximal).

LovesuckZ
2008-12-29, 01:59:26
Von der alten 8800GTS umzusteigen macht auch mehr Sinn als von einer 8800GTX. Die 8800TX konnte im schlimmsten Fall auch 50% schneller sein. Im Durchschnitt waren es 33% und somit ist auch eine GTX280 im Durchschnitt doppelt so schnell. Aber ab einer 8800GT und aufwärts machte es keinen Sinn für die Einstiegspreise zu wechseln. Selbst heute sehe ich keinen Grund die Karten auszutauschen. Was ziemlich schade ist.

Spasstiger
2008-12-29, 03:36:21
Von der Rohleistung her sollte die GTX 280 um 60-90% schneller sein als die 8800 GTX, wobei für mehr als 60% Leistungsvorteil der VRAM mit reinspielen muss.

Megamember
2008-12-29, 14:03:06
So, hab die neue Karte, ist natürlich auch die neue:
http://www.abload.de/thumb/dscf0387i6ri.jpg (http://www.abload.de/image.php?img=dscf0387i6ri.jpg)
http://www.abload.de/thumb/dscf03886dmv.jpg (http://www.abload.de/image.php?img=dscf03886dmv.jpg)
http://www.abload.de/thumb/dscf03905405.jpg (http://www.abload.de/image.php?img=dscf03905405.jpg)
http://www.abload.de/thumb/dscf0391chdo.jpg (http://www.abload.de/image.php?img=dscf0391chdo.jpg)

Karte ist einigermassen leise. Hab jetzt am Anfang erstmal die Stabilität überprüft und den 3dMark06 durchlaufen lassen. Leider gibts ab 1511 Shadertakt Bildfehler beim Canyonflight
Hab dann den Shadertakt auf 1476 gestellt und da luppte es. Coretakt hab ich dann noch auf 738 angezogen auch kein Problem, mehr will ich erstmal nicht. Temps sind spitze. Furmark läuft irgendwie nicht. Ich seh nur einen schwarzen Bildschirm. Spannungen liegen an: 2D 1,05, 3D 1,05 Extra 1,12. Beim 3dmark 06 bleibt sie sehr kühl:

http://www.abload.de/thumb/3dmarkbg54.jpg (http://www.abload.de/image.php?img=3dmarkbg54.jpg)

Edit: 78 bei Vantage und 75 bei Crysis (4 Loops)@Taktung 738/1476/1000, Zimmertemp 20 Grad

AnarchX
2008-12-29, 14:07:47
Also laufen die GTX 260 55nm auch zum Teil mit 1.12V.

Das dürfte dann natürlich die Werte von Expreview erklären, wo sie offenbar mit 1.12V nur knapp mehr als eine 1.06V GTX 260 verbraucht.

reunion
2008-12-29, 14:14:34
Naja, 10W mehr bei womöglich 0.06V mehr Spannung deutet nicht unbedingt auf sonderliche Verbesserungen durch die 55nm Fertigung hin. Aber hätte mich auch gewundert. Die niedrigere TDP ist wohl ganz einfach ein Resultat der geringeren Streuungsbreite durch die ausgereiftere Fertigung. Schon die 65nm GT200-Chips verbrauchten für ihre TDP ja tw. schon recht wenig.

Bastler
2008-12-29, 14:17:19
So, hab die neue Karte, ist natürlich auch die neue:
http://www.abload.de/thumb/dscf0387i6ri.jpg (http://www.abload.de/image.php?img=dscf0387i6ri.jpg)
http://www.abload.de/thumb/dscf03886dmv.jpg (http://www.abload.de/image.php?img=dscf03886dmv.jpg)
http://www.abload.de/thumb/dscf03905405.jpg (http://www.abload.de/image.php?img=dscf03905405.jpg)
http://www.abload.de/thumb/dscf0391chdo.jpg (http://www.abload.de/image.php?img=dscf0391chdo.jpg)

Karte ist einigermassen leise. Hab jetzt am Anfang erstmal die Stabilität überprüft und den 3dMark06 durchlaufen lassen. Leider gibts ab 1511 Shadertakt Bildfehler beim Canyonflight
Hab dann den Shadertakt auf 1476 gestellt und da luppte es. Coretakt hab ich dann noch auf 738 angezogen auch kein Problem, mehr will ich erstmal nicht. Temps sind spitze. Furmark läuft irgendwie nicht. Ich seh nur einen schwarzen Bildschirm. Spannungen liegen an: 2D 1,05, 3D 1,05 Extra 1,12. Beim 3dmark 06 bleibt sie sehr kühl:

http://www.abload.de/thumb/3dmarkbg54.jpg (http://www.abload.de/image.php?img=3dmarkbg54.jpg)

Edit: 78 bei Vantage und 75 bei Crysis (4 Loops)@Taktung 738/1476/1000, Zimmertemp 20 Grad
Furmark brauchst du die Neue Version 1,50

AnarchX
2008-12-29, 14:20:26
@reunion
Bei Xbit-Labs benötigt eine GTX260-192 @1.12V immerhin fast 30W mehr als eine GTX 260-216 @ 1.06V:
http://www.xbitlabs.com/articles/video/display/radeon-hd4870-1024_8.html#sect0

Und 0.06V sind ja hier 5% Spannungsanstieg, die wiederum den Verbrauch der GPU um 10,25% erhöhen in der Theorie.

Schlammsau
2008-12-29, 15:06:23
So, hab die neue Karte, ist natürlich auch die neue:
http://www.abload.de/thumb/dscf0387i6ri.jpg (http://www.abload.de/image.php?img=dscf0387i6ri.jpg)
http://www.abload.de/thumb/dscf03886dmv.jpg (http://www.abload.de/image.php?img=dscf03886dmv.jpg)
http://www.abload.de/thumb/dscf03905405.jpg (http://www.abload.de/image.php?img=dscf03905405.jpg)
http://www.abload.de/thumb/dscf0391chdo.jpg (http://www.abload.de/image.php?img=dscf0391chdo.jpg)

Karte ist einigermassen leise. Hab jetzt am Anfang erstmal die Stabilität überprüft und den 3dMark06 durchlaufen lassen. Leider gibts ab 1511 Shadertakt Bildfehler beim Canyonflight
Hab dann den Shadertakt auf 1476 gestellt und da luppte es. Coretakt hab ich dann noch auf 738 angezogen auch kein Problem, mehr will ich erstmal nicht. Temps sind spitze. Furmark läuft irgendwie nicht. Ich seh nur einen schwarzen Bildschirm. Spannungen liegen an: 2D 1,05, 3D 1,05 Extra 1,12. Beim 3dmark 06 bleibt sie sehr kühl:

http://www.abload.de/thumb/3dmarkbg54.jpg (http://www.abload.de/image.php?img=3dmarkbg54.jpg)

Edit: 78 bei Vantage und 75 bei Crysis (4 Loops)@Taktung 738/1476/1000, Zimmertemp 20 Grad

Und wieviel hast du gezahlt? Sie ist erst ab 283€ bei Geizhals gelistet.

Megamember
2008-12-29, 15:11:26
229 bei ALternate.

Schlammsau
2008-12-29, 15:15:19
229 bei ALternate.

Hast du evtl nen Link? Finde sie dort nicht! :redface:

Megamember
2008-12-29, 15:18:17
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Zotac/GTX2602/312336/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Beim Furmark Bench läuft übrigens sogar 1566 Shadertakt. Der Canyon Flight scheint übel zu beanspruchen.

Schlammsau
2008-12-29, 15:21:48
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/Zotac/GTX2602/312336/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Beim Furmark läuft übrigens sogar 1566 Shadertakt. Der Canyon Flight scheint übel zu beanspruchen.

Thx....aber von 55nm finde ich rein gar nichts. Du bist dir sicher, dass sie nicht doch eine 65nm ist?
Wenn doch, ists ein guter Preis! :up:

Megamember
2008-12-29, 15:23:28
Nee das ist das neue Layout,keine Speicherchips mehr auf der Rückseite, 55nm wurden auch von ALternate bestätigt. AUch die Revision B1 bei GPU-Z deutet darauf hin.

Schlammsau
2008-12-29, 15:28:50
Nee das ist das neue Layout,keine Speicherchips mehr auf der Rückseite, 55nm wurden auch von ALternate bestätigt. AUch die Revision B1 bei GPU-Z deutet darauf hin.

Alles klar, dann werden sie wohl doch "klammheimlich" unters Volk gebracht.
Dann muss ich warten bis Geizhals seine Hardwareangaben aktuallisiert.

Megamember
2008-12-29, 15:53:46
Die EVGA ist jetzt auch verfügbar:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX260_Core_216/315328/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX260_Core_216_SuperClocked/315330/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Schlammsau
2008-12-29, 16:32:55
Die EVGA ist jetzt auch verfügbar:
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX260_Core_216/315328/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX260_Core_216_SuperClocked/315330/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA

Die sind wieder deutlich teurer. Mal abwarten :ucoffee:

Gast
2008-12-29, 17:14:57
Wo steht dass die EVGA 55nm hat? :confused:

Gast
2008-12-29, 17:15:43
Ooops, habs gefunden... :)

Gast
2008-12-29, 17:24:23
Aber ihr könnt gerne mal reinschreiben warum EVGA im Vergleich immer so teuer ist, bieten die was Besonderes?

Modulor
2008-12-29, 17:38:01
Aber ihr könnt gerne mal reinschreiben warum EVGA im Vergleich immer so teuer ist, bieten die was Besonderes?

Überdurchschnittliche Q&R und superber Support durch hochqualifiziertes Personal auch D.
Die derzeitige Nr.1 in den USA und Premium Partner von NVIDIA ist EVGA nicht ohne Grund geworden.

Raff
2008-12-29, 17:52:02
10 Jahre Garantie. :D

MfG,
Raff

Schlammsau
2008-12-29, 17:53:46
Überdurchschnittliche Q&R und superber Support durch hochqualifiziertes Personal auch D.
Die derzeitige Nr.1 in den USA und Premium Partner von NVIDIA ist EVGA nicht ohne Grund geworden.

Wenn ich ehrlich bin, hab ich noch nie einen Hersteller Support benötigt! Wenn man Probleme mit seiner Karte hat, ist für die meisten das WWW die erste Anlaufstelle. Garantie haben alle Hersteller. Und 10 Jahre haben auch die allerwenigsten ihre Karten!
Ob das einem 20-30% Aufpreis wert ist, muss jeder für sich selbst entscheiden!

Sven77
2008-12-29, 17:55:52
260Eur für ne EVGA sind alles andere als teuer.. und spätestens wenn man mal ne Asus in die RMA schicken musste, weiß man, das EVGA den Aufpreis wert sind

Schlammsau
2008-12-29, 18:00:30
260Eur für ne EVGA sind alles andere als teuer.. und spätestens wenn man mal ne Asus in die RMA schicken musste, weiß man, das EVGA den Aufpreis wert sind

Wenn ich für 328€ eine GTX280, wenn nicht von EVGA bekomme, dann schon! :smile:

Gast
2008-12-29, 18:00:42
Interessant, bei Geizhals sind die EVGA mit 55nm angegeben mit "Maximaler Verbrauch: 192W". Das ist ja mehr als bei den alten 65nm Teilen, die hatten glaube ich 180W oder so.

Modulor
2008-12-29, 18:01:50
Wenn ich ehrlich bin, hab ich noch nie einen Hersteller Support benötigt! Wenn man Probleme mit seiner Karte hat, ist für die meisten das WWW die erste Anlaufstelle. Garantie haben alle Hersteller. Und 10 Jahre haben auch die allerwenigsten ihre Karten!
Ob das einem 20-30% Aufpreis wert ist, muss jeder für sich selbst entscheiden!


Garantie ist nur eine Sache,eine andere ist z.B. die äußerst geringe DOA Quote bei EVGA.Man kann sich aufgrund der vorhandenen Qualitätssicherung bei dem Laden nahezu sicher sein eine funktionstüchtige Karte out of the box zu erwerben.

AnarchX
2008-12-29, 18:03:01
Interessant, bei Geizhals sind die EVGA mit 55nm angegeben mit "Maximaler Verbrauch: 192W". Das ist ja mehr als bei den alten 65nm Teilen, die hatten glaube ich 180W oder so.
Da steht doch bei beiden "max. Verbrauch ca. 182 Watt (bei Volllast)", was die TDP der GTX 260 seit Juni ist.

Gast
2008-12-29, 18:03:28
Garantie ist nur eine Sache,eine andere ist z.B. die äußerst geringe DOA Quote bei EVGA.

Die Karten kommen doch eh alle von Foxconn hats angeblich.

Gast
2008-12-29, 18:05:49
Da steht doch bei beiden "max. Verbrauch ca. 182 Watt (bei Volllast)", was die TDP der GTX 260 seit Juni ist.

http://geizhals.at/deutschland/a392101.html
http://geizhals.at/deutschland/a392709.html

"Fertigung: 55nm • Maximaler Verbrauch: 192W"

AnarchX
2008-12-29, 18:08:49
Die Karten kommen doch eh alle von Foxconn hats angeblich.
Was aber nicht heißen muss, dass EVGA hier nur schnell seinen Aufkleber aufbringt und sie verpackt.

Bei den aktuellen 55nm GTX 260 hat z.B. EVGA den Kühler wohl etwas modifziert (rotes Plastik als Deko an der Seite) und zudem setzt man auf ein schwarzes PCB, wo Zotac und Inno3D mit blauen PCBs daherkommen.

Generell hat EVGA durchaus den Anspruch eines Premiumherstellers.

http://geizhals.at/deutschland/a392101.html
http://geizhals.at/deutschland/a392709.html

"Fertigung: 55nm • Maximaler Verbrauch: 192W"
Wenn interessiert, was Geizhals in seine Datenbank einträgt? Da waren schon desöfteren Fehler bzw. gar Produkte gelistet die niemals existierten.

Schlammsau
2008-12-29, 18:11:29
Garantie ist nur eine Sache,eine andere ist z.B. die äußerst geringe DOA Quote bei EVGA.Man kann sich aufgrund der vorhandenen Qualitätssicherung bei dem Laden nahezu sicher sein eine funktionstüchtige Karte out of the box zu erwerben.

Hab grad mal bei Mindfactory nachgeschaut...hast recht, die Reklamationsquote liegt bei 0% (http://www.mindfactory.de/product_info.php/info/p439222_896MB-EVGA-GeForce-GTX260-Core-216-Superclocked-GDDR3-DVI-PCIe.html/SearchHandle/A%253devga%257eB%253devga%257eD%253d15%257eG%253d12375%255e1%257eI%253dMF_Price% 257eK%253d4%257eL%253d1%257eM%253d1%257eN%253d2%257e/SessionID/5ims8n2sgivc3306mis5ffeaepgqgc3m/Action/10/SortFieldName/Price/SortAscending/true/searchbutton_x/0/searchbutton_y/0/act/search). Interessehalber auch mal Sapphire angeschaut, die eigentlich fast immer die günstigsten ATi´s auf den Markt schmeissen. Die haben auch nur 1-2%.
Ich denke die Hersteller nehmen sich nicht viel. Alle bringen gute Karten raus.

Gast
2008-12-29, 18:12:07
Kann schon sein dass es ein Fehler ist. Andererseits verbraucht sie nach den ersten Messungen tatsächlich mehr als die alte 65nm, was wiederum zum Eintrag passen würde...

Gast
2008-12-29, 18:13:22
Generell hat EVGA durchaus den Anspruch eines Premiumherstellers.

Premiumlabeler triffts in dem Fall wohl eher.

derguru
2008-12-29, 18:21:15
Hab grad mal bei Mindfactory nachgeschaut...hast recht, die Reklamationsquote liegt bei 0% (http://www.mindfactory.de/product_info.php/info/p439222_896MB-EVGA-GeForce-GTX260-Core-216-Superclocked-GDDR3-DVI-PCIe.html/SearchHandle/A%253devga%257eB%253devga%257eD%253d15%257eG%253d12375%255e1%257eI%253dMF_Price% 257eK%253d4%257eL%253d1%257eM%253d1%257eN%253d2%257e/SessionID/5ims8n2sgivc3306mis5ffeaepgqgc3m/Action/10/SortFieldName/Price/SortAscending/true/searchbutton_x/0/searchbutton_y/0/act/search). Interessehalber auch mal Sapphire angeschaut, die eigentlich fast immer die günstigsten ATi´s auf den Markt schmeissen. Die haben auch nur 1-2%.
Ich denke die Hersteller nehmen sich nicht viel. Alle bringen gute Karten raus.

reklamationen bedeutet noch na lange nicht das die produkte murks sind,meistens sind die kunden selbst dafür verantwortlich und mindfactory würde ich nicht gleich als maßstab nehmen.
evga ist halt clever machen die pcb´s in schwarz,eine kleine rote blende dran und zack sind die 50 euro mehrpreis drinnen.die kids stehen halt drauf und evga weißt das nunmal.
würde gerne mal sehen wenn jemand nach 9 jahren und 10 monaten sich seine defekte karte bei evga in die rma schickt,was dann passiert.;)

Gast
2008-12-29, 18:24:14
LOL, schaut doch nur mal bei Luxx zum Beispiel, was die Kinder da veranstalten, also 2 Karten bestellen, testen, die "schlechtere" wieder zurückschicken und solche Scherze. Ich möchte nicht wissen wieviel Anteil an den "1%-2% Reklamationsquote" solche Spezialisten haben...

Schlammsau
2008-12-29, 18:24:57
reklamationen bedeutet noch na lange nicht das die produkte murks sind,meistens sind die kunden selbst dafür verantwortlich und mindfactory würde ich nicht gleich als maßstab nehmen.
evga ist halt clever machen die pcb´s in schwarz,eine kleine rote blende dran und zack sind die 50 euro mehrpreis drinnen;)

Schon klar....wahrscheinlich liegt die Anzahl der Rückläufer auch an der Menge der verkauften Karten. Wahrscheinlich werden auch deutlich mehr Sapphire´s verkauft als EVGA´s.
Würd mich auch interessieren was passiert, wenn ich eine Geforce 2 ;D ausm Schrott einschicke und sie auch noch repariert haben will.
Also entweder repariert oder bares!;D

AnarchX
2008-12-29, 18:25:15
evga ist halt clever machen die pcb´s in schwarz,eine kleine rote blende dran und zack sind die 50 euro mehrpreis drinnen;)
Ihnen zurechnen sollte man aber auch noch, dass sie die 55nm GPUs deutlich kenntlich gemacht haben, durch das neue Design und die neue SKU-Nummer.

Zudem kommen die 50€ Mehrpreis eher von unseren Händlern.

Direkt bekommt man die normale GTX 260 55nm bei EVGA für umgerechnet 220€:
http://www.evga.com/products/moreInfo.asp?pn=896-P3-1255-AR&family=GeForce%20GTX%20200%20Series%20Family
;)

Die SSC mit ihren 675/1453/1151MHz ~ GTX 280 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11117&Itemid=1) wird es bei guter Verfügbarkeit wohl um die 250€ geben, sofern der Dollar nicht wieder steigt.

Gast
2008-12-29, 18:26:55
Ihnen zurechnen sollte man aber auch noch, dass sie die 55nm GPUs deutlich kenntlich gemacht haben,

Das stimmt. Auch wenns wohl eher wegen der Werbung geschehen ist aber trotzdem eine feine Sache wider der nVidia Verarsche :)

derguru
2008-12-29, 18:35:47
Ihnen zurechnen sollte man aber auch noch, dass sie die 55nm GPUs deutlich kenntlich gemacht haben, durch das neue Design und die neue SKU-Nummer.

Zudem kommen die 50€ Mehrpreis eher von unseren Händlern.

Direkt bekommt man die normale GTX 260 55nm bei EVGA für umgerechnet 220€:
http://www.evga.com/products/moreInfo.asp?pn=896-P3-1255-AR&family=GeForce%20GTX%20200%20Series%20Family
;)

Die SSC mit ihren 675/1453/1151MHz ~ GTX 280 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11117&Itemid=1) wird es bei guter Verfügbarkeit wohl um die 250€ geben, sofern der Dollar nicht wieder steigt.
wie der gast schon sagt das ist verkaufsfördernd und eigentlich müsste jeder hersteller das auch so handhaben.
das soll ja keine kritik an evga sein,ich finde die wissen wie man sich als premiumhersteller verkauft.

Gast
2008-12-29, 18:37:50
Naja, wenn ich als Hersteller XY noch 50 Paletten voll alter 65nm Teile im Lager hätte würde ich mit dem "55nm" Sticker auch noch ne Weile warten :D

Modulor
2008-12-29, 18:51:59
Was aber nicht heißen muss, dass EVGA hier nur schnell seinen Aufkleber aufbringt und sie verpackt.

Korrekt.
Jede EVGA Karte >9800GTX die in D verkauft wird geht vor der Auslieferung an den Handel in München erst noch durch die Hände von Mitarbeitern um sie auf Funktionalität und Stabilität zu testen.

Gast
2008-12-29, 18:54:52
Wow, die müssen aber viele Mitarbeiter beschäftigen wenn sie das mit jeder Karte machen und der Test über ein reines "macht ein Bild" hinausgeht...

Schlammsau
2008-12-29, 18:58:43
Korrekt.
Jede EVGA Karte >9800GTX die in D verkauft wird geht vor der Auslieferung an den Handel in München erst noch durch die Hände von Mitarbeitern um sie auf Funktionalität und Stabilität zu testen.

Kann ich mir kaum vorstellen, dass ist einfach nicht wirtschaftlich und eigentlich auch gar nicht machbar.
Wie soll man sich das vorstellen? Lässt der Mitarbeiter die Karte 24h unter Vollast laufen und wenn es zu keinem Absturz kommt, ist die Karte fehlerfrei und wird ausgeliefert?

Gast
2008-12-29, 19:07:14
Sowas wäre nichtmal in China, in einem Kindergefängnis wirtschaftlich. Das kann jemand machen der 12 Karten im Monat verkauft.

Modulor
2008-12-29, 19:16:55
Sowas wäre nichtmal in China, in einem Kindergefängnis wirtschaftlich. Das kann jemand machen der 12 Karten im Monat verkauft.

Oder eine Firma die mehr Geld für Ihre Waren nimmt als andere Firmen ;) - was uns zu der eigentlichen Sinnfrage nach EVGAs Preispolitik bringt...
Das klingt wirklich ungewöhnlich,ich habe jedoch keinerlei Veranlassung an der Aussage eines mir seid langen Jahren bekannten und hochgeschätzten EVGA Mitarbeiters zu zweifeln.

Black-Scorpion
2008-12-29, 19:20:19
Na dann muss das ja stimmen. :rolleyes:
Sorry, aber wer das glaubt nur weil es ein Bekannter erzählt glaubt auch an den Osterhasen wenn der sagt es gibt ihn.
Das diese Aussage nur Blödsinn sein kann ist so offensichtlich, noch deutlicher geht es gar nicht.

Megamember
2008-12-29, 19:26:37
Evga ist einfach teurer weils da wohl dieses Step-Up Programm gibt und 5 Jahre Garantie. SOnst sind die auch nicht besser oder schlechter als andere auch.

Schlammsau
2008-12-29, 19:27:40
Oder eine Firma die mehr Geld für Ihre Waren nimmt als andere Firmen ;) - was uns zu der eigentlichen Sinnfrage nach EVGAs Preispolitik bringt...
Das klingt wirklich ungewöhnlich,ich habe jedoch keinerlei Veranlassung an der Aussage eines mir seid langen Jahren bekannten und hochgeschätzten EVGA Mitarbeiters zu zweifeln.

Sorry aber dieses überprüfen machen 1€ Jober oder dein Freund erzählt einfach nur Mist. Der Aufwand jede einzelne Karte auf Herz und Nieren zu überprüfen ist einfach zu aufwendig für Massenware!

Gast
2008-12-29, 19:35:18
Würde vielleicht bei Quadros für 2500€ und mehr möglich sein. Da ist das Volumen dann auch nicht so gross.

Bastler
2008-12-29, 19:54:05
Ihnen zurechnen sollte man aber auch noch, dass sie die 55nm GPUs deutlich kenntlich gemacht haben, durch das neue Design und die neue SKU-Nummer.

Zudem kommen die 50€ Mehrpreis eher von unseren Händlern.

Direkt bekommt man die normale GTX 260 55nm bei EVGA für umgerechnet 220€:
http://www.evga.com/products/moreInfo.asp?pn=896-P3-1255-AR&family=GeForce%20GTX%20200%20Series%20Family
;)

Die SSC mit ihren 675/1453/1151MHz ~ GTX 280 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11117&Itemid=1) wird es bei guter Verfügbarkeit wohl um die 250€ geben, sofern der Dollar nicht wieder steigt.
wenn du den Preis + Versand zoll(incl Versand) mit berechnest + Mehrwertsteuer.
bei einem Shop oder hersteller müssen die das beim Versand angeben. Und wie lange das Dauert bis du die Mehrwertsteuer von USA zurückbekommst. ???

Megamember
2008-12-29, 20:14:41
Wiess jemand warum ich beim Furmark Stability Test nur einen schwarzen Bildschirm sehe? Der Benchmark läuft aber komischerweise.

Gast
2008-12-29, 20:15:32
Aktuelle Version?

Frank1974
2008-12-29, 20:21:19
Wiess jemand warum ich beim Furmark Stability Test nur einen schwarzen Bildschirm sehe? Der Benchmark läuft aber komischerweise.

Das kann man Treiber liegen, war bei mir auch bei einigen, habe jetzt den 180.84 unter Vista64, damit geht es in Furmark v1.5.

mfg
Frank

Megamember
2008-12-29, 20:35:50
Den 180.84 und die Version 1.5 hab ich beide.

Schlammsau
2008-12-29, 20:38:19
Wiess jemand warum ich beim Furmark Stability Test nur einen schwarzen Bildschirm sehe? Der Benchmark läuft aber komischerweise.

Künstliche "Bremse" vielleicht?

Sven77
2008-12-29, 21:08:11
^^ Nana, sind doch nicht bei den Roten ;)

Ronny G.
2008-12-29, 21:41:11
^^ Nana, sind doch nicht bei den Roten ;)

vielleicht ist aber an der 55er GTX260 irgend etwas so underdimensioniert wie bei einigen HD4870er die den Furmark nicht gebacken bekommen....Leute kauft die neuen GTX260 Karten, wir brauchen ergebnisse in allen möglichen belangen........

Bastler
2008-12-29, 23:56:04
die 55 die es jetzt zu kaufen sind, sind die schlechten .Sie sind ja nicht schlechter als die 65 er.
mit den 55ermit denen geworben werden ,sind die guten.

Megamember
2008-12-30, 00:01:28
die 55 die es jetzt zu kaufen sind, sind die schlechten .Sie sind ja nicht schlechter als die 65 er.
mit den 55ermit denen geworben werden ,sind die guten.

:confused:
Egal. Hab grad spasseshalber mal mit 758/1512 statt 738/1512 getestet und oh Wunder, die Bildfehler beim Canyon Flight sind verschwunden. SCheinbar müssen Kern und Shadertakt immer auf ganz bestimmten Werten stehen um optimal zu funktionieren. In Crysis dasselbe.

derguru
2008-12-30, 00:06:27
:confused:
Egal. Hab grad spasseshalber mal mit 758/1512 statt 738/1612 getestet und oh Wunder, die Bildfehler beim Canyon Flight sind verschwunden. SCheinbar müssen Kern und Shadertakt immer auf ganz bestimmten Werten stehen um optimal zu funktionieren. In Crysis dasselbe.

wie schauts denn mit der wärmeentwicklung aus bei den taktraten?muss du da schon voll aufdrehen oder wie sieht es aus`?

edit:schon ok habe es im luxx gerade gelesen;)

Ronny G.
2008-12-30, 00:34:35
:confused:
Egal. Hab grad spasseshalber mal mit 758/1512 statt 738/1512 getestet und oh Wunder, die Bildfehler beim Canyon Flight sind verschwunden. SCheinbar müssen Kern und Shadertakt immer auf ganz bestimmten Werten stehen um optimal zu funktionieren. In Crysis dasselbe.

na wenn das ohne weiteres stabil läuft sind das doch spitzenwerte, was will man mehr, wenn sich das jetzt über mehrere Karten so abzeichnet scheint der neu Fertigungprozess doch was zu bringen.
Und was sagt der Speicher, wie weit geht der?

Captain Future
2008-12-30, 09:16:42
Sowas wäre nichtmal in China, in einem Kindergefängnis wirtschaftlich. Das kann jemand machen der 12 Karten im Monat verkauft.
Mit einer überschaubaren Einmalinvestition ist das überhaupt kein Problem. Brauchst nur bsw. 20 PCs für jede Baureihe, die du verkaufst. Treiber ist vorinstalliert, Furmark oder sowas im Autostart. Steckst die Karte rein, Strom ran, Monitor ran, Knopf drücken und nach Zeitraum X kontrollieren.

Die meiste Zeit kostet bei sowas das Aus- und wieder Einpacken.

Schlammsau
2008-12-30, 09:20:44
Mit einer überschaubaren Einmalinvestition ist das überhaupt kein Problem. Brauchst nur bsw. 20 PCs für jede Baureihe, die du verkaufst. Treiber ist vorinstalliert, Furmark oder sowas im Autostart. Steckst die Karte rein, Strom ran, Monitor ran, Knopf drücken und nach Zeitraum X kontrollieren.

Die meiste Zeit kostet bei sowas das Aus- und wieder Einpacken.

Da stimme ich dir grösstenteils zu, aber es ist bei Stückzahlen, jenseits der 1000 Stück pro Tag nicht machbar! Glaub mir, nicht bei dem Preis! Ist ja nicht so, dass die Karte nur 1 Minute im Rechner steckt! Die werden es evtl. stichprobenartig machen, vielleicht jede 10 oder 20 Karte wird getestet.

Gast
2008-12-30, 10:32:23
Und was sagt der Speicher, wie weit geht der?
~1215

Megamember
2008-12-30, 10:33:06
Huh, der Gast war ich.

Captain Future
2008-12-30, 11:01:17
Da stimme ich dir grösstenteils zu, aber es ist bei Stückzahlen, jenseits der 1000 Stück pro Tag nicht machbar! Glaub mir, nicht bei dem Preis! Ist ja nicht so, dass die Karte nur 1 Minute im Rechner steckt! Die werden es evtl. stichprobenartig machen, vielleicht jede 10 oder 20 Karte wird getestet.
Ich vermute bei Evga reden wir eher über zweistellige Stückzahlen am Tag (im Schnitt). Nicht vergessen - die sind (fast!) nur im Etail vertreten (habe die IIRC noch nicht bei MM & co. gesehen).

Gast
2008-12-30, 11:10:06
Halte das alles für ein Gerücht. Ein echter "Stabilitätstest" ist völlig ausgeschlossen und der simple "Macht ein Bild" Test geschieht schon beim Hersteller. Alles Propaganda.

LovesuckZ
2008-12-30, 11:19:33
Das stimmt. Auch wenns wohl eher wegen der Werbung geschehen ist aber trotzdem eine feine Sache wider der nVidia Verarsche :)

Ja und welch Verarsche des Kunden. Da bekommt er doch glatt das, was er gekauft hat. ;D

Gast
2008-12-30, 11:30:17
Es gibt Kunden die explizit auf eine Karte mit 55nm GPU Wert legen. Die können sich bei EVGA sicher sein, während andere Labeler sie im unklaren darüber lassen was genau im Karton ist. Was ist gegen solche, von nVidia eher nicht gewollte, Transparanz einzuwenden?

LovesuckZ
2008-12-30, 11:47:01
Jegliche dumme Internetkommentare von Leuten, die meinen, weil es in 55n kommt, muss es besser sein.
Man muss sich nur die Meinungen zum "ersten" Test einer 55mn Karte durchlesen, um zu sehen, dass es besser ist, nich damit zu werben.
Wer explizit darauf wert legt, muss sich eben eine Karte kaufen, die mit dem Fertigungsprozeß wirbt.

Gast
2008-12-30, 11:49:17
Es gibt Kunden die explizit auf eine Karte mit 55nm GPU Wert legen. Die können sich bei EVGA sicher sein, während andere Labeler sie im unklaren darüber lassen was genau im Karton ist. Was ist gegen solche, von nVidia eher nicht gewollte, Transparanz einzuwenden?
Vorbildliche Produktinfo, wie immer bei EVGA
http://www.evga.com/articles/00454/
:up:

Gast
2008-12-30, 12:00:51
Wer explizit darauf wert legt, muss sich eben eine Karte kaufen, die mit dem Fertigungsprozeß wirbt.

Ja sag ich doch. Und was hast du jetzt genau dagegen?

Psychopat
2008-12-30, 13:55:11
Halte das alles für ein Gerücht. Ein echter "Stabilitätstest" ist völlig ausgeschlossen und der simple "Macht ein Bild" Test geschieht schon beim Hersteller. Alles Propaganda.

Man überlege sich folgendes:
Pro Karte investiert ein Mitarbeiter 10min Arbeitszeit um einen ordentlichen Stabilitätstest durchzuführen. Damit schafft er in der Stunde 6 Karten. Verlangt jetzt EVGA nur zwei Euro mehr pro Karte für diese Qualitätsprüfung, sind das 12 Euro die Stunde, die EVGA diesem Mitarbeiter bezahlen kann. Nimmt man Abgaben etc. noch mit dazu, veranschlagt man halt drei Euro pro Karte. Ist aber immer noch wirtschaftlich machbar.
An nem 8 stunden Tag schafft der Mitarbeiter 48 Karten. Stell noch vier weitere ein und du bist bei ~250 Karten am Tag. Das sind über 5000 im Monat. Wieso soll das ganze unrealistisch sein?

mike49
2008-12-30, 13:56:05
Jegliche dumme Internetkommentare von Leuten, die meinen, weil es in 55n kommt, muss es besser sein.
Man muss sich nur die Meinungen zum "ersten" Test einer 55mn Karte durchlesen, um zu sehen, dass es besser ist, nich damit zu werben.

Um allen '55nm-Bashern' mal ein wenig den Wind aus den Segeln zu nehmen:

Ich habe gerade meine neue Zotac GTX260 AMP in 55nm eingebaut und bin bisher sehr positiv überrascht:

Die Karte läuft problemlos auf 756/1512/1215 (mehr noch nicht getestet) und bleibt dabei - trotz 1.12V im 3D - mit max. 71C unter Last (mit OC) deutlich kühler als die alte 65nm Karte. Da der Lüfter auch noch etwas leiser ist und auch mit dem default Lüfterprofil nicht mehr so hochdreht bin ich bisher rundum überzeugt von der 55nm Karte.

Sie macht - bei mir zumindest - einfach alles besser als die alte in 65nm.

Gast
2008-12-30, 13:58:40
Man überlege sich folgendes:
Pro Karte investiert ein Mitarbeiter 10min Arbeitszeit um einen ordentlichen Stabilitätstest durchzuführen. Damit schafft er in der Stunde 6 Karten. Verlangt jetzt EVGA nur zwei Euro mehr pro Karte für diese Qualitätsprüfung, sind das 12 Euro die Stunde, die EVGA diesem Mitarbeiter bezahlen kann. Nimmt man Abgaben etc. noch mit dazu, veranschlagt man halt drei Euro pro Karte. Ist aber immer noch wirtschaftlich machbar.
An nem 8 stunden Tag schafft der Mitarbeiter 48 Karten. Stell noch vier weitere ein und du bist bei ~250 Karten am Tag. Das sind über 5000 im Monat. Wieso soll das ganze unrealistisch sein?
Wo denkst du hin?
5000 verkaufen die vielleicht im Jahr... LOL

Schlammsau
2008-12-30, 13:58:41
Man überlege sich folgendes:
Pro Karte investiert ein Mitarbeiter 10min Arbeitszeit um einen ordentlichen Stabilitätstest durchzuführen. Damit schafft er in der Stunde 6 Karten. Verlangt jetzt EVGA nur zwei Euro mehr pro Karte für diese Qualitätsprüfung, sind das 12 Euro die Stunde, die EVGA diesem Mitarbeiter bezahlen kann. Nimmt man Abgaben etc. noch mit dazu, veranschlagt man halt drei Euro pro Karte. Ist aber immer noch wirtschaftlich machbar.
An nem 8 stunden Tag schafft der Mitarbeiter 48 Karten. Stell noch vier weitere ein und du bist bei ~250 Karten am Tag. Das sind über 5000 im Monat. Wieso soll das ganze unrealistisch sein?

Haken an der Geschichte:
10 Minuten für einen Stabilitätstest? :|
Wie lange braucht man zum verpacken? :|

Schonmal was von Rüstzeiten gehört?

Schlammsau
2008-12-30, 14:00:51
Um allen '55nm-Bashern' mal ein wenig den Wind aus den Segeln zu nehmen:

Ich habe gerade meine neue Zotac GTX260 AMP in 55nm eingebaut und bin bisher sehr positiv überrascht:

Die Karte läuft problemlos auf 756/1512/1215 (mehr noch nicht getestet) und bleibt dabei - trotz 1.12V im 3D - mit max. 71C unter Last (mit OC) deutlich kühler als die alte 65nm Karte. Da der Lüfter auch noch etwas leiser ist und auch mit dem default Lüfterprofil nicht mehr so hochdreht bin ich bisher rundum überzeugt von der 55nm Karte.

Sie macht - bei mir zumindest - einfach alles besser als die alte in 65nm.

Wie schauts nun mit dem angeblich gestiegenen Stromverbrauch aus?

mike49
2008-12-30, 14:09:43
Wie schauts nun mit dem angeblich gestiegenen Stromverbrauch aus?

Hab gerade kein Strommeßgerät hier, da die Karte aber @756/1512/1215 mit 1.12V deutlich kühler bleibt als die alte @729/1458/1215 mit 1.07V kann ich mir kaum vorstellen, daß der Verbrauch gestiegen sein soll.

Vor allem, weil der neue Kühler ja ein wenig kleiner dimensioniert ist als der alte.

Gast
2008-12-30, 14:16:13
Solche Vermutungen bringen garnichts, wir müssen wohl auf die ersten seriösen Reviews warten.

mike49
2008-12-30, 14:19:50
@Gast:

Sorry, aber wenn die Karte trotz 0.05V mehr Spannung und kleiner dimensioniertem Kühler rund 10C kühler bleibt (bei ebenfalls entsprechend reduzierten Lüfterdrehzahlen) wird die wohl kaum mehr verbrauchen.

Kann aber natürlich sein, daß ich dank der AMP schon einen irgendwie selektierten Chip bekommen habe.

Gast
2008-12-30, 14:21:27
Ich vertraue lieber auf den Energiemontior in der Hand eines kundigen Reviewers als auf irgendwelchen gefühlten Temperaturen (von denen man nichtmal weiss wie genau und mit welchem Messfehler der Sensor behaftet ist)...

Gast
2008-12-30, 14:25:34
Ist denn die max. GPU Temp gleich wie bei GTX260@65nm? Da gibt es doch bestimm Angaben, oder?

MFG

Gast

darkvader
2008-12-30, 14:41:59
Man überlege sich folgendes:
Pro Karte investiert ein Mitarbeiter 10min Arbeitszeit um einen ordentlichen Stabilitätstest durchzuführen. Damit schafft er in der Stunde 6 Karten. Verlangt jetzt EVGA nur zwei Euro mehr pro Karte für diese Qualitätsprüfung, sind das 12 Euro die Stunde, die EVGA diesem Mitarbeiter bezahlen kann. Nimmt man Abgaben etc. noch mit dazu, veranschlagt man halt drei Euro pro Karte. Ist aber immer noch wirtschaftlich machbar.


Und zu den 3 Euro reinen Lohnkosten kommen dann:

* Der reine Arbeitsplatz
* Equipment für den Arbeitsplatz
* Strom, Wass, usw. an Nebenkosten
* Kosten für den Administrativen Part (Chef, Buchhaltung usw.

Und dann mußt du bedenken - dass sind Kosten in der Mitte der Wertschöpfungskette. 3 Euro vor dem Sale sind dann halt schon 4,50 Euro beim Zwischenhändler, und dann 6,- plus Mwst beim Endhändler.

Schlammsau
2008-12-30, 14:45:22
Hab gerade kein Strommeßgerät hier, da die Karte aber @756/1512/1215 mit 1.12V deutlich kühler bleibt als die alte @729/1458/1215 mit 1.07V kann ich mir kaum vorstellen, daß der Verbrauch gestiegen sein soll.

Vor allem, weil der neue Kühler ja ein wenig kleiner dimensioniert ist als der alte.

Genau das ist doch auch im letzten Preview geschrieben worden. Kühler aber trotzdem bis zu 10W mehr Verbrauch unter Last.
Steht sogar auch auf unserer Startseite! Aber erstmal abwarten.

Iceman346
2008-12-30, 14:47:07
@mike49:
Wo haste die Karte her? Alternate?
Hast du irgendwie was bei der Bestellung angegeben oder einfach auf gut Glück bestellt?

Gast
2008-12-30, 14:57:45
Genau das ist doch auch im letzten Preview geschrieben worden. Kühler aber trotzdem bis zu 10W mehr Verbrauch unter Last.
Steht sogar auch auf unserer Startseite! Aber erstmal abwarten.

Ach, da gibts doch so viele Fehlermöglichkeiten... Neue Karte rein, Gehäuse war offen, alles schön kühl, Temps niedrig. Oder vorher Zimmer gelüftet. Oder bei der Karte mit *mehr* Leistungsaufnahme sitzt der Kühler einfach etwas besser, die Wärmeleitpaste besser verteilt etc., schon ist die Temperatur niedriger als bei der Karte die weniger Leistung saugt, aber bei der die WLP nur dicker aufgetragen ist. Oder der Lüfter der alten Karte war nur schon mehr verstaubt. Oder der Sensor liegt nur daneben, das sind ja keine Präzisionsmessgeräte sondern Schätzeisen mit enormer Toleranz. Es gibt hier so viele Fehlermöglichkeiten dass jeder Gedanke, man könne anhand der angezeigten Temperatur irgendwas über die Leistungsaufnahme ableiten verschwendete Zeit ist.

Hier hilft nur der Mann mit dem Wattmeter :D

mike49
2008-12-30, 15:03:50
@mike49:
Wo haste die Karte her? Alternate?
Hast du irgendwie was bei der Bestellung angegeben oder einfach auf gut Glück bestellt?

Jep, ist von Alternate. Die haben AFAIK nur noch 55nm GPUs bei den Zotac GTX260.

War ein Garantietausch für meine Gainward GTX260-216 bei der sich die Spannung immer mal wieder selbständig erhöht hatte. Gibt da einen Thread von mir im nV-Forum zu...

Gast
2008-12-30, 15:05:30
Die Spannung selbsttätig erhöht? Haste da am BIOS geschraubt? :confused:

Iceman346
2008-12-30, 15:37:49
Jep, ist von Alternate. Die haben AFAIK nur noch 55nm GPUs bei den Zotac GTX260.

Scheint wirklich so zu sein, der Mann im Telefonsupport wusste es zwar nicht selbst, aber er hat dann beim Artikel nachgeschaut und bei denen im System ist für die AMP² durchweg 55nm als Verarbeitung eingetragen.

Hab sie mir nun mal bestellt, nach dem Wechsel auf nen 24" Monitor kommt meine 4850 bei manchen Spielen etwas an ihre Grenzen, somit passte das ganz gut.

Gast
2008-12-30, 15:48:55
Warum hat eigentlich Alternate Tonnen von den 55nm und die anderen Shops ned? Eigen-Grau-Importe?

mike49
2008-12-30, 17:52:04
Hallo,

anbei ein für einige vielleicht ganz interessanter Screenshot von meiner Zotac AMP in 55nm:

http://www.abload.de/img/amp6jh7.png

Also ich bin zufrieden :)

=Floi=
2008-12-30, 18:55:07
die 80% und 2500 umdrehungen müssen doch verdammt laut sein?
was soll das posen mit von hand aufgedrehtem lüfter und dann übertakteter karte? wie stabil ist sie bei normalen drehzahlen?

das ist ja echt ein armseliger shot

mike49
2008-12-30, 19:04:00
das ist ja echt ein armseliger shot

Wohl eher ein armseliger Kommentar von jemanden, der zu blöd ist zu kapieren, was er da sieht... :|

Die 80% waren manuell zum OC-Test eingestellt und werden von 'normalen' GTX260 in 65nm bei solchen Taktfrequenzen auch ganz locker erreicht. Nur dann halt nicht @52C sondern bei >80C.

Die Karte läuft genau so stabil mit der default Lüftersteuerung @ 72C / 40% Lüfter.

Ronny G.
2008-12-30, 19:05:01
die 80% und 2500 umdrehungen müssen doch verdammt laut sein?
was soll das posen mit von hand aufgedrehtem lüfter und dann übertakteter karte? wie stabil ist sie bei normalen drehzahlen?

das ist ja echt ein armseliger shot

was anderes macht ne Wakü auch nicht, man kann mit viel Lüfterdrehzahl nun mal ne menge raus holen und dazu noch das OC-Ergebnis beträchtlich steigern.
Es geht doch auch nur darum was die Karte maximal schafft, ob man sich das 24/7 antut steht außer frage.

Schlammsau
2008-12-30, 19:08:31
Also ich würde auf den ATITool Fellwürfel stabilitätstechnisch nicht viel geben.
Teste mal mit dem FURMark Stability Test oder Games. Bei mir haben sich Grid und Crysis als sehr OC empfindlich herrausgestellt.

mike49
2008-12-30, 19:13:43
was anderes macht ne Wakü auch nicht, man kann mit viel Lüfterdrehzahl nun mal ne menge raus holen und dazu noch das OC-Ergebnis beträchtlich steigern.

Genau ;)

Es geht doch auch nur darum was die Karte maximal schafft, ob man sich das 24/7 antut steht außer frage.
Mir ging es nur darum zu zeigen, daß die Karte mit diese Taktfrequenzen und Lüfter @80% gerade mal 52C warm wird unter Last. Mit einer 65nm Karte gab es das schlicht nicht.

Meine alte 65nm GTX260 war da schon bei deutlich über 75C, trotz 80% Lüfter.

Selbst die 72C mit Lüftersteuerung @default sind vollkommen unkritisch, stabil und leise.

Gast
2008-12-30, 19:29:11
Also ich würde auf den ATITool Fellwürfel stabilitätstechnisch nicht viel geben.


Ich schon, weil es das einzige Tool ist, das mir sicher die möglichen stabilen Taktraten meiner Grafikkarten aufzeigt.

VooDoo7mx
2008-12-30, 19:35:24
Also wenn die Taktraten gamestable sind dann... holy shit...
Ich freu mich schon auf stark übertaktete 285er. ;)

mike49
2008-12-30, 19:42:21
Ich schon, weil es das einzige Tool ist, das mir sicher die möglichen stabilen Taktraten meiner Grafikkarten aufzeigt.
Jep, bei mir genauso.

Der Artefact Scan im ATITool zeigt mir idR deutlich früher Bildfehler als in Spielen.

Also wenn die Taktraten gamestable sind dann... holy shit...

Sind sie, zumindest in Crysis ;)

Sogar mit default Lüftersteuerung auf dann ~45%

Schlammsau
2008-12-30, 19:46:58
Ich schon, weil es das einzige Tool ist, das mir sicher die möglichen stabilen Taktraten meiner Grafikkarten aufzeigt.
Nö, bei mir noch nie! Weder mit ATi noch mit Nvidia, ich konnte mit dem ATITool immer höher takten bevor ich Artefakte bekommen habe als in Games!
Ist schon seit Jahren so bei mir. Absolut unabhängig von der Hardware oder BS.
Der FURMark hingegen, hat sich bei mir als sehr Praxisnah erwiesen!

@mike
Lass doch mal den FURMark ne viertel Stunde mit diesen Taktraten und Standard Lüfterdrehzahl laufen.
Die Temps würden mich mal interessieren, und vorallem ob die Karte dann auch stabil ist.

Frank1974
2008-12-30, 20:21:36
Jep, bei mir genauso.

Der Artefact Scan im ATITool zeigt mir idR deutlich früher Bildfehler als in Spielen.


Sind sie, zumindest in Crysis ;)

Sogar mit default Lüftersteuerung auf dann ~45%

Ich vertraue auch ATI-Tool am meisten, bei Crysis und Furmark läuft meine Karte ohne Bildfehler mit 1512MHz Shadertakt, ATI-Tool zeigt sofort Fehler das ab 1512MHz nicht mehr stabil ist, 1458MHz habe ich 30min. laufen lassen, alles OK, bei 1512MHz sofort gelbe Fehler, glaubt ihr die kommen ab 1512MHz zum Spaß:rolleyes:, und ATI-Tool deckt das ganze schon bei niedrigen Temps auf.

edit
Hier mal meine GTX280 mit Übertaktung bei 75% Lüfter und mit der normalen Spannung von 1.18v, ist auch ganz OK, im Sommer dreht die Karte eh immer auf 100%, wenn es im Zimmer fast 30° sind.

Im Moment habe ich aber nur 18° im Zimmer.

Das ist nur zum Vergleich, ich denke mit 1.12 oder sogar 1.06v würden die Temperaturen ähnlich der neuen GTX260 sein.
http://666kb.com/i/b54l5zysk53vs2xos.png

mfg
Frank

Cpl. Dwayne Hicks
2008-12-31, 01:17:39
Werden die Spannungswandler der GTX2xx Karten unter dem Furmark eigentlich auch so abartig heiss wie bei den HD48xx karten?

Bei mir warens da über 120 Grad als ich noch meine HD4870 512MB hatte.

Ronny G.
2008-12-31, 03:21:59
Frank ich glaube auch das bei niedrigeren Voltages die Karte sehr nahe an die 55er kommen wird, nach jetztigen stand können wir eben noch nicht viel dazu sagen, es gibt zu wenige richtige Tests.

Die Taktwerte die hier aber bereits gezeigt wurden finde ich spitze, wenn das ne kleine Regel wird dann ist das doch allemal be bessere Neuigkeit als die ollen Watt:biggrin:

Coda
2008-12-31, 03:22:55
Bei mir warens da über 120 Grad als ich noch meine HD4870 512MB hatte.
Das ist kein Problem für Spannungswandler. Die können so heiß werden dass sie sich vorher auslöten bevor sie defekt sind.

HarryHirsch
2008-12-31, 03:40:03
Das ist kein Problem für Spannungswandler. Die können so heiß werden dass sie sich vorher auslöten bevor sie defekt sind.

aha
und das steht SO wo? ich brech ab!

kmf
2008-12-31, 04:19:47
Das ist kein Problem für Spannungswandler. Die können so heiß werden dass sie sich vorher auslöten bevor sie defekt sind.Jo klar, bevor sie aussteigen, legen sie sich sogar noch für die nächste Marsche bereit. Machen die. Ati forever!

Du glaubst auch echt alles, was du schreibst?

Und sorry, falls ich was nicht so richtig verstanden hab. ;(

Übrigens bin noch gar nicht da, erst im nächstes Jahr. :redface:

Schlammsau
2008-12-31, 10:29:51
Hallo? Die Spannungswandler der HD4870 sind bis ~130°C spezifiziert. Weiss nicht wo euer Problem ist.

Gast
2008-12-31, 16:12:27
Der Bereich in dem Lot flüssig wird und sich die Regler also "von selbst auslöten" liegt aber deutlich jenseits der 130 Grad... Eher so bei 300°C... Die Regler die dann noch funzen möchte ich mal sehen ;D

James Ryan
2008-12-31, 18:01:36
Mir ging es nur darum zu zeigen, daß die Karte mit diese Taktfrequenzen und Lüfter @80% gerade mal 52C warm wird unter Last. Mit einer 65nm Karte gab es das schlicht nicht.

Dann vergleiche mal eine 65nm GTX260-216 mit 1,06 Volt, die schaffen das auch locker.
btw, meine GTX 260 dreht nie mehr als 50% auf, ganz einfach weil sie nicht wärmer als 62°C wird.
Daher finde ich die 52°C bei unerträglichen 80% Lüfter nicht sehr doll.

MfG :cool:

Byteschlumpf
2008-12-31, 18:12:39
Jep, ist von Alternate. Die haben AFAIK nur noch 55nm GPUs bei den Zotac GTX260.

War ein Garantietausch für meine Gainward GTX260-216 bei der sich die Spannung immer mal wieder selbständig erhöht hatte. Gibt da einen Thread von mir im nV-Forum zu...
Würde sich diese Karte als Upgrade für eine 8800GTS 512MB (seit 11 Monaten im Dienst) lohnen?

Gast
2008-12-31, 19:23:51
IMHO nö.

Fetza
2008-12-31, 22:13:49
Würde sich diese Karte als Upgrade für eine 8800GTS 512MB (seit 11 Monaten im Dienst) lohnen?
IMHO nö.

Genau, die gtx 260 ist ja nur ungefähr doppelt so schnell in hohen auflösungen.....

pest
2008-12-31, 22:31:19
Genau, die gtx 260 ist ja nur ungefähr doppelt so schnell in hohen auflösungen.....

ca 50% in 1600x1200 4xAA/16xAF, ohne AA schrumpft der Vorsprung auf ~30%

Fetza
2009-01-01, 06:04:07
ca 50% in 1600x1200 4xAA/16xAF, ohne AA schrumpft der Vorsprung auf ~30%

Naja unter hoch verstehe ich eigentlich mehr 1920x1200, 1600er ist doch schon mehr standardauflösung.

mike49
2009-01-01, 12:25:07
Würde sich diese Karte als Upgrade für eine 8800GTS 512MB (seit 11 Monaten im Dienst) lohnen?

Kommt hauptsächlich auf die von Dir verwendete Auflösung an.

Mit 1920x1200 war meine 8800GT ziemlich überfordert, häufig ist der einfach der Speicher ausgegangen. In solchen Szenarien ist die GTX260 jetzt locker doppelt so schnell (+100% ggü. der 8800GT).

Bei 1680x1050 würde ich es davon abhängig machen, ob deine GTS häufig wegen vram-Mangel einbricht. Wenn nicht, dann lohnt sich das Upgrade IMHO nicht da Du außerhalb eines vram-Limits max. 50-60% schneller bist mit einer GTX260.

Fetza
2009-01-01, 13:38:21
Kommt hauptsächlich auf die von Dir verwendete Auflösung an.

Mit 1920x1200 war meine 8800GT ziemlich überfordert, häufig ist der einfach der Speicher ausgegangen. In solchen Szenarien ist die GTX260 jetzt locker doppelt so schnell (+100% ggü. der 8800GT).

Bei 1680x1050 würde ich es davon abhängig machen, ob deine GTS häufig wegen vram-Mangel einbricht. Wenn nicht, dann lohnt sich das Upgrade IMHO nicht da Du außerhalb eines vram-Limits max. 50-60% schneller bist mit einer GTX260.

Nicht zu vergessen das "kleine" speicherinterface, es sollte eigentlich extrem bremsen in solchen auflösungen.

LovesuckZ
2009-01-01, 13:44:20
Nein, es limitiert nicht. Zum Größteil limitiert die Speichermenge in hohen Auflösungen mit AA.

Byteschlumpf
2009-01-01, 18:47:00
Crysis Warhead läuft ziemlich schlecht mit meiner 8800GTS, womöglich liegt das an einem alten Treiber. Den aktuellen habe ich nun drauf, aber finde bisher keine Möglichkeit, Warhead damit zu testen (ich bin gerade nicht daheim ;) ).

Auf meinem Acer Notebook mit der 9600M GT empfinde ich das Gameplay im Vergleich deutlich flüssiger.

Ansonsten laufen alle Games in 1680x1050 mit der GTS sehr gut. Ich werde wohl auf die GTX3xx warten können. :)

Coda
2009-01-01, 20:03:39
Der Bereich in dem Lot flüssig wird und sich die Regler also "von selbst auslöten" liegt aber deutlich jenseits der 130 Grad... Eher so bei 300°C... Die Regler die dann noch funzen möchte ich mal sehen ;D
Glaubt's halt nicht. Die Dinger verrecken nicht. Das sind keine Siliziumchips.

Jo klar, bevor sie aussteigen, legen sie sich sogar noch für die nächste Marsche bereit. Machen die. Ati forever!
Was hat das mit ATI zu tun? Das ist bei allen Karten so.

derguru
2009-01-02, 00:41:37
falls einer kaufen will,dann zackig ist gleich sense.
http://www.zack-zack.eu/html/detail/zackzack.html