PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GT 240: (P)Review-Thread


AnarchX
2009-11-17, 14:57:36
http://img20.imageshack.us/img20/9652/geforcegt240low3qtr7545.png

Reviews:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/
http://www.pcgameshardware.de/aid,699574/Test-Geforce-GT-240-Nvidias-schnellste-DirectX-101-Grafikkarte/Grafikkarte/Test/

http://www.guru3d.com/article/msi-geforce-gt-240-review-test/
http://www.legitreviews.com/article/1138/1/
http://www.tomshardware.com/reviews/geforce-gt-240,2475.html
http://hothardware.com/Articles/Zotac-GeForce-GT-240-AMP-Edition-Review/
http://www.techpowerup.com/reviews/MSI/GeForce_GT_240
http://www.pcper.com/article.php?aid=822

AnarchX
2009-11-17, 15:06:24
Laut PCGH 727 Mio. Transistoren, damit geringfügig unter einem G92.

reunion
2009-11-17, 15:18:00
Laut PCGH 727 Mio. Transistoren, damit geringfügig unter einem G92.

Sehr viel für die Einheitenanzahl und wieder relativ geringe Taktraten, aber das haben alle GT21x-Chips gemein. Sonst macht der Chip nichts falsch, er kommt halt einfach relativ spät, und zum Preis der 4770 gewinnt man natürlich keinen Blumentopf.

LovesuckZ
2009-11-17, 15:18:28
Laut PCGH 727 Mio. Transistoren, damit geringfügig unter einem G92.

Das ist ziemlich heftig. Wenn man überlegt, dass ein G92 bei 754 Millionen liegt, dann bin ich von fester Überzeugung, dass die Änderung der TMUs einiges an Transistoren benötigt. Und damit ist auch klar, warum nVidia sich beim GT200 gegen 10.1 entschieden hat.

/edit: Die Packdichte liegt bei ca. 5,2 Millionen pro mm^2. Damit hat man knapp 90% mehr Transistoren erreicht als unter 55nm.

Undertaker
2009-11-17, 15:30:35
Bleibt die Frage, warum überhaupt 10.1? Letztlich wird das doch durch das kommende DX11 eh bedeutungslos bleiben, und mit einem G92 Shrink @ 128bit wäre man wohl besser gefahren - oder übersehe ich da etwas? :confused:

LovesuckZ
2009-11-17, 15:41:41
Bleibt die Frage, warum überhaupt 10.1? Letztlich wird das doch durch das kommende DX11 eh bedeutungslos bleiben, und mit einem G92 Shrink @ 128bit wäre man wohl besser gefahren - oder übersehe ich da etwas? :confused:

Checkbox-Features für die OEM. Ist nur dumm gelaufen, da TSMC nicht produzieren konnte.

AnarchX
2009-11-17, 15:42:20
Die OEMs wollten wohl unbedingt D3D10.1 für Windows 7, was dann NV wiederwillig implementierte.

Bei der GT 240 ist D3D10.1 ganz unten in der Feature Liste gelandet:
http://www.nvidia.com/object/product_geforce_gt_240_us.html
:D

Sorkalm
2009-11-17, 15:50:44
und wieder relativ geringe Taktraten

Das Problem scheint der Shadertakt zu sein. Die TMU-Domäne ließ sich jedenfalls bei CB ganz gut übertakten, die Shader aber gar nicht:

Anders dagegen die Shadereinheiten, die sich mehr oder weniger gar nicht übertakten lassen. Denn bereits bei der geringst möglichen Anhebung der Frequenz erscheinen nach kurzer Zeit Grafikfehler.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/23/#abschnitt_uebertaktbarkeit

Spasstiger
2009-11-17, 15:54:15
Leider ist die Karte von Zotac, die Computerbase getestet hat, mangels Lüftersteuerung im idle viel zu laut. Und auch die Lautstärke unter Last halte ich für eine Mainstream-Karte für inakkzeptabel. Ein Anreiz, eine solche Karte als PhysX-Karte dazuzustecken, besteht definitiv nicht. Die Karte von MSI, die bei Guru3D getestet wurde, scheint aber lautstärkenmäßig ok zu sein.
Und als Karte für 3D ist die GT 240 GDDR5 mit der Performance etwas unterhalb einer GeForce 9600 GT (mit aktivem AA) auch nicht wahnsinnig interessant.
Das Übertaktungspotential reißt einen auch nicht vom Hocker mit maximal 657 MHz GPU-Takt bei Computerbase und 1554 MHz Shadertakt bei Guru3D. Relativ gesehen ist diese Steigerung ok, aber absolut gesehen sind das eher niedrige Taktraten, die man auch mit einem GT200b relativ problemlos erreicht.
Nur der idle- und Lastverbrauch überzeugt, auch mit GDDR5. Passivkühlung sollte hier gut machbar sein.
70€ darf die GT 240 GDDR5 imo kosten, darüber würde ich eher zu einer HD 4830 greifen, die vor allem mit Antialiasing weit mehr 3D-Leistung abliefert und im Idle auch halbwegs sparsam ist.

w0mbat
2009-11-17, 16:24:00
Was CB gerade wieder abzieht ist echt der Hammer. In den Ratings mixen sie die Performance der GDDR5-Version mit dem Preis der GDDR3-Version, im Fazit steht dass die HD4770 teurer als die GT240 wäre (das Fazit bezieht sich auf die GDDR5-Version, die HD4770 ist aber sogar billiger als die GDDR3-Version!). Dann haben sie "die (deutlich teurere) Radeon HD 4770" umgewandelt in "die teurere Radeon HD 4770",was immer noch nicht stimmt (die günstigste, lieferbare HD4770 kostet weniger als die günstigste lieferbare GT240 GDDR3).

Naja, CB eben... mal sehen wass sie es klamm heimlich ändern.

AnarchX
2009-11-17, 17:59:33
Nvidia rechnet vor, wie Inet-Cafes in Taiwan "kostenlos" von 9600 GT auf GT 240 wechseln können, durch die entstande Stromersparnis:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F111130_6.htm&sl=zh-CN&tl=en&hl=de&ie=UTF-8
;D

Sorkalm
2009-11-17, 19:06:54
Man, müssen die Strompreise in China hoch sein, dass man da überhaupt so ne Rechnung aufmachen kann...

Gast
2009-11-17, 19:44:07
Erneut eine NV-Karte, die kein Mensch braucht. Es gibt bessere und vor allem günstigere Alternativen auf dem Markt.

AnarchX
2009-11-17, 19:50:00
Lediglich 9 Watt verbraucht die Testkarte im Leerlauf, und damit so wenig wie die schwächeren GeForce GT 220 und 210. Schließt man zwei Monitore an, klettert der Idle-Wert architekturbedingt auf 25 Watt, unter Volllast verheizt die Karte in unseren Tests nicht mehr als durchschnittlich 60 Watt.
http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GT-240-861789.html

reunion
2009-11-17, 20:18:17
Schlicht grenzwertig finde ich im übrigen die GDDR3/DDR3-Versionen. Die Karte nennt sich auch damit GT240. Die Speicherbandbreite ist mal eben halbiert, die Leistung dürfte erheblich niedriger liegen. Wer nicht Bescheid weiß und genau auf den Speicher achtet sieht sich den Test der schnellen GDDR5 Version an und kauft die deutlich langsamere GDDR3/DDR3-Version.

Schrotti
2009-11-17, 20:22:40
Erneut eine NV-Karte, die kein Mensch braucht. Es gibt bessere und vor allem günstigere Alternativen auf dem Markt.

Sehe ich genauso.

LovesuckZ
2009-11-17, 20:23:49
Erneut eine NV-Karte, die kein Mensch braucht. Es gibt bessere und vor allem günstigere Alternativen auf dem Markt.

Jo, weil der Preis auch so eine Konstante eines Produktes ist. :rolleyes:

Gast
2009-11-17, 21:16:06
Jo, weil der Preis auch so eine Konstante eines Produktes ist. :rolleyes:

Solang sie 50% teurer als eine ~ gleich flotte HD4670 ist, ist sie uninteressant.

nagus
2009-11-17, 22:03:10
Schlicht grenzwertig finde ich im übrigen die GDDR3/DDR3-Versionen. Die Karte nennt sich auch damit GT240. Die Speicherbandbreite ist mal eben halbiert, die Leistung dürfte erheblich niedriger liegen. Wer nicht Bescheid weiß und genau auf den Speicher achtet sieht sich den Test der schnellen GDDR5 Version an und kauft die deutlich langsamere GDDR3/DDR3-Version.

pure absicht seitens nvidia... nur damit man sich billiges "graffl" teuer bezahlen lassen kann. diese methoden sind echt :hammer: :hammer: :hammer:

LovesuckZ
2009-11-17, 22:09:27
Aber echt, wie kann nVidia nur auf ihrer Seite schreiben, dass sie 1700MHz GDDR5 Speicher (http://www.nvidia.com/object/product_geforce_gt_240_us.html) verwenden. Diese verfluchten Betrüger! Da macht es AMD besser: Eine 5970 hat doppelte soviele Einheiten - und nicht (5850Taktrate->5870-Einheitenanzahl)*1.CF-Skalierung. Diese sind echt kundenfreundlich, weiter so AMD. :)

Sorkalm
2009-11-17, 22:39:49
So ein schwachsinniger Vergleich, Lovesuckz. ;)

LovesuckZ
2009-11-17, 22:48:58
So ein schwachsinniger Vergleich, Lovesuckz. ;)

Er ist ziemlich passend. AMD verkauft hier eine Karte, die langsamer als eine 5870 sein kann - und nennt sie frech 5970. Und das sagen sie nichtmal. :freak:
Und da beschwert man sich, dass nVidia unter dem Namen GT240 mehrere Speichervarianten anbietet und darüber informiert. Kann ja nicht nVidia's Schuld sein, wenn Geizhals statt 1700Mhz GDDR5 nur 850Mhz GDDR5 hinschreibt. Wobei - nVidia ist ja heutzutage für alles schuld. Vergess den vorletzten Satz einfach.

derguru
2009-11-17, 22:58:18
Er ist ziemlich passend. AMD verkauft hier eine Karte, die langsamer als eine 5870 sein kann - und nennt sie frech 5970. Und das sagen sie nichtmal. :freak:

wenn cf nicht geht oder was?was sagst du denn zur 285 zu 295?das lustige dabei ist ,das eine 285 gtx schneller sein kann als eine 295 speicherkrücke mit sli funktion.;D

LovesuckZ
2009-11-17, 23:21:48
wenn cf nicht geht oder was?was sagst du denn zur 285 zu 295?das lustige dabei ist ,das eine 285 gtx schneller sein kann als eine 295 speicherkrücke mit sli funktion.;D

Oh, das hat jetzt genau was mit nVidia und der GT240 zu tun? Wobei - dann ist ja nVidia garnicht so kundenfeindlich wie ich dachte. ;D
Err, das ist exakt das selbe. Aber das interessiert ja keinem - aber sobald nVidia etwas auf ihrer Homepage exakt angibt, macht man stresst. Am besten sollten sie nur GDDR5, GDDR3 und DDR3 angeben. Das ist fair. :)

davidzo
2009-11-18, 00:08:07
du kannst dir auch alles schön reden.
es gibt auch (k)einen Gott außer Jen Hsun Huang und seiner Gemeinde Nvidia.
- Apple zum Beispiel, wenn du mich fragst gibt Steve einen viel besseren jesus ab...

LovesuckZ
2009-11-18, 00:11:40
Ich muss es zurücknehmen, dass nVidia kundenfreundlich wäre. Die gäben doch echt auf ihrer Seite eine Unterteilung an.
Da ist AMD besser: Die unterlassen es einfach.

du kannst dir auch alles schön reden.
es gibt auch (k)einen Gott außer Jen Hsun Huang und seiner Gemeinde Nvidia.
- Apple zum Beispiel, wenn du mich fragst gibt Steve einen viel besseren jesus ab...

Stimmt - solchen unsinn kann man sich einfach nur schön reden. :rolleyes:
Manchmal frage ich mich, ob gewisse Leute sich einfach im Forum geirrt haben. Computerbase.de und pcgh.de sind doch viel besser, um mit Quatsch gegen Firmen zu flamen.

Dural
2009-11-18, 01:56:58
Die GT240 ist eine richtig tolle Karte für:

PhysX
HTPC
Büro PC
Stromspar PC mit etwas Grafik-Leistung

Für den rest nicht wirklich brauchbar...

mapel110
2009-11-18, 03:07:26
Die GT240 ist eine richtig tolle Karte für:

PhysX
HTPC
Büro PC
Stromspar PC mit etwas Grafik-Leistung

Für den rest nicht wirklich brauchbar...
Für PhysX ist die schon zu lahm. Selbst eine 9600 GT stößt an ihre Grenzen dabei. 9800er oder aufwärts sollte es dafür schon sein.

Coda
2009-11-18, 04:00:37
Hm? Eine GT 240 ist schneller als eine 9600GT und fast so schnell wie eine 9800GT. 96 SPUs.

mapel110
2009-11-18, 04:44:02
Ich seh die durchweg langsamer als 9600 GT bei CB und PCGH. Ausnahme ist wohl GTA4, wo es auch stark auf die Speichermenge ankommt.

Coda
2009-11-18, 04:47:03
Die für CUDA relevante Rechenleistung dürfte trotzdem etwas über eine 9600 GT liegen.

reunion
2009-11-18, 07:45:35
Aber echt, wie kann nVidia nur auf ihrer Seite schreiben, dass sie 1700MHz GDDR5 Speicher (http://www.nvidia.com/object/product_geforce_gt_240_us.html) verwenden.

Schön, sie geben es an, genial. Trotzdem nenne ich nicht drei Modelle die eine beträchtlichen leistungsunterschied aufweisen beim identischen Namen. Getestet wird freilich nur das Modell ohne Speicherkrücke, den Rest darf man sich denken.

Reaping_Ant
2009-11-18, 08:48:05
Beim Thema Speicherbestückung hat sich aber bisher keiner der beiden Hersteller mit Ruhm bekleckert. Varianten der selben Karte mit unterschiedlichen Speichervarianten (mit teils gigantischen Leistungsunterschieden) gibt es schon ewig. Auf Seiten von damals ATi z.B. mit der Radeon 9800 Pro, bei der es galt aus der Masse von Angeboten die Karten mit 256 bit Speicherinterface heraus zu fischen, oder aktuell bei der 4650, die man ebenfalls mit 400 MHz DDR2 und 800 MHz GDDR3 kaufen kann.

Das ist natürlich keine Entschuldigung für dieses Verhalten und man kann denke ich auch unterstellen, dass durchaus Absicht dahinter steckt. Eine unterschiedliche Namensgebung wäre aus Sicht des Kunden durchaus wünschenswert.

Zur GT240: Wenn es jetzt noch eine Variante mit leiser(!) Single Slot Kühlung für unter 70 € gäbe, würde mich die Karte für PhysX, einen dritten Monitor und gelegentlich den HTPC (für eine kleine Spontan-LAN) durchaus interessieren.

Benedikt
2009-11-18, 10:23:28
Der Arctic Cooling Accelero L2 Pro passt auf die Karten, nehme ich an?

davidzo
2009-11-18, 11:44:59
der arctic L2 wird doch von der hälfte verbaut wenn du dir hier mal die bildstrecke anguckst:
http://www.computerbase.de/bildstrecke/27514/1/

der ist aber dualslot, was für diese Karte nicht wirklich toll ist. wenn die dinger so weni verbrauchen, sollte man auch in singlesot was vernünftiges hinbekommen.

die 4670 ist außerdem trotz 55nm sparsamer und das ist ne uralte karte... also als stromsparpc würde ich lieber ne passiv gekühlte 4670 nehmen die billiger, leiser und sogar schneller ist als die ddr3 basierten gt220. Die DDR5 varianten sind sogar teurer als ne 4770, die nun wirklich um längen schneller ist. Das featureset kanns auch nicht sein, ist ja schließlich gerademal dx10.1 und UVD2.0 ist auch nicht zu verachten...
Ne völlig überflüssige Karte wenn ihr mich fragt.
selbst als physxkarte überflüssig, da die shaderpower nur marginal über der 9600Gt liegt wegen den enttäuschenden taktraten. ohne brauchbaren singleslotkühler wir man sich sie wohl kaum in einen der übrigbleibenden slots stecken.
da sind die bisherigen alternativen von ATI und sogar die hauseigene 9600gt attraktiver.


GT215 140mm²@40nm + 800mhz DDR3
GT215 140mm²@40nm + 1Ghz GDDR3
RV730 148mm²@55nm + 1Ghz GDDR3
GT215 140mm²@40nm + 1,7Ghz GDDR5
RV740 137mm²@40nm + 1,6Ghz GDDR5

Sieht schlecht aus für nvidia. Mit den DDR3/GDDR3 Varianten kommt man geradeso an ATIs alten 55nm Chip ran, den rv730. Aber mit dem rv740 hat AMD schon lange einen schnelleren Chip, der sogar kleiner ist trotz der paar zusätzlichen Transistoren und eben nicht hinter den taktwerwartungen zurückbleibt. Der Speicher ist derselbe, denke also nicht dass eine 4770 teurer sein müsste als eine GT220 GDDR5. Preislich tun sie sich derzeit nix.

Wozu also GT215? Wieso nicht G92c 40nm, wenn man schon nicht imstande ist etwas neues besser hinzukriegen?

stav0815
2009-11-18, 12:02:27
Oh, das hat jetzt genau was mit nVidia und der GT240 zu tun? Wobei - dann ist ja nVidia garnicht so kundenfeindlich wie ich dachte. ;D
Err, das ist exakt das selbe. Aber das interessiert ja keinem - aber sobald nVidia etwas auf ihrer Homepage exakt angibt, macht man stresst. Am besten sollten sie nur GDDR5, GDDR3 und DDR3 angeben. Das ist fair. :)
Was wiederum genau was mit ner 5970 zu tun hat? Du kreidest anderen an, dass sie OffTopic posten und tust es selber. Yay! :freak:

Leonidas
2009-11-18, 12:06:01
Wozu also GT215?


Ich muß zugeben, als PhysX-Beschleuniger ist die gut. Weil der Idle-Verbrauch ja sehr niedrig ist und eine extra PhysX-Karte nicht im Idle-Betrieb massiv Strom ziehen sollte.

Zudem auch interessant als Kontrahent zur HD4670, wenn es generell um den Idle-Stromverbrauch geht (beide unter 10W).

davidzo
2009-11-18, 12:13:41
die einzigen brauchbaren kühllösungen die ich auf den partnerkarten bisher gesehen habe sind aber arctic accelero l2s.
Zwei slots verlieren nur für physics?
Ein g92b hat je nach ausführung zwischen 50 und 100% mehr reserven was die shaderpower angeht und ist nicht wirklich teurer. imo die bessere physxkarte.
den interessant aussehenden nvidiakühler verbaut leider noch keiner der partner. - zugegeben, einen skived fin kühlkörper für eine lowcostkarte einzusetzen klingt auch nach overkill. von allen (wenigen) singleslots wäre mir die aber die liebste. das ding von zotac sieht ja mal superineffizient aus und ist anscheinend auch sehr laut.

Dural
2009-11-18, 18:08:22
Für PhysX ist die schon zu lahm. Selbst eine 9600 GT stößt an ihre Grenzen dabei. 9800er oder aufwärts sollte es dafür schon sein.

zu lamm? keine ahnung was du für PhysX games zockst aber ich kenne kein einziges wo zb. eine 9600GT überfordert!

96SP reichen locker aus!!!

stell dir mal vor wem PhysX wirklich so viel Power benötigt, das würde jede Grafikkarte ja komplett in die knie zwingen wenn sie das neben der grafik noch berrechnen müsste!!!

schon ein GT216 mit 48SP würde sicher reichen, mit 96SP gibt es sicher PhysX für free

also ich finde das die GT240 mit 512MB GDDR5 die derzeit wohl besste PhysX karte ist, klein, wenig verbrauch, genug leistung, kein PCI-E stromstecker usw.

Klingone mit Klampfe
2009-11-24, 12:39:42
zu lamm? keine ahnung was du für PhysX games zockst aber ich kenne kein einziges wo zb. eine 9600GT überfordert!


Batman: Arkham Asylum

Bei meiner GTS250 (=9800GTX) bricht die Leistung um 60% ein. Mit PhysX auf "hoch" geht's dann nochmal 20% runter. Absolut unspielbar, wenn man wenigstens noch 2xAA in 1680x1050 haben will.

Gast
2009-11-24, 13:21:37
Batman: Arkham Asylum

Bei meiner GTS250 (=9800GTX) bricht die Leistung um 60% ein. Mit PhysX auf "hoch" geht's dann nochmal 20% runter. Absolut unspielbar, wenn man wenigstens noch 2xAA in 1680x1050 haben will.
Ich glaube es ging darum dass die Karte NUR als Physx-Zweitkarte Physx-Berechnungen machen soll.

N0Thing
2009-11-24, 15:37:19
Denke ich auch, Cryostasis mit vollen PhysX-Effekten und hohen Details, das kann ich mir auf einer 9600GT nicht vorstellen. :)

Gast
2009-11-24, 16:23:44
zu lamm?

Nein, zu Schaf.

Tigerchen
2009-11-24, 16:38:23
Oh, das hat jetzt genau was mit nVidia und der GT240 zu tun? Wobei - dann ist ja nVidia garnicht so kundenfeindlich wie ich dachte. ;D
Err, das ist exakt das selbe. Aber das interessiert ja keinem - aber sobald nVidia etwas auf ihrer Homepage exakt angibt, macht man stresst. Am besten sollten sie nur GDDR5, GDDR3 und DDR3 angeben. Das ist fair. :)
Was hat denn 5950/70 mit GT240 zu tun? Du bringst doch die komischen Vergleiche. Und das nur um davon abzulenken daß nV mit der GT240 kein attraktives Angebot abgeliefert hat.

Botcruscher
2009-11-24, 19:13:04
Die Lebensdauer dieser Dinger ist eh begrenzt und gegen Redwood/Cedar werden sie keinen Stich sehen.

Gast
2009-11-25, 23:12:44
Die Lebensdauer dieser Dinger ist eh begrenzt und gegen Redwood/Cedar werden sie keinen Stich sehen.
Jupp, Nvidia sollte am besten gleich aufhören.
Die Konkurrenz wird irgendwann die besseren Produkte haben, wozu also eigene Produkte bringen. Belastet nur den Markt.

:rolleyes:

Botcruscher
2009-11-25, 23:22:31
Man hätte auch einfach auf die G300 Ableger setzen können und die Chips einstellen. Aber inzwischen ist die 310 ja schon da.:freak:
Der einzig logische Grund für diese Karten ist W7 und damit DX10.1 für die OEMs. DIe Chipgröße ist nun alles andere als berauschend und die Dinger sind schlicht viel, viel zu spät.

Gast
2009-11-25, 23:25:51
Wann hat Nvidia das letzte mal zuerst kleine Karten vorm Kracher gestartet? Kann mich gerade nicht erinnern, aber ich kann mich erinnern das die kleinen gerne ein halbes Jahr verzug haben.

LovesuckZ
2009-11-25, 23:46:38
Man hätte auch einfach auf die G300 Ableger setzen können und die Chips einstellen. Aber inzwischen ist die 310 ja schon da.:freak:
Der einzig logische Grund für diese Karten ist W7 und damit DX10.1 für die OEMs. DIe Chipgröße ist nun alles andere als berauschend und die Dinger sind schlicht viel, viel zu spät.

Stimmt, man stampft einfach fertige Chips ein und guckt mal, ob 9 Monate später die ersten 40nm Produkte vom Band laufen. Oh und zuweit ich sehe, sind die GT21x Karten wesentlich kleiner als ihre 55nm Brüder bzw. deutlich schneller.
Mein Gott, muss solch ein Quatsch wirklich sein?

PulsarS
2009-11-25, 23:49:39
Stimmt, man stampft einfach fertige Chips ein und guckt mal, ob 9 Monate später die ersten 40nm Produkte vom Band laufen. Oh und zuweit ich sehe, sind die GT21x Karten wesentlich kleiner als ihre 55nm Brüder bzw. deutlich schneller.
Mein Gott, muss solch ein Quatsch wirklich sein?
Wenn du es nicht verstehen kannst, dann solltest du dir ein wenig Wissen aneignen, bovor du hier postest und dich zum Clown machst...:rolleyes:

Gast
2009-11-26, 00:02:37
Achso, Fermis kleine Ableger sind schon produktionsreif. :rolleyes:

Benedikt
2009-11-26, 09:19:06
Wenn du es nicht verstehen kannst, dann solltest du dir ein wenig Wissen aneignen, bovor du hier postest und dich zum Clown machst...:rolleyes:
Und er hat - im Gegensatz zu Dir - genau was nicht verstanden?

=Floi=
2009-11-27, 10:51:04
du kannst dir auch alles schön reden.
es gibt auch (k)einen Gott außer Jen Hsun Huang und seiner Gemeinde Nvidia.
- Apple zum Beispiel, wenn du mich fragst gibt Steve einen viel besseren jesus ab...


man sollte trotzdem beide ans kreuz nageln! :ugly:
zuerst steve und dann jen auf dem umgelabelten kreuz. ;D

Botcruscher
2009-11-27, 11:58:52
Stimmt, man stampft einfach fertige Chips ein und guckt mal, ob 9 Monate später die ersten 40nm Produkte vom Band laufen.
Die Dinger sind gut mehr als ein Jahr zu spät und NV ist sich dem nicht erst seit gestern bewusst.
Oh und zuweit ich sehe, sind die GT21x Karten wesentlich kleiner als ihre 55nm Brüder bzw. deutlich schneller.
Gegenüber einem G92 ist da nichts deutlich.

Mein Gott, muss solch ein Quatsch wirklich sein?
Ja.

LovesuckZ
2009-11-27, 16:18:10
Die Dinger sind gut mehr als ein Jahr zu spät und NV ist sich dem nicht erst seit gestern bewusst.

Nö, die Karten sind gut und gerne 6 Monate zu spät dran. Und das lag nicht an nVidia. Es waren immer 40nm Produkte. Tape-Outs für 40nm konnten frühsten November 2008 durchgeführt werden. Rechne einfach mal Größe * 1.9, dann weißt du, wo die Karten auf 55nm liegen würden.


Gegenüber einem G92 ist da nichts deutlich.

Natürlich nicht. Was sind schon 139mm^2 gegenüber 274mm2. :rolleyes:
Und bevor du mit den anderen kommst: G94b ist 199mm^2 groß und G96b ist 125mm^2. Kleineres gibt es nicht.


Ja.

Schade. :(

I am no bot
2009-11-27, 16:38:55
Ich muss sagen, dass ich die derzeitige Nvidia-Produktpolitik auch nichtmehr nachvollziehen kann. Mir scheint es wird allmählich zum "Sport", den unwissenden Kunden zu neppen bzw. mit unnötigen Produkten zu ködern...
So eine Karte mit teurem GDDR5 auszustatten halte ich grundsätzzlich für fragwürdig, denn die Leistung stimmt einfach nicht mehr.

Im Gegensatz zum absolut ungerechtfertigten Geschrei, als Nvidia den G92(b) noch voll ausreizte muss man hier einfach konstatieren, dass Nvidia derzeit kläglich versagt. Auch wenn ich den AMD-Jüngern nur ungern zustimme - hier und heute haben sie wirklich recht.

Ich habe mir im ersten Halbjahr '09 'ne flotte GTS 250 (1024 MB, OC ab Werk) zum (damaligen) Spottpreis von 129 € gekauft. Da stimmten Preis und Leistung wenigstens noch! Die kam zwar nicht an immer an die HD4870 heran und war natürlich etwas auf Abstand zur GTX 260 aber trotzdem noch ein bombastisches Teil, stärker noch als die legendären 8800 GTX und Ultra...
Und es war - dank G92b - eine vollwertige, unbeschnittene, qualitativ hochwertige Karte!

Schlammsau
2009-11-27, 16:43:15
Die kam zwar nicht an immer an die HD4870 heran und war natürlich etwas auf Abstand zur GTX 260 aber trotzdem noch ein bombastisches Teil, stärker noch als die legendären 8800 GTX und Ultra...
Und es war - dank G92b - eine vollwertige, unbeschnittene, qualitativ hochwertige Karte!

Um den ATi-Anhänger mal wieder rauszulassen, aber eine 4870 ist rund 20% schneller als eine GTS250.
Die GTS250 ist eigentlich doch nur eine (umgelabelte) 9800GTX+ und somit als Konkurrenz zur 4850 anzusehen.

Umgelabelt deshalb, weil sie Leistungs-, Techlevelmässig und auch durch die GPU eine 9800GTX+ ist.

LovesuckZ
2009-11-27, 16:52:35
Ich muss sagen, dass ich die derzeitige Nvidia-Produktpolitik auch nichtmehr nachvollziehen kann. Mir scheint es wird allmählich zum "Sport", den unwissenden Kunden zu neppen bzw. mit unnötigen Produkten zu ködern...
So eine Karte mit teurem GDDR5 auszustatten halte ich grundsätzzlich für fragwürdig, denn die Leistung stimmt einfach nicht mehr.


Huch? Die Karte ist ungefähr so schnell wie eine 9600GT. Die hat ein 256bit Speicherinterface. Es gleicht sich also alles aus.

Raff
2009-11-27, 16:59:39
Um den ATi-Anhänger mal wieder rauszulassen, aber eine 4870 ist rund 20% schneller als eine GTS250.
Die GTS250 ist eigentlich doch nur eine (umgelabelte) 9800GTX+ und somit als Konkurrenz zur 4850 anzusehen.

Umgelabelt deshalb, weil sie Leistungs-, Techlevelmässig und auch durch die GPU eine 9800GTX+ ist.

Das müsste man genauer definieren. Eine GTS 250/1G (OC) ist bestimmt nicht viel langsamer als eine HD 4870/512 – bei einer HD 4870/1G sieht das schon gewaltig anders aus.

MfG,
Raff

LovesuckZ
2009-11-27, 17:04:20
Das müsste man genauer definieren. Eine GTS 250/1G (OC) ist bestimmt nicht viel langsamer als eine HD 4870/512 – bei einer HD 4870/1G sieht das schon gewaltig anders aus.

MfG,
Raff

Wenn man schon beim Definieren ist: Die GTS250 hat das bessere AF, unterstützt SSAA in mehr Spielen als die 4870, hat DC Treiber, ist besser geeignet für OpenCL, es gibt die Möglichkeit PhysX wie 3D Vision nutzen zu können. Schneller ist nicht immer besser.

derguru
2009-11-27, 17:09:06
beide uninteressant,dann lieber eine 5750 oder 5770.

Raff
2009-11-27, 17:09:24
Wenn man schon beim Definieren ist: Die GTS250 hat das bessere AF, unterstützt SSAA in mehr Spielen als die 4870, hat DC Treiber, ist besser geeignet für OpenCL, es gibt die Möglichkeit PhysX wie 3D Vision nutzen zu können. Schneller ist nicht immer besser.

Genau – meine Rede. Fps sind nicht alles. Und da bietet eine HD 5700 in der Tat auch ein verlockendes PLV.

MfG,
Raff

Schlammsau
2009-11-27, 17:20:45
Wenn man schon beim Definieren ist: Die GTS250 hat .....

....nur DX10, kein STREAM, eine 8xAA schwäche, ihr geht schneller der VRAM aus und zu guter letzt den höheren Preis. :rolleyes:

Schlammsau
2009-11-27, 17:24:35
Genau – meine Rede. Fps sind nicht alles. Und da bietet eine HD 5700 in der Tat auch ein verlockendes PLV.

MfG,
Raff

Doch ist es. Was bringen mir die ganzen SSAA Modis, wenn sie nicht spielbar sind, weil zu wenig Leistung oder VRAM vorhanden.

Raff
2009-11-27, 17:35:46
Gegenfrage: Was bringen mir die ganzen Fps, wenn sie scheiße aussehen? Bei einer HD 4000 kann man nix am Spar-AF machen.

Der ewige Kampf ... ;)

MfG,
Raff

Mr. Lolman
2009-11-27, 17:45:49
Gegenfrage: Was bringen mir die ganzen Fps, wenn sie scheiße aussehen? Bei einer HD 4000 kann man nix am Spar-AF machen.

Der ewige Kampf ... ;)

MfG,
Raff

Was bringt einem supertolles AF, wenn die Performance ohnehin zu gering ist? => so dreht man sich ewig im Kreis. Fakt ist => Ati bietet die beste Performance fürs Geld. Legt man Wert auf andere Dinge ist man ggf. mit einer NV-Karte besser bedient.

Raff
2009-11-27, 17:47:08
Die beste Performance, wenn man nur spielt – damit kann ich leben.

MfG,
Raff

LovesuckZ
2009-11-27, 17:49:13
Was bringt einem supertolles AF, wenn die Performance ohnehin zu gering ist? => so dreht man sich ewig im Kreis. Fakt ist => Ati bietet die beste Performance fürs Geld. Legt man Wert auf andere Dinge ist man ggf. mit einer NV-Karte besser bedient.

Das "supertolle AF" gibt es kostenlos und garnicht bei AMD. Alleine deswegen kann AMD nicht bei dem Vergleich 4870 <> GTS250 die beste Performance für's Geld liefern.

Mr. Lolman
2009-11-27, 18:34:33
Das "supertolle AF" gibt es kostenlos und garnicht bei AMD. Alleine deswegen kann AMD nicht bei dem Vergleich 4870 <> GTS250 die beste Performance für's Geld liefern.

Doch. Weil die in den Reviews verwendeten Settings relativ vergleichbar sind.


edit: Außerdem ists bei der schwachen ALU-Leistung kein Wunder, dass AF nicht viel kostet ;)
Die beste Performance, wenn man nur spielt – damit kann ich leben.

MfG,
Raff

So wars auch gemeint.

LovesuckZ
2009-11-27, 18:39:50
Doch. Weil die in den Reviews verwendeten Settings relativ vergleichbar sind.


Die verwendeten Settings spiegeln nicht die Wirklichkeit wider. AMD bietet keine vergleichbare HQ Filterung. Erst A.I Off kommt bei den rv770 Karten an das Niveau von Q heran. Sie bieten nicht das beste Preis/Leistungsverhältnis. Denn dafür müssten sie erstmal die Leistung der nVidia-Karten erreichen. Leistung ist nämlich nicht nur die reine FPS Zahl bei Einstellungen, die nur einer Karte schmeckt. Da AMD keinen HQ Modus bietet, ist ihre Leistung in diesem Vergleich 0. Viel Spaß Preis/0 zu dividieren.


[I]edit: Außerdem ists bei der schwachen ALU-Leistung kein Wunder, dass AF

Dann sollten wie bei AMD mal nachfragen, wieso sie keinen vergleichbaren HQ-AF Modus anbieten.

Gast
2009-11-27, 22:36:50
Die verwendeten Settings spiegeln nicht die Wirklichkeit wider. AMD bietet keine vergleichbare HQ Filterung. Erst A.I Off kommt bei den rv770 Karten an das Niveau von Q heran. Sie bieten nicht das beste Preis/Leistungsverhältnis. Denn dafür müssten sie erstmal die Leistung der nVidia-Karten erreichen.

Wayne? Ich wette, 90% der Käufer interessieren sie nichtmal dafür. Mir ists auch egal, denn vergleichen unter mehreren Herstellern ist sowieso nicht möglich, da einfach zu viel anders ist. Egal ob Rechenleistung, Stromverbrauch, Treiber, alles unterscheidet sich. Wie will man überhaupt vergleichen?
Wenn AMD für einen Preis was bietet was andere nicht haben, ist das nen Pluspunkt und auch umgekehrt.

Übrigens liefert jede Karte mehr als 0 fps, daher stimmt die Rechnung schonmal nicht. Sogar Intel liefert etwas, womit eine ganze Menge Benutzer glücklich sind. Wie jemand die Bildqualität beurteilt ist ihm überlassen. Ich kenn sogar eine ganze Menge Leute die schrauben einige Settings sogar noch runter... Wenn sie HQ und Performance haben wollten, würden sie eh teurere Karte nehmen.

Gast
2009-11-27, 22:57:53
Na dann, dann brauchen auch andere Einstellungen nicht 100%ig gleich sein.
MSAA vs CSAA sowieso, high vs very high details, verschiedene Auflösungen.
Wird sich schon was finden lassen.

Mir ist nur eins unklar. Warum nach Preis/Leistung kaufen, wenn Leistung gar nicht so wichtig ist? Spart man sich die Kohle und kauft nur nach Preis.
Auch Intels GMA liefert irgendwas. Und wenn nicht, dann zumindest die anderen IGPs.

mapel110
2009-11-30, 08:04:12
http://www.pcper.com/article.php?aid=822
Palit und Galaxy

Benedikt
2009-11-30, 09:18:24
Könnt ihr eigentlich eine konkrete GT 240 mit Accelero L2 (ab Werk) empfehlen? Zu welchem Hersteller greift man da am besten?

Dural
2009-12-15, 19:35:42
Gainward GT240 512MB GDDR3:

Idle: 0,90Volt
3D: 1,00Volt

Speicher: 1,85Volt

Furmark läuft gerade mit 650MHz ROP / 1600MHz Shader / 1100MHz Speicher (einfach als erstes so Eingestellt...)

takt problem gibt es bei 40nm GT21x definitiv NICHT!

http://img706.imageshack.us/img706/8521/dsc054614564568.jpg

Schlammsau
2009-12-15, 19:48:16
Gainward GT240 512MB GDDR3:

Idle: 0,90Volt
3D: 1,00Volt

Speicher: 1,85Volt

Furmark läuft gerade mit 650MHz ROP / 1600MHz Shader / 1100MHz Speicher (einfach als erstes so Eingestellt...)

takt problem gibt es bei 40nm GT21x definitiv NICHT!

http://img706.imageshack.us/img706/8521/dsc054614564568.jpg
Der FUR wird bei nVidia auch seit neuestem Ausgebremst.
Schau mal ob Crysis zB mit den Taktraten rund läuft.

Dural
2009-12-16, 01:48:45
karte läuft in crysis mit 650/1600/1150MHz (512MB GDDR3 / 461 GFLOPS) und ergibt ganz grob ca. 20FPS mit gamer einstellung und einer 1680x1050 auflösung. ich glaube die meiste leistung geht einfach mit den 128Bit GDDR3 drauf, hab ich aber nicht getestet... eine verschlechterung im takt zwischen 55nm und 40nm gibt es somit nicht, ein G94b würde wohl auch kaum mehr takt mit 1,00Volt machen, wenn nicht sogar weniger... einen wirklichen vorteil für 40nm gibt es aber nicht...

standard takt der GT240 ist übrigens 550/1360/1000MHz (512MB GDDR3 / 392 GFLOPS)

zum vergleich die 4770 mit 850/2000MHz (512MB GDDR5 / 1088 GFLOPS) hat ca. 30FPS im selben system und ist somit gut ca. 50% schneller.

das beachtens werte ist das der GT215 hingegen dem RV740 kaum warm wird, obwohl beide fasst die selbe DIE grösse haben, ok der RV740 hat glaub ca. 90mio. mehr trans. beide karten liefen mit dem selben zalman kühler!

eine GT240 512MB GDDR5 ist noch unterwegs, mal schauen wie viel leistung der GDDR5 speicher rausholt!

komsich finde ich das computerbase auf ihrer karte einen GT215-450-A2 drauf haben und auf meiner nur einen GT215-301-A2 ?!?!?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/2/

hat das was mit dem verbauten speicher zutun?!?

Sorkalm
2009-12-16, 13:08:17
hat das was mit dem verbauten speicher zutun?!?

Wahrscheinlich, sind wohl die verschiedenen ASICs. :)

Dural
2009-12-19, 12:16:28
ja ist so, obwohl der unterschid von 301 auf 450 sehr gross ist und 450 immer für die TOP modelle der GPU serie steht und das kann man bei der GT240 nicht gerade unbedingt sagen...

http://img683.imageshack.us/img683/5030/dsc05473e.jpg

Crysis hat die GDDR5 version ca. 25FPS mit 650/1600/2000MHz, das ist ziemlich exakt so schnell wie eine 9600GT @ 800/2000/1000MHz

davidzo
2009-12-19, 16:28:23
650 mhz ist ja gerademal 18% mehr Takt, da würde ich noch nicht von viel taktspielraum sprechen, zumal wohl auch chips im umlauf sind, die so einen takt nicht schaffen.
G94 hatte diesen Takt out of the box und bot darauf nocheinmal einen entsprechendne Übertaktungsspielraum.

Eine 9800GTX+ hatte auch schon 738/1826 mhz und das war der defaulttakt den man noch einiges höher treiben konnte.

Finde den Takt immer noch enttäuschend. 550mhz default, 650mhz oc 18% übertaktung - klingt nach einem ganz normalen verhältnis für mich.

Dural
2009-12-19, 18:13:01
Die 9600GT hat aber auch 1,10Volt auf der GPU, die 800/2000MHz laufen mit 1,20Volt ;)

9800GTX hat sogar schon stock 1,2Volt, GTX285 hat 1,18Volt

8800GTX übrigens 1,30Volt und die 8800Ultra/8600GT 1,35Volt

und hab ja gesagt das es keine verbesserung gegenüber 65nm ist, es ist aber auch nicht schlechter... würde man dem GT215 Chip auch die 1,10Volt geben würde der locker die taktrate der 9600GT mit machen! klar ob das die 40nm GPUs auf dauer aushalten ist eine andere frage... obwohl die 5770 und 5870 haben beide über 1,1Volt...

Halt's Maulwurf
2010-01-31, 16:56:21
Die GeForce GT 240 Karten von Nvidia sind inzwischen auf dem Markt - leider auch in den vielfältigsten Varianten.

An und für sich ist das ja eine relativ gute Karte in 40nm und mit DX 10.1,
A B E R sämtlich GT 240-Karten teilen offensichtlich leider ein und dasselbe Problem;

Das schwachbrüstige 128-Bit SI! Das ist eine totale Katastrophe in Anbetracht der recht potenten 96 Stream-Prozessoren.
Das billige SI wurde hier - meiner Ansicht nach - nur in der Not genommen, um die Produktionskosten für die Hersteller ordentlich zu senken.

Daher eine Grundempfehlung an alle Interessenten der GT 240er-Karten:
Wer sich eine solche zulegen will, der sollte um Himmels Willen nur die Karten mit GDDR5-VRAM nehmen!
Alles andere ist pure Verschwendung von Leistungs- und Geldressourcen!

Falls man zu einer mit 1024 MB greifen sollte, so empfielt es sich zusätzlich, den GDDR5-Takt auf ~ 3,7-3,8 GHz hochzureißen um das schwache Interface teilweise zu kompensieren. Eine ergänzende Erhöhung des Shadertaktes auf ~ 1400-1500 Mhz sowie ein GPU-Takt auf ~ 600-750 MHz dürfte zudem ihr übriges tun, um die Kate relativ nahe an die GTS 250 heranzubringen.

-> Unter Abwägung des P/L-Verhältnisses und des Risiko/Nutzen-Aufwandes beim Übertakten ist unter Umständen dennoch eine weiterhin deutlich potentere GTS 250 vorzuziehen! <-

Hat hier schon jemand Erfahrungen mit dieser Karte gemacht?
Warum hat Nvidia diese Karte überhaupt noch auf den Markt geworfen?

Spasstiger
2010-01-31, 17:33:21
Selbst mit GDDR5 fällt die GT 240 unter Verwendung von AA hinter eine 9600 GT zurück. Liegt wahrscheinlich an den nur 550 MHz Chiptakt in Verbindung mit nur 8 statt 16 ROPs.
Ich ziehe die Radeon HD 5670 ganz klar vor, aber als 9600-GT-Ablösung ist die GT 240 schon ok. Sparsamer und ohne AA schneller.

AnarchX
2010-02-08, 15:43:53
GT 240 "Ultra" von Inno3D?
http://www.expreview.com/9577.html
... 6-Pin Stromversorgung, 6 statt 4 PCB-Layer und 0.4ns GDDR5.

Dural
2010-02-08, 17:07:29
wurde auch zeit, die GT215 GPU hat nämlich richtig viel potentzial läuft aber mit ihrem low takt von 550MHz auf der GT240 nur hinter her!

selbst eine 700/1700MHz Version halt ich für möglich!

werde bald mal ein GT215 unter kälte und vmod testen, da ich aber keine GT240 Karte mit vernünftiger stromversorgung habe könnte das etwas schwirig werden... aber 800MHz+ und 2000MHz+ sind sicher trotzdem drin, was schon 50% mehr Takt wäre!!!

Mit so einer GT215 GPU würde man vielleicht schon auf die Leistung einer 5750 kommen, da die GT215 GPU mit 0.4ns GDDR5 Speicher der wohl 1400-1500MHz* mit macht (das wären schon 96GB/s) sicher hervorragend mit mehr GPU Takt nach oben hin Skalieren wird.

*Meine GT240 mit 0.5ns GDDR5 macht schon 1250MHz Speicher Takt, die 5770 mit 0.4ns machen in der regel so 1400-1500MHz

AnarchX
2010-04-22, 08:09:30
Test einer Low-Profile GT 240 mit PCIe x1:
http://translate.google.de/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F174%2F1746466.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

http://2d.zol-img.com.cn/product/44_500x2000/417/ce5LXKW9Hzg5c.png

Gast
2010-04-22, 11:07:33
Dabei sollte bedacht werden, dass Nvidia den PhysX-Support für diese Karten in 2 jahren auslaufen lässt.

AnarchX
2010-04-22, 11:49:30
Dabei sollte bedacht werden, dass Nvidia den PhysX-Support für diese Karten in 2 jahren auslaufen lässt.
Wer will in 2 Jahren denn noch eine GT 240 für PhysX einsetzen? ;)

Gast
2010-04-22, 12:08:29
Eine 9600GT wollen heute auch viele für PhysX nutzen.