PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200 (65/55nm), GTX 285, GTX 275 - Teil 3


AnarchX
2009-01-06, 09:49:47
<Teil 2< (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7020387#post7020387)

nVidia - GeForce GTX 295: (P)Review-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441300)

Erste GTX260 in 55nm im Anmarsch! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441670)


G200B:
- (optischer) Shrink von GT200 auf 55nm, der in einen ~470mm² Die resultieren soll -> Kostenersparnis durch geringe Produktionskosten und geringere TDP
- H2 2008: 22. Oktober?
(http://www.nvnews.net/vbulletin/showthread.php?p=1780841#post1780841)
You want to see something amazing? =)
That's supposedly GT200 die...

http://i33.tinypic.com/o794c8.jpg

http://i33.tinypic.com/o5nsbt.jpg

...But it doesn't look like GT200 die and it's size is much smaller (G80 die is different too although the size is more or less comparable).
Any ideas what this is?

So the result is that this is GT200b? =)

Here's another picture, with broken G80 side by side:

http://i36.tinypic.com/2rqy8uv.jpg

http://forum.beyond3d.com/showthread.php?t=47604&page=3


http://img78.imageshack.us/img78/2654/55nmgt200lc9.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/02/the-worlds-first-image-of-55nm-gt200-exposed.html

GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance (tentative)
GeForce G = Entry (IGP products and sharing)

GTX= 260 through 290
GT= 230 through 250
GS= 210 through 220
G= 201 through 209
http://hkepc.com/?id=1321&fs=c1hh

GTX 260 mit 216SPs @ 65nm:
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

In einem Gespräch mit Nvidia hat uns Jens Neuschäfer, PR-Manager für Zentraleuropa, nun verraten, dass diese Gerüchte den Tatsachen entsprechen. So wird die GeForce GTX 260 ab sofort aufgerüstet und die langsameren Modelle sollen mit der Zeit abverkauft werden. Eine von uns vorgeschlagene Namensänderung auf „GeForce GTX 270“ soll es allerdings nicht geben, da dazu die Modifizierungen zu gering sein sollen. Ab der zweiten Septemberhälfte soll die neue GeForce GTX 260 im Handel erhältlich sein.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

HKEPC-Test der GTX 260 GOLD mit 216SPs (http://hkepc.com/?id=1684&fs=c1hh)

GTX 260 mit 216SPs @ 55nm und neuem PCB:
http://img370.imageshack.us/img370/6241/260card5940044im8.jpg (http://imageshack.us)
http://en.expreview.com/2008/12/05/first-look-of-55nm-geforce-gtx260.html
- 10 PCB-Layer anstatt 14
- einseitige Bestückung mit Speicherchips
- 55nm G200
- Design-Kit für Hersteller
-> günstigere Preise für die Zukunft möglich


GTX 290? GTX 285
NVIDIA_GT200.DEV_05E0.1 = "NVIDIA GT200-400"
- Leistung: GTX 280 + 10%
- TDP: 186W (http://en.expreview.com/2008/12/11/1602.html)
- Taktraten: 648/1476/1242MHZ (http://en.expreview.com/2008/12/16/reliable-information-shows-improved-frequency-of-nvidia-gtx285.html)
- Launch: CES 8.1.09

http://img381.imageshack.us/img381/1745/gtx285173705997378262tm4.jpg (http://imageshack.us)
http://img387.imageshack.us/img387/3120/gtx285273914717395994yv4.jpg (http://imageshack.us)

Neues, einseitig mit Speicher bestücktes PCB:
http://img114.imageshack.us/img114/9073/285042408324od6.jpg (http://imageshack.us)
http://www.expreview.com/news/hard/2009-01-03/1230967847d11034.html


GTX 295 (G200-GX2)
Nvidia scheint sich zur 4870X2 geäußert zu haben und macht dabei eine Andeutung:
So meint man, dass der Vergleich GTX 280 mit X2 nicht fair wäre, da letzere auf 2 GPUs setzt und wenn dies Nvidia ebenfalls machen würde, dann wäre die Leistung höher als bei der X2.
Wenn der Markt es verlangt dann wird Nvidia auch eine Dual-GPU-SKU vorstellen, zumal Nvidia die bessere Bildqualität und das bessere MGPU-Konzept bietet.

Quelle (http://news.ccw.com.cn/chipProduce/htm2008/20080813_482654.shtml)

So you just have to take it case by case and -- but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at 399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing.
http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1

NVIDIA Dual-GPU GTX260 GX2 shows up Jan 09 (http://en.expreview.com/2008/11/19/nvidia-dual-gpu-gtx260-gx2-shows-up-jan-09.html)

As informer tells, NVIDIA has decided to release GeForce GTX260 GX2 to hit back in January next year. Anyway, we know the emergence of such a product is really the way to go.

http://img214.imageshack.us/img214/2326/geforcegtx29512166266hv4.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-card-exposed/6264.html?doc=6264
- Launch: CES 8.1.09
- 2x240SPs, 2x448-Bit, 2x896MiB (http://en.expreview.com/2008/12/09/geforce-gtx295-with-480sp-surely-to-come-in-ces-09.html)
Weitere Bilder der GTX 295:
http://vr-zone.com/articles/more-geforce-gtx-295-card-shots/6274.html?doc=6274

http://img72.imageshack.us/img72/802/gtx29519499493lc3.jpg (http://imageshack.us)

http://img72.imageshack.us/img72/3163/gtx285295specs9264878pn8.gif (http://imageshack.us)

http://img72.imageshack.us/img72/2205/gtx29549318937or6.jpg (http://imageshack.us)
http://vr-zone.com/articles/geforce-gtx-295-vs-hd-4870-x2-benchmarks/6297.html?doc=6297
Mehr Bilder, PhysX-Benchmark:
http://publish.it168.com/2008/1215/20081215046302.shtml
http://img72.imageshack.us/img72/7428/1277874qo8.jpg

AnarchX
2009-01-06, 09:52:23
In diesem Thread kann noch über kommende 55nm GeForce 200, wie die GTX 285 diskutiert werden, die vorrausichtlich in 1-2 Wochen vorgestellt wird.
Also wird dieser Thread bald geschlossen werden.

Für GeForce 200 und GT300 stehen folgende Threads zur Verfügung:
nVidia - GT300 - Q4 2009, DX11, CUDA 3.0 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170)

nVidia - GeForce 200 @ 40nm - GT21x (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443169)

Schlammsau
2009-01-06, 10:34:06
Wurde vielleicht schon öfter angesprochen, aber warum schmeisst nVidia wieder eine Karte auf den Markt, die nur rund 10% schneller als ihr Vorgänger ist. Lohnt sich da der Entwicklungsaufwand? Ich meine das ist doch schon die dritte Karte (9800+, GTX260², und jetzt die GTX285) in den letzten paar Monaten, die nur um ein paar % schneller gemacht wurde.
Das sind doch unnötige Entwicklunskosten.
ABM bei nVidia?

AnarchX
2009-01-06, 10:38:42
Gerade weil es nur 10% mehr Leistung, bei kleinerem Die und einem einfacheren PCB sind, hat NV hier doch nahezu keine Entwicklungskosten und kann die Margen steigern und eine gewisse Preissenkung an die Kunden weitergeben.

Einen >700MHz G200B entsprechend selektieren oder eine schnellere GPU@55nm entwickeln wäre deutlich teurer gewesen und auch eher unnötig, da die GTX 285 konkurrenzlos ist mit ihren Eigenschaften.
Die 4870X2 ist so oder so unerreichbar für eine Single-GPU, deshalb auch die GTX 295.

Bleibt nur die Frage, was AMD nach dem Chinesischen Neujahr vorstellen will, wobei es hier wohl eher gegen die GTX260-216 gehen wird und vielleicht die GTX 295.

reunion
2009-01-06, 10:41:48
nVidia hat bestimmt im Januar 2006 angefangen den G80 zu designen und umzusetzen.

Das nicht, aber die Einheitenanzahl ist so ziemlich das letzte was festgelegt wird. Außerdem ist die Ansicht nicht auf meinem Mist gewachsen, sondern stammt aus einer Wette eines ATi-Mannes:

Inside ATI, Carrell made a bet. He bet that NVIDIA would underestimate R580, that it would look at what ATI did with R480 and expect that R580 would be similar in vain. He bet that NVIDIA would be surprised by R580 and the chip to follow G70 would be huge, NVIDIA wouldn’t want to lose again, G80 would be a monster.


Wie sieht deine Meinung eigentlich zum r600 aus? Hat AMD da auch alles auf eine Kappe gesetzt?

Sieht so aus:

ATI was planning the R600 at the time and knew it was going to be big; it started at 18mm x 18mm, then 19, then 20. Engineers kept asking Carrell, “do you think their chip is going to be bigger than this?”. “Definitely! They aren’t going to lose, after the 580 they aren’t going to lose”. Whether or not G80’s size and power was a direct result of ATI getting too good with R580 is up for debate, I’m sure NVIDIA will argue that it was by design and had nothing to do with ATI, and obviously we know where ATI stands, but the fact of the matter is that Carrell’s prediction was correct - the next generation after G70 was going to be a huge chip.

http://www.anandtech.com/video/showdoc.aspx?i=3469&p=5

Nur hat AMD mit R600 eben eindeutig die falschen Prioritäten gesetzt. Mit der Größe des R600 in 80nm wäre fast ein RV770 möglich gewesen.


Deutlich Entspannung? Es gab erst drei Chips, die größer als 350mm^2 sind.

Richtig, und ich denke nicht das die Entwicklung so weiter gehen wird.


Aber es ist bestimmt logischer zwei halbsogroße Chips für die selbe Leistung zu verwenden, wenn ein großer auch funktionieren würde...

Es ist vorallem billiger, weniger zeitintensiv und mit weniger Risiko verbunden. Dafür ist es natürlich nicht nur durch CF bei weitem nicht so effizient wie ein großer Chip.

Schlammsau
2009-01-06, 10:43:18
Gerade weil es nur 10% mehr Leistung, bei kleinerem Die und einem einfacheren PCB sind, hat NV hier doch nahezu keine Entwicklungskosten und kann die Margen steigern und eine gewisse Preissenkung an die Kunden weitergeben.

Einen >700MHz G200B entsprechend selektieren oder eine schnellere GPU@55nm entwickeln wäre deutlich teurer gewesen und auch eher unnötig, da die GTX 285 konkurrenzlos ist mit ihren Eigenschaften.
Die 4870X2 ist so oder so unerreichbar für eine Single-GPU, deshalb auch die GTX 295.

Bleibt nur die Frage, was AMD nach dem Chinesischen Neujahr vorstellen will, wobei es hier wohl eher gegen die GTX260-216 gehen wird und vielleicht die GTX 295.

Aber das andere PCB, der kleinere Die müssen doch auch entworfen werden.
Noch dazu die Umstellung der Fertigung, was ja kein Problem von nVidia ist, aber trotzdem erstmal mehr kostet, weil noch nicht so ausgreift.
Ich weiss nicht so recht.

deekey777
2009-01-06, 12:28:01
http://my.ocworkbench.com/bbs/showthread.php?p=442257#post442257
We have got the official news that the NVIDIA GTX285 launch date is JAN/15 GTX 295 launch date is JAN/8, the same day of the CES 2009 trade show.

KonKorT
2009-01-06, 13:01:37
Das ist schon seit Wochen bekannt. Lies mal hier (http://www.hardware-infos.com/news.php?news=2596) (18.12.2008)

"Interessant ist, dass am 8. Januar 2009 im Rahmen der Consumer Electronics Show (CES) auch die GTX 285 offiziell vorgestellt werden soll, deren Testberichte dann allerdings erst am 15. Januar 2009 online gestellt werden dürfen."

LovesuckZ
2009-01-06, 14:23:43
Das nicht, aber die Einheitenanzahl ist so ziemlich das letzte was festgelegt wird. Außerdem ist die Ansicht nicht auf meinem Mist gewachsen, sondern stammt aus einer Wette eines ATi-Mannes:


Es sollte wohl klar sein, dass solche Aussagen zwei Jahre nach dem Erscheinen des G80 kaum ernst zunehmen sind. Niemand außerhalb von nVidia wusste 100%, was man vom G80 zu erwarten hätte.


Richtig, und ich denke nicht das die Entwicklung so weiter gehen wird.

Bis jetzt hat es nur AMD nicht geschafft einen größeren Chip mit mehr als 350mm^2 vernünftig zu designen. Diese Entwicklung sind also nur Ausnahmen.


Es ist vorallem billiger, weniger zeitintensiv und mit weniger Risiko verbunden.

Welches Risiko? Nur AMD konnte nicht zufriedenstellend liefern. Der GT200 hat keine Probleme mit der Größe, er bringt nur nicht die benötigte Leistung. Aber das liegt nicht an der Fläche des Chips sondern an der Intention an den Chip. Ein doppelter G94 hätte für mindesten 95% GT200 Leistung gereicht und wäre nichtmal annährend so groß gewesen.
Und das kleinere Chips weniger Zeitintensiv sind, sollte erstmal argumentativ dargelegt werden.

reunion
2009-01-06, 14:38:31
Es sollte wohl klar sein, dass solche Aussagen zwei Jahre nach dem Erscheinen des G80 kaum ernst zunehmen sind. Niemand außerhalb von nVidia wusste 100%, was man vom G80 zu erwarten hätte.

Ich sehe keinen Grund warum der Mann lügen sollte. Diese Wette zieht er sich wohl kaum aus der Nase.

Bis jetzt hat es nur AMD nicht geschafft einen größeren Chip mit mehr als 350mm^2 vernünftig zu designen. Diese Entwicklung sind also nur Ausnahmen.


Es ist schlicht nicht tragbar solche Logikmonster designen und fertigen zu müssen, und das hat denke ich auch nV eingesehen. Selbst ganz andere Kaliber wie Intel oder IBM fertigen solche Monster-Dice nur mit haufenweise Cache und verkaufen das Ganze dann zu Mondpreisen. Irgendwann ist es eben der Punkt erreicht an dem jemand die Stop-Taste drücke musste, und das war in diesem Fall AMD.


Welches Risiko? Nur AMD konnte nicht zufriedenstellend liefern. Der GT200 hat keine Probleme mit der Größe, er bringt nur nicht die benötigte Leistung. Aber das liegt nicht an der Fläche des Chips sondern an der Intention an den Chip. Ein doppelter G94 hätte für mindesten 95% GT200 Leistung gereicht und wäre nichtmal annährend so groß gewesen.
Und das kleinere Chips weniger Zeitintensiv sind, sollte erstmal argumentativ dargelegt werden.

Nv kündigte Anfang 2007 für das Q4/2007 einen Chip mit einem TFLOP und DP-ALUs an. Diese Beschreibung passt nicht nur perfekt auf GT200, es gibt auch weit und breit keinen anderen Chip auf welchen diese Beschreibung zutrifft. Für einen simplen Shrink auf 55nm benötigte NV weitere drei Respins, was wieder zu jeder menge Verzögerungen führte, sodass der Chip erst 2009 kommt. Es ist wohl mehr als offensichtlich das ein derart großen Chip NV mächtig über den Kopf gewachsen ist.

Du fragst welche Risiken? Fertigungsrisiken wie in dem Beispiel oben, aber natürlich auch Designrisiken, da Bugs bei solch hochkomplexen Chips immer schwieriger zu durchschauen sind. Das kleinere Chips weniger zeitintensiv sind muss ich doch wohl nicht wirklich argumentativ darlegen, da es ja mehr als offensichtlich ist wo wieviele Ressourcen gebunden werden. Und die Margen sind natürlich auch im Arsch.

LovesuckZ
2009-01-06, 15:33:27
Ich sehe keinen Grund warum der Mann lügen sollte. Diese Wette zieht er sich wohl kaum aus der Nase.

Da diese Geschichte eine PR Aktion von AMD ist, sollte klar sein. Und deswegen ist das, was dort steht, kaum als richtige Wirklichkeit hinnehmbar.
Im nachhinein kann man alles erzählen. Und was "huge" bedeutet, erwähnt er nicht. Der G70 war mit 330mm^2 huge im Vergleich zum G71. Der G80 ist es im Vergleich zum G70 nicht.


Irgendwann ist es eben der Punkt erreicht an dem jemand die Stop-Taste drücke musste, und das war in diesem Fall AMD.

Es war wohl eher nVidia selbst, die mit G92 einen Chip haben, der zu 75% an die Leistung des GT200 erreicht.
Das überhypen von AMD's rv770 ist schon ziemlich krass. Dass er nur in einer Form besser als der G92/G80 ist, wird hier annscheinend komplett vergessen. Auch dass man zwei Versuche benötigte, um mit dem G80 - diesen großen ineffizienten Chip - gleichzuziehen, wird in dieser Diskussion komplett ignoriert.


Nv kündigte Anfang 2007 für das Q4/2007 einen Chip mit einem TFLOP und DP-ALUs an. Diese Beschreibung passt nicht nur perfekt auf GT200, es gibt auch weit und breit keinen anderen Chip auf welchen diese Beschreibung zutrifft. Für einen simplen Shrink auf 55nm benötigte NV weitere drei Respins, was wieder zu jeder menge Verzögerungen führte, sodass der Chip erst 2009 kommt. Es ist wohl mehr als offensichtlich das ein derart großen Chip NV mächtig über den Kopf gewachsen ist.

Die Ankündigung stand in der Cuda-Faq und das muss kaum etwas bedeuten. Genauso das, was sie auf den CC sagen.


Du fragst welche Risiken? Fertigungsrisiken wie in dem Beispiel oben, aber natürlich auch Designrisiken, da Bugs bei solch hochkomplexen Chips immer schwieriger zu durchschauen sind. Das kleinere Chips weniger zeitintensiv sind muss ich doch wohl nicht wirklich argumentativ darlegen, da es ja mehr als offensichtlich ist wo wieviele Ressourcen gebunden werden. Und die Margen sind natürlich auch im Arsch.

Alles Risiken, die genauso auch auf kleinen Chips zutreffen. Der r520 kam auch verspätet auf dem Markt und war nur 280mm^2 groß. Der nv30 kam ebenfalls verspätet. Es ist komplett egal wie groß ein Chip ist, Fertigungsrisiken gibt es immer.
Und die Margen sind im Arsch, weil AMD die Preise radikal gesenkt hat und nVidia die Leistung nicht liefert.

=Floi=
2009-01-06, 15:33:59
zitat
Es ist schlicht nicht tragbar solche Logikmonster designen und fertigen zu müssen, und das hat denke ich auch nV eingesehen.

kannst du das beurteilen? und was ist "groß"? Nur weil es Ati nicht will/kann muß es nicht schlecht sein. Am GT200 sieht man ja, dass es nicht unmöglich ist.

edit
wer neue grenzen erschließen will, der muß auch mit rückschlägen und problemen rechen.

KonKorT
2009-01-07, 17:26:01
Hier der erste, deutsche Test einer GTX 260 216 im 55-nm-Verfahren. Es ergeben sich durch den neuen Prozess so gut wie keine Vorteile. Bei ebenfalls 1,06 V lediglich 6-8 W bessere Ergebnisse unter Idle und Last.

Die Performance hat sich erwartungsgemäß auch kein Deut verändert:

EVGA GTX 260 216 (55 nm) (http://www.hardware-infos.com/tests.php?test=54)

Gast
2009-01-07, 17:42:14
Hier der erste, deutsche Test einer GTX 260 216 im 55-nm-Verfahren. Es ergeben sich durch den neuen Prozess so gut wie keine Vorteile.

Das liegt nicht an dem Prozess, sondern dem neuen PCB.

KonKorT
2009-01-07, 19:12:13
Gebe ich Dir ohne weiteres recht. Vielleicht ein wenig unglücklich formuliert. Jedenfalls war der 55-nm-Hype für die Katz'. :(

Gast
2009-01-07, 19:19:50
Gebe ich Dir ohne weiteres recht. Vielleicht ein wenig unglücklich formuliert. Jedenfalls war der 55-nm-Hype für die Katz'. :(

Was fürn Hype?

bzw. zu deinem link. das ja wohl nen lacher ;D
Treiber

Catalyst 8.6
Catalyst 8.8 (HD 4870 X2)
Catalyst 8.10 (HD 4830, HD 4850 X2)
Geforce 177.34

KonKorT
2009-01-07, 19:41:15
Die TDP-Angaben verheißten einen deutlichen Rückfall der Leistungsaufnahme, der schlichtweg nicht vorhanden ist.

Hätte man für die neueren Chips neuere Treiber verwendet, hieße es: Ungerecht! :)
Dafür ist der Parcour eben sehr reichhaltig und beinhaltet auch ältere Produkte. Aber um die Performance dreht es sich bei dem Chip eh nicht. Das war ja zu erwarten, dass er genau das Niveau der "alten" GTX 260 216 erreicht.

PS: Wie viel die GTX 260 216 mit neuen Treibern erreicht, dazu den Artikel (http://www.hardware-infos.com/tests.php?test=52) lesen. ;)

AnarchX
2009-01-07, 19:49:32
Die TDP-Angaben verheißten einen deutlichen Rückfall der Leistungsaufnahme, der schlichtweg nicht vorhanden ist.

Wo wurde die TDP der GTX 260 gesenkt?
GTX 295 und 285 setzen ja auf G200B3, also nicht unbedingt vergleichbar mit den aktuellen G200B2-GTX 260

LovesuckZ
2009-01-07, 20:17:01
Nö, die TDP der GTX285 hat einen "Rückfall" (wtf?) gegenüber der GTX280. Aber die GTX260 hatte nie ein Redesign erfahren. Die einzigen, die einen Hype gemacht haben, sind die ganzen Kinder, die sich jetzt aufregen, dass es keine Unterschiede gibt.

Gast
2009-01-07, 20:43:45
Gebe ich Dir ohne weiteres recht. Vielleicht ein wenig unglücklich formuliert. Jedenfalls war der 55-nm-Hype für die Katz'. :(

Das war zu erwarten, es ging NVidia ja nur um Kostensenkung, sonst würde man die 55nm Versionen nicht unter gleichem Namen verkaufen.

AnarchX
2009-01-07, 21:11:12
ASUS legt nun auch nochmal 10% Leistung auf die GTX 285 drauf:
http://img265.imageshack.us/img265/6872/gtx285295launchclipimagmt8.jpg (http://imageshack.us)
http://www.techarp.com/showarticle.aspx?artno=611

1620MHz Shader und 1380MHz Speicher (da setzt NV wohl wirklich den neuesten 0.77ns GDDR3 ein) sind doch ziemliche Hausnummern, mal sehen ob das noch ein anderer AIB überbieten kann. ;)

dildo4u
2009-01-07, 21:14:59
Krass wie hoch der GDDR3 noch geht.

reunion
2009-01-07, 21:15:58
Haufenweise Benchs:
http://news.ati-forum.de/index.php/news/52-sonstiges/231-gtx285-ueber-100-benchmarks

KonKorT
2009-01-07, 22:52:27
Aber die GTX260 hatte nie ein Redesign erfahren.

Wie definierst du jetzt Redesign? Also es hat doch einige Änderungen gegenüber der 65-nm-Version gegeben...

Nightspider
2009-01-08, 02:33:04
Bin echtmal gespannt was die GTX 285 unter Wasser abliefert, wenn Asus schon fast 1,4 Ghz GDDR3 Clock mit LuKü auffährt. :eek:

(Ich hätt gern unter Wasser 1,8 Ghz Shadertakt und 1,45-1,5 Ghz MemoryClock bei der GTX285...das wäre bald 2-3 fache 8800GTX Leistung...da brauch ich keine DualKarte)

Gast
2009-01-08, 15:59:54
Der B3 scheint echt ein hammer Chip zu sein :)

Spasstiger
2009-01-08, 16:03:25
Bin ja mal gespannt, ob man mit Voltmod auch 2 GHz Shadertakt mit Lukü fahren kann.

Daredevil
2009-01-08, 16:04:08
Is ja nur die Frage... brauch man den Speichertakt wirklich so hoch?
Es sind 10% mehr Kerntakt und sind auch 10% Mehrleistung.

=Floi=
2009-01-08, 16:37:32
wann fällt das nda der gtx285? was ist nun mit der 270er? offizielle 55nm version?

LovesuckZ
2009-01-08, 17:32:45
In einer Woche fällt das NDA. Und es wird keine 270 geben.

AnarchX
2009-01-08, 20:59:19
PCGH mit einer kleinen Vorschau auf die GTX 285:
http://www.pcgameshardware.de/aid,672276/News/Geforce_GTX_285_offiziell_vorgestellt-_Alle_Infos_zur_neuen_Nvidia-Grafikkarte_-_Test_folgt_bald/

Am Kühler wurde wie bei der neuen GTX 260 auch gespart:
http://www.pcgameshardware.de/aid,672276/News/Geforce_GTX_285_offiziell_vorgestellt-_Alle_Infos_zur_neuen_Nvidia-Grafikkarte_-_Test_folgt_bald/&menu=browser&image_id=959516&article_id=672276&page=1&show=original

Nightspider
2009-01-09, 00:50:08
Ich frag mich warum die immer am Kühler sparen ?

Das bisschen Metall kostet doch bestimmt keine 5 Euro !?

NV hätte 5 Euro beim Metall und 100 Mhz beim Shadertakt zugeben sollen...dann würden NV auch mehr Gewinn mit der Karte machen...

Darf wohl aber nicht zu sehr den Abstand zur GTX295 verringern...

VooDoo7mx
2009-01-09, 02:32:28
Ich frag mich warum die immer am Kühler sparen ?

Das bisschen Metall kostet doch bestimmt keine 5 Euro !?

NV hätte 5 Euro beim Metall und 100 Mhz beim Shadertakt zugeben sollen...dann würden NV auch mehr Gewinn mit der Karte machen...

Darf wohl aber nicht zu sehr den Abstand zur GTX295 verringern...

Hast du überhaupt eine Ahnung wovon du redest?
Beim Kühler sind garantiert keine 5€ an Materialkosten eingespart worden. Die EInsparungen da liegen im Cent Bereich. Und selbst wenn man beim Produktionksoten 5 Cent einpsart, kann das beim Endpreis im Laden das zigfache davon ausmachen.
Und wieso würde NV mehr Gewinn mit der Karte machen, wenn sie höhere Produktionskosten haben und den Shadertakt erhöhen? :crazy:
Als schnellste Single GPU Karte steht sie sowieso außer Konkurrenz und 100MHz Schadertakt mehr oder nicht, dürfte die Interessenten dieser Karte sowas von meilenweit am Arsch vorbeigehen.
Kauf doch eine ab Werk übertaktete GTX285, da hast du 100MHz mehr Shadertakt.

Nightspider
2009-01-09, 02:43:58
Hast du überhaupt eine Ahnung wovon du redest?
Beim Kühler sind garantiert keine 5€ an Materialkosten eingespart worden. Die EInsparungen da liegen im Cent Bereich. Und selbst wenn man beim Produktionksoten 5 Cent einpsart, kann das beim Endpreis im Laden das zigfache davon ausmachen.
Und wieso würde NV mehr Gewinn mit der Karte machen, wenn sie höhere Produktionskosten haben und den Shadertakt erhöhen? :crazy:
Als schnellste Single GPU Karte steht sie sowieso außer Konkurrenz und 100MHz Schadertakt mehr oder nicht, dürfte die Interessenten dieser Karte sowas von meilenweit am Arsch vorbeigehen.
Kauf doch eine ab Werk übertaktete GTX285, da hast du 100MHz mehr Shadertakt.

Ähm, ja, ich denke schon das ich Ahnung davon hab, wovon ich rede.

Das die Material-Kosten im Cent-Bereich liegen ist mir auch klar, ich gehe davon aus das irgendwas anderes dadurch vllt vereinfacht wird...vllt die Montage, welche die Einsparung erhöht.

Außer Konkurenz...pah...Konkurenz gibt es immer und da 99% der Käufer auf das P/L-Niveau achten alle auf den Abstand zur HD4870 /X2...längere Balken sind immer gut, wenn gleich noch die Temps durch besseren Kühler runtergehen freut das noch die Overclocker oder die Leute, die Zeitschriften lesen in denen gegebenfalls auf das "besonders gute Übertaktungsverhalten" hingewiesen wird und am Ende vllt noch "Kauftipp" dasteht...

Schlecht ist es zumindest nicht und 5 Euro machen bei 350-400 Euro 1,2-1,4% vom Gesamtpreis ausmacht...

Edit:

GTX285 für 345 Euro von XFX

http://geizhals.at/eu/a394435.html

Gast
2009-01-09, 14:32:31
EVGA soll die GTX 285 mit bis zu 750MHz bringen!!!

pervert
2009-01-11, 21:44:54
Bin ja mal gespannt, ob man mit Voltmod auch 2 GHz Shadertakt mit Lukü fahren kann.
Ich glaube eher, dass beim Shadertakt nicht viel zu holen ist und man den gar nicht antasten sollte und man somit das ganze OC ein wenig vergessen kann.

Die werksseitig übertakteten Karten haben selbst bei "ans-Limit-und-darüber-Hinaus-OCer" Zotac nur läppische 1512 MHz (alle anderen momentan gelisteten haben default Shadertakt!) und im PCGHX Forum Test stürzte Die Karte bei diesem Shadertakt sogar bereits ab. Wohlgemerkt bei einer Erhöhung um winzige 2.4%!!

Aber was solls, die Karte ist schnell genug, lieber undervolten und was richtig leises und luftiges haben ;)

Nightspider
2009-01-12, 02:54:18
Jetzt liegt die günstigste GTX285 schon bei 314 Euro
http://geizhals.at/deutschland/?fs=GTX285&in=

Wird wohl bald unter die 300 rutschen...

Coda
2009-01-12, 04:12:50
Frag mich echt was das Benchmark-NDA noch soll, wenn die Karte überall schon zu kaufen sind :|

mictasm
2009-01-12, 10:02:01
Sind die denn hier wirklich schon lieferbar? Gibts schon jemanden mit der Karte hier im Forum?

dargo
2009-01-12, 11:01:06
Jetzt liegt die günstigste GTX285 schon bei 314 Euro
http://geizhals.at/deutschland/?fs=GTX285&in=

Wird wohl bald unter die 300 rutschen...
Wenn man auf den Link geht sinds wieder knapp 324€. Die Tendenz ist aber klar erkennbar. Hätte nicht gedacht, dass es so schnell in Richtung 300€ geht.

MartinRiggs
2009-01-12, 11:20:00
hoffentlich bald gescheit lieferbar, liebäugel doch sehr mit ner GTX285:love2:

Spasstiger
2009-01-12, 11:36:38
Frag mich echt was das Benchmark-NDA noch soll, wenn die Karte überall schon zu kaufen sind :|
Die Magazine haben sich jetzt schon auf einen bestimmten Veröffentlichungstermin ihrer Reviews eingestellt und vor allem die kleineren Magazine mit vielleicht 1-2 Testern können jetzt nicht einfach ihre Reviews drei Tage schneller fertigstellen. Es wäre unfair, wenn Nvidia das NDA jetzt einfach fallen ließe.
Außerdem sind ja keine Überraschungen zu erwarten. Die Performance ist bekannt (10% schneller als GTX 280), die TDP ist bekannt (189 Watt, also ähnlich wie bei der GTX 260), die Übertaktbarkeit ist anhand diverser Ankündigungen von OC-Karten schon absehbar, die Lautstärke dürfte durch den unveränderten Kühler wie bei der GTX 260 ausfallen.

MuLuNGuS
2009-01-12, 13:20:13
hoffentlich bald gescheit lieferbar, liebäugel doch sehr mit ner GTX285:love2:

du auch?! :D:D

reunion
2009-01-12, 16:27:25
Hier zahlreiche Bilder zur GTX 285:
http://www.pcgameshardware.com/aid,672346/News/Geforce_GTX_285_officially_introduced-_Details_about_the_new_Nvidia_card_-_review_follows/&menu=browser&mode=article&image_id=959505&article_id=672346&page=1

reunion
2009-03-12, 12:32:06
GTX275 soll den selben Chip wie eine GTX295 haben, also 240SPs, 448-bit SI: http://www.fudzilla.com/index.php?option=com_content&task=view&id=12565&Itemid=1

AnarchX
2009-03-12, 12:37:59
Wenn dann die gleiche Konfiguration, aber wohl kaum den 400er-Bin der 295, der ja bekanntlich sehr knapp ist.;)

Die 240SPs ohne Taktänderungen dürften aber wohl weniger bringen als die spekulierte OC-GTX260 mit 650/1100MHz.
Wobei natürlich für den OCer die 240SPs Karte interessanter sein dürfte.

James Ryan
2009-03-12, 12:49:06
:|
Ist der GT200b so billig zu fertigen, dass NVIDIA einen "vollen" davon auf eine GTX275 pflanzt?
Irgendwie glaube ich nicht dran!

MfG :cool:

Ailuros
2009-03-12, 13:00:13
Wenn dann die gleiche Konfiguration, aber wohl kaum den 400er-Bin der 295, der ja bekanntlich sehr knapp ist.;)

Die 240SPs ohne Taktänderungen dürften aber wohl weniger bringen als die spekulierte OC-GTX260 mit 650/1100MHz.
Wobei natürlich für den OCer die 240SPs Karte interessanter sein dürfte.

Wieso?

260@650/1400 = (72*650MHz= ) 46800 GTexels, (216*3*1.4= ) 907 GFLOPs/s
275@576/1242 = (80*576MHz= ) 46080 GTexels, (240*3*1.2= ) 894 GFLOPs/s

Selbst mit den Frequenzen rangt sich die 275 in etwa in der Mitte zwischen einer 285 und einer 260 ein.

reunion
2009-03-12, 13:01:00
:|
Ist der GT200b so billig zu fertigen, dass NVIDIA einen "vollen" davon auf eine GTX275 pflanzt?
Irgendwie glaube ich nicht dran!

MfG :cool:

Ein "voller" ist auch nicht teurer als ein abgespeckter wenn die Yieldraten hoch genug sind, bauchen ja alle gleich viel Platz auf der Wafer. Die meisten Karten werden ohnehin am unteren Preisgefügen, also von der GTX260 verkauft. Und einen ROP-Cluster kann man ja noch immer deaktivieren.

AnarchX
2009-03-12, 13:04:13
@Ailuros

ROPs, Setup @ 650 vs 575MHz und 1.1 vs 1.0 GHz Speichertakt. Die GTX 275 mit nur einer Freischaltung auf 240SPs wäre definitiv langsamer als die spekulaitve OC-SKU.

Zumal man momentan schon eine 675/1450/1150MHz GTX 260 für $219 (http://www.newegg.com/Product/Product.aspx?Item=N82E16814130443) bekommt. ;)

Undertaker
2009-03-12, 13:11:18
:|
Ist der GT200b so billig zu fertigen, dass NVIDIA einen "vollen" davon auf eine GTX275 pflanzt?
Irgendwie glaube ich nicht dran!

MfG :cool:

Hmm? Der Chip bleibt doch der gleiche, nur die Teildeaktivierung fällt weg - das kostet Nvidia keinen Cent mehr, sofern es nicht nennenswerte Anteile von Chips mit teilweise defekten SPs gibt, die so nicht mehr verkauft werden könnten.

Edit: Zu spät...

Ailuros
2009-03-12, 13:27:34
@Ailuros

ROPs, Setup @ 650 vs 575MHz und 1.1 vs 1.0 GHz Speichertakt. Die GTX 275 mit nur einer Freischaltung auf 240SPs wäre definitiv langsamer als die spekulaitve OC-SKU.

Nochmal:

Selbst mit den Frequenzen (?) rangt sich die 275 in etwa in der Mitte zwischen einer 285 und einer 260 ein.


Zumal man momentan schon eine 675/1450/1150MHz GTX 260 für $219 (http://www.newegg.com/Product/Product.aspx?Item=N82E16814130443) bekommt. ;)

Was haben vendor spezifische Modelle damit zu tun? Angenommen das 275 Dingsda ist nur auf 575 getaktet, wird es mit Sicherheit auch solche SSC Dingsbumse von Vendors geben. Diese staendige Spielerei mit clusters und/oder Frequenzen vom gleichen aufgewaermten Brei nervt die vendors ja sowieso.

AnarchX
2009-03-12, 13:33:36
Nochmal:

Selbst mit den Frequenzen (?) rangt sich die 275 in etwa in der Mitte zwischen einer 285 und einer 260 ein.

Dagegen sage ich auch nichts, nur von der Auslieferungsleistung wäre eine OC-260 als 275 wohl etwas besser gewesen. Das wollte ich damit ausdrücken.
Bleibt natürlich die Frage, welche Lösung hier das bessere Yield bietet, wohlmöglich eben die 240SP-275.



Was haben vendor spezifische Modelle damit zu tun? Angenommen das 275 Dingsda ist nur auf 575 getaktet, wird es mit Sicherheit auch solche SSC Dingsbumse von Vendors geben. Diese staendige Spielerei mit clusters und/oder Frequenzen vom gleichen aufgewaermten Brei nervt die vendors ja sowieso.
Ich sehe hier nur das Problem, dass man die wohl langsamere GTX 275 für $249 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12565&Itemid=1) verkaufen will, die OC-SKUs dieser gehen dann wohl in Richtung $299.

Ailuros
2009-03-12, 14:08:41
Dagegen sage ich auch nichts, nur von der Auslieferungsleistung wäre eine OC-260 als 275 wohl etwas besser gewesen. Das wollte ich damit ausdrücken.
Bleibt natürlich die Frage, welche Lösung hier das bessere Yield bietet, wohlmöglich eben die 240SP-275.

Kann sein dass die relativ gute Nachfrage fuer 295 boards es rentabler macht diese cores zu benutzen.

Ich sehe hier nur das Problem, dass man die wohl langsamere GTX 275 für $249 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12565&Itemid=1) verkaufen will, die OC-SKUs dieser gehen dann wohl in Richtung $299.

Preise balancieren sich meistens aus bis zum Punkt wo aeltere Modelle einfach verschwinden. Die 275 soll ja gegen die RV790 antreten. Was glaubst Du dass AMD fuer die RV790 OC genau geplant hat?

LovesuckZ
2009-03-12, 14:30:59
:|
Ist der GT200b so billig zu fertigen, dass NVIDIA einen "vollen" davon auf eine GTX275 pflanzt?
Irgendwie glaube ich nicht dran!

MfG :cool:

Nö, aber ihre Lager sind voll Chips. Und da die Leute in der heutigen Zeit kaum Geld für 300+$ Karten ausgeben werden, ist es besser die vollwertigen Chips eben für 250$ Karten zu verwenden.

KonKorT
2009-03-12, 15:57:32
GTX275 soll den selben Chip wie eine GTX295 haben, also 240SPs, 448-bit SI: http://www.fudzilla.com/index.php?option=com_content&task=view&id=12565&Itemid=1

Ich zitiere mal Fuad:

"The GTX295 chip is mixture between GTX260 and 285 chips and this GT200 55nm has 240 Shaders, and we can only hope that it will have the same number of them for GTX275."

AnarchX
2009-03-12, 18:51:38
GTX 260 @ $169 ein Verlustgeschäft für NV und Partner? (http://www.theinquirer.net/inquirer/news/398/1051398/nvidia-gtx260s-losing-money)

Bleibt natürlich die Frage wie korrekt die Zahlen von Charlie sind.

Aber wenn man sich mal vor Augen hält, dass man hier für $169 immerhin einen fast 500mm² großen 55nm Die und ein 448-Bit PCB mit 896MiB bekommt, dann kann man die Einschätzung schon durchaus logisch nachvollziehen.

reunion
2009-03-12, 19:05:52
Klassisches Preisdumping um Marktanteile halten zu können. Nicht schön, aber auch nicht so ungewöhnlich.

LovesuckZ
2009-03-12, 19:30:19
GTX 260 @ $169 ein Verlustgeschäft für NV und Partner? (http://www.theinquirer.net/inquirer/news/398/1051398/nvidia-gtx260s-losing-money)

Bleibt natürlich die Frage wie korrekt die Zahlen von Charlie sind.

Aber wenn man sich mal vor Augen hält, dass man hier für $169 immerhin einen fast 500mm² großen 55nm Die und ein 448-Bit PCB mit 896MiB bekommt, dann kann man die Einschätzung schon durchaus logisch nachvollziehen.

Kein Partner würde die Karte für 169$ anbieten, wenn er Verluste mit ihnen macht. Eher würden sie die Karten aus dem Sortiment nehmen.
Der einzige, der Verluste machen würde, wäre nVidia.
Abgesehen davon, wenn man 330mm^2 für unter 100$ anbieten kann, wieso sollte dann 480mm^2 so einen großen Verlust herbeiführen?
Was hier immer vergessen wird, sind die übervollen Lager beider IHVs. Die schon produzierten Chips werden nun unters Volk gebracht. Ob dabei eine schwarze 0+ steht oder eine rote, spielt dabei keine Rolle mehr. Besser als jedes Abschreiben und irgendwann wegwerfen, ist es allemal.

reunion
2009-03-12, 19:39:35
Eine 9800GT bekomme ich bei Newegg nicht unter $114.99, und diese wird längst in 55nm gefertigt, also ~278mm². Eine GTX260 bekommt man bereits um $179.99. Und die Kosten für ein Die steigen mit der Größe nicht linear sondern exponentiell. Das PCB und der Speicher ist auch entsprechend teurer.

LovesuckZ
2009-03-12, 19:46:05
Eine 9800GT bekomme ich bei Newegg nicht unter $114.90, und diese wird aktuell längst in 55nm gefertigt, also ~278mm². Eine GTX260 bekommt man bereits um $179.99. Und die Kosten für ein Die steigen mit der Größe nicht linear sondern exponentiell.

Und in Deutschland für 93€ und die GTX260 für 178€. Das macht einen Aufpreis von 91%. Die Kosten pro Die sind wohl kaum höher als diese sogenannten 91%.

reunion
2009-03-12, 19:48:42
Und in Deutschland für 93€ und die GTX260 für 178€. Das macht einen Aufpreis von 91%.
Wen interessiert D? USA ist der Heimatmarkt von NV und vorallem der weitaus größere Markt. Die Preise in D sind schlicht noch nicht angepasst.


Die Kosten pro Die sind wohl kaum höher als diese sogenannten 91%.

Das sind sie mit Sicherheit. Das Die ist fast doppelt so groß und der Verschnitt am Rand ist deshalb wesentlich höher und die Yieldraten niedriger.

LovesuckZ
2009-03-12, 19:53:49
Wen interessiert D? USA ist der Heimatmarkt von NV und vorallem der weitaus größere Markt. Die Preise in D sind schlicht noch nicht angepasst.

In den ersten beiden Quartalen des Jahres war Europa ein größerer Markt als Amerika. Sie geben die Preise aufgrund von Asien in Dollar an, aber nicht wegen Amerika.

Nakai
2009-03-12, 19:59:25
Und die Kosten für ein Die steigen mit der Größe nicht linear sondern exponentiell.

Mhh, eher quadratisch. Evtl meinst du eher noch die Problematik des großen DIEs, aber dennoch ist es nicht exponentiell.

Wen interessiert D? USA ist der Heimatmarkt von NV und vorallem der weitaus größere Markt. Die Preise in D sind schlicht noch nicht angepasst.

Die Europäer haben weitaus modernere Systeme als in Amerika. Aber ja, die USA hat mehr Abnehmer als D.

Was hier immer vergessen wird, sind die übervollen Lager beider IHVs. Die schon produzierten Chips werden nun unters Volk gebracht. Ob dabei eine schwarze 0+ steht oder eine rote, spielt dabei keine Rolle mehr. Besser als jedes Abschreiben und irgendwann wegwerfen, ist es allemal.

Generell kann man dir hier zustimmen. Das Problem ist leider, dass eine Chipproduktion nicht von einem Tag auf den anderen einfach gestoppt werden kann.



mfg Nakai

LovesuckZ
2009-03-12, 20:05:05
Generell kann man dir hier zustimmen. Das Problem ist leider, dass eine Chipproduktion nicht von einem Tag auf den anderen einfach gestoppt werden kann.


Ab November sind die Absatzzahlen in den USA rapide gefallen. Das dürfte wohl für die restliche Welt auch gelten. Und in der CC für das 4.Q hat nVidia gesagt, dass sie Waferbestellungen storniert haben und die Lagerbestände erstmal abbauen. Da die ersten beiden Quartale generell schlechter sind als die letzten beiden, wird sich die Situation wohl noch verschlechtert haben. Es wird wohl kaum wieder erhöhte Bestellungen von nVidia gegeben haben.

Ailuros
2009-03-13, 07:52:22
Die Europäer haben weitaus modernere Systeme als in Amerika. Aber ja, die USA hat mehr Abnehmer als D.

Ehrliche Frage: gibt es ueberhaupt eine offizielle Statistik die dieses bestaetigt oder ist es nur aus der Luft gegriffen?

V2.0
2009-03-13, 08:09:27
Wie sollen bitte die Herstellungskosten exponentiell steigen?

Ailuros
2009-03-13, 09:05:04
http://www.theinquirer.net/inquirer/news/398/1051398/nvidia-gtx260s-losing-money

*grunz* :|

V2.0
2009-03-13, 09:42:14
Hatten wir nicht die News, dass NV bei der 260 in Zukunft keine kompletten Packages mehr verkaufen will, sondern nur noch den Chip, so dass die Partner eigene PCBS, Speicher und Kühler verwenden können. Ob die Preissenkung wohl daher kommt?

Wie er auf schlechte Yields kommt muss er mir auch erzählen, denn das was vor einigen Monaten war, muss heute nicht mehr gelten.

Hugo
2009-03-13, 12:01:15
Das sind sie mit Sicherheit. Das Die ist fast doppelt so groß und der Verschnitt am Rand ist deshalb wesentlich höher und die Yieldraten niedriger.

Der Verschnitt am Rand hat nicht mit dem Yield zu tun!

darkvader
2009-03-13, 12:24:01
Der Verschnitt am Rand hat nicht mit dem Yield zu tun!

Hat er ja auch nicht geschrieben, er schrieb ja nur das beides schlimmer wird.

Produktionskosten steigen mit 3 Faktoren.

1) Die reine Chipgröße: Dieser Faktor ist linear. Ein doppelt so großer CHip benötigt doppelt soviel Fläche und ist damit theoretisch ersteinmal doppelt so teuer.

Jetzt kommen aber 2 Faktoren dazu:

2) Der Verschnitt am Rand. Wenn der Chip doppelt so groß ist bekommt man aufgrund des Verschnittes am Rand leider nicht "halb soviel" Chips aus einem Wafer, sondern weniger.

1 + 2 führt bereits dazu, dass die Kosten pro Chip höher als "doppelt so hoch" sind.

3) Höhere Ausschußkosten. Wenn man jetzt aus einem Wafer eh nur 30% der Chips bekommt wie vorher, dann ist es natürlich deutlich teurer, wenn dann davon ein bestimmter % Ausschuß ist.

Das führt am Ende dazu, dass ein doppelt so großer CHip DEUTLICH teurer ist als doppelt so teuer.

Hugo
2009-03-13, 12:42:06
Hat er ja auch nicht geschrieben, er schrieb ja nur das beides schlimmer wird.

Produktionskosten steigen mit 3 Faktoren.

1) Die reine Chipgröße: Dieser Faktor ist linear. Ein doppelt so großer CHip benötigt doppelt soviel Fläche und ist damit theoretisch ersteinmal doppelt so teuer.

Jetzt kommen aber 2 Faktoren dazu:

2) Der Verschnitt am Rand. Wenn der Chip doppelt so groß ist bekommt man aufgrund des Verschnittes am Rand leider nicht "halb soviel" Chips aus einem Wafer, sondern weniger.

1 + 2 führt bereits dazu, dass die Kosten pro Chip höher als "doppelt so hoch" sind.

3) Höhere Ausschußkosten. Wenn man jetzt aus einem Wafer eh nur 30% der Chips bekommt wie vorher, dann ist es natürlich deutlich teurer, wenn dann davon ein bestimmter % Ausschuß ist.

Das führt am Ende dazu, dass ein doppelt so großer CHip DEUTLICH teurer ist als doppelt so teuer.

es klang aber so
mir brauchst das nicht erklären ich kenn mich damit bestens aus :wink:

Sorkalm
2009-03-13, 12:43:06
http://www.theinquirer.net/inquirer/news/398/1051398/nvidia-gtx260s-losing-money

*grunz* :|

Klingt für mich nach einer ziemlichen Milchmädchenrechnung. In welcher Höhe sind pro GPU irgendwelche Fixkosten (insbesondere Entwicklungskosten, aber auch Personalkosten im Marketing etc.) integriert, die natürlich auch anfallen, aber nicht den Verkaufsgewinn pro GTX 260 senken?

Ich kann mir zwar vorstellen, dass der Gesamtgewinn den Nvidia aus GTX 260s zieht, negativ ist, bei der aktuellen Situation gar keine Frage. Das der Grenzgewinn aus dem Verkauf (daher der zusätzliche Gewinn beim Verkauf einer weiteren GTX 260 bei aktueller Menge) auch negativ, ist dagegen wohl unwahrscheinlich. Denn wenn man selbst ohne Fixkosten zusätzlichen negativen Gewinn mit den Verkauf weiterer Produkte macht, macht es eigentlich keinen Sinn mehr den Preis weiter zu senken (es macht dann auch keinen Sinn mehr, das Produkt attraktiv gegenüber der Konkurrenz zu gestalten).

darkvader
2009-03-13, 12:45:30
es klang aber so
mir brauchst das nicht erklären ich kenn mich damit bestens aus :wink:

Wollte keinen zweiten Post direkt druntersetzen, war mehr für die Allgemeinheit gedacht :-)

AffenJack
2009-03-13, 13:28:18
Die kosten stimmen doch allein vom die schon nicht wirklich. Beim 65nm chip wurde doch behauptet er kostet 100-120$ wenn ich mich nicht irre. Nun hamwa beinahe ne 20% verkleinerung und die Produktionskosten sinken dann auch nur um 20%? Das stimmt schon allein mit der Tatsache, dass die CHipkosten natürlich nicht linear steigen nicht überein.

Gast
2009-03-13, 17:13:32
macht es eigentlich keinen Sinn mehr den Preis weiter zu senken (es macht dann auch keinen Sinn mehr, das Produkt attraktiv gegenüber der Konkurrenz zu gestalten).

Es macht schon Sinn wenn man die Marktanteile nicht zu sehr negativ belasten möchte, gerade in hinblick auf Cuda/PhysX dürfte das für NV sehr sehr Wichtig sein!

Sorkalm
2009-03-13, 17:45:40
Es macht schon Sinn wenn man die Marktanteile nicht zu sehr negativ belasten möchte, gerade in hinblick auf Cuda/PhysX dürfte das für NV sehr sehr Wichtig sein!

Wobei man schauen muss, ob die in diesem Bereich langfristig so wichtig sind.
Sollte man daber auch als Investititionskosten für diese Bereich abrechnen. ;)

Spasstiger
2009-03-13, 19:25:07
Mit der GTX 275 will man wohl lagernde Chips los werden, die eigentlich für die GTX 295 bestimmt sind. Aber ohne Takterhöhungen könnte es knapp werden gegen die HD 4890.

AnarchX
2009-03-13, 19:30:35
Mit der GTX 275 will man wohl lagernde Chips los werden, die eigentlich für die GTX 295 bestimmt sind.
Ganz bestimmt nicht. Der 400er Bin, welcher auf der GTX 295 mit nur 1.05V verwendet wird, ist wohl ziemlich rar und deshalb soll selbst NewEgg nur 7 Karten (Stück, nicht Hersteller!) auf Lager haben.

Wenn dann ist das eher der 350er Bin der GTX 285 oder ein neuer, der eben 240 aktive SPs besitzt aber nicht 285-Frequenzen schafft bzw. eine kaputte RP hat.

Gast
2009-03-13, 20:46:04
USA ist der Heimatmarkt von NV und vorallem der weitaus größere Markt.
Kontinental- bzw. Insel-China sind der Heimatmarkt von NV. Die verkaufen nämlich an die Boardpartner, nicht an Endkunden.


Carsten

Gast
2009-03-13, 20:51:01
[...] ein neuer, der eben 240 aktive SPs besitzt aber nicht 285-Frequenzen schafft bzw. eine kaputte RP hat.
Ein neuer, der helfen soll, die Margen zu stützen.

Volle Funktion, 1,0375v lauffähig -> GTX 295
Volle Funktion, hohe Taktrate, >1,0375v nötig -> GTX 285
[neu9Volle TPCs, Defekt in einer ROP -> GTX 275[neu]
Defekt in einer ROP & in einer TPC -> GTX 260-216
[neu] Defekt in einer ROP & zwei TPCs -> GTX 260-192-2.0 *hust*[neu]

Damit dürfte Nvidia eigentlich alles irgendwie verkaufen können, was nicht in der Mitte durchgesägt ist. Und dass man für eine GTX 275 etwas tiefer in die Tasche greifen wir müssen als für eine GTX 260, tut das den arg gebeutelten Margen gut.

Carsten

Gast
2009-03-13, 20:55:39
Hat er ja auch nicht geschrieben, er schrieb ja nur das beides schlimmer wird.

Produktionskosten steigen mit 3 Faktoren.

1) Die reine Chipgröße: Dieser Faktor ist linear. Ein doppelt so großer CHip benötigt doppelt soviel Fläche und ist damit theoretisch ersteinmal doppelt so teuer.

Jetzt kommen aber 2 Faktoren dazu:

2) Der Verschnitt am Rand. Wenn der Chip doppelt so groß ist bekommt man aufgrund des Verschnittes am Rand leider nicht "halb soviel" Chips aus einem Wafer, sondern weniger.

1 + 2 führt bereits dazu, dass die Kosten pro Chip höher als "doppelt so hoch" sind.

3) Höhere Ausschußkosten. Wenn man jetzt aus einem Wafer eh nur 30% der Chips bekommt wie vorher, dann ist es natürlich deutlich teurer, wenn dann davon ein bestimmter % Ausschuß ist.

Das führt am Ende dazu, dass ein doppelt so großer CHip DEUTLICH teurer ist als doppelt so teuer.

Bei ansonsten identischen Bedingungen: Ja. Allerdings gilt es auch zu berücksichtigen, dass eine höhere Die-Size auch mehr Redundanz ermöglicht bzw. manchmal auch dadurch erst entsteht (natürlich nicht im GT200-vs-RV770-Fall). Dadurch steigt dann die Yield-Rate, was die Stückkosten wieder senkt - theoretisch.

Carsten

Gast
2009-03-14, 12:19:08
Kontinental- bzw. Insel-China sind der Heimatmarkt von NV. Die verkaufen nämlich an die Boardpartner, nicht an Endkunden.


Carsten

Der Preis wird trotzdem in USD festgelegt.

Gast
2009-03-14, 16:02:25
Der Preis wird trotzdem in USD festgelegt.
Klar, ist aber unabhängig davon, wann wo mit welcher Verzögerung Preissenkungen im Einzelhandel umgesetzt werden. Und darum ging's.


Carsten

AnarchX
2009-03-18, 15:46:14
IT168 mit ein paar GTX 275 Simulationsbenches:
http://translate.google.ch/translate?u=http%3A%2F%2Fpublish.it168.com%2F2009%2F0317%2F20090317055801.shtml&sl=zh-CN&tl=de&hl=de&ie=UTF-8

- 240SPs @GTX 260 Taktraten
- GTX 260 @ 648/1476/1107MHz (wobei ich bei einer OC GTX 260 nicht so einen hohe Shadertakt vermuten würde, eher 1.4GHz nach normalen 260/280 Verhältnis)

AnarchX
2009-03-20, 10:28:53
Geforce GTX 275 specs revealed (http://www.fudzilla.com/index.php?option=com_content&task=view&id=12730&Itemid=34)
[...]
The chip works at 633MHz core and 1164MHz memory and just like the GTX 285 it has 240 shader processors.[...]


Also eine Kombination aus 240SPs und mehr Takt. Damit hat sie wohl immerhin ~5% mehr GPU-Leistung als eine GTX 280.

reunion
2009-03-20, 10:32:41
Und auch die Bandbreite ist dank 1.164Ghz Speicher kaum niedriger. Das Ding dürfte also durchaus GTX280 Leistung erreichen und sollte natürlich auch einen Hinweis darauf geben wie schnell die 4890 werden wird.

AnarchX
2009-03-20, 10:50:52
Oder man will einfach wieder genügend Abstand zur GTS 250 1GiB schaffen, wenn die 4890 gegen diese Karte konkurrieren will, dann imo eher in Form einer OC-SKU.

reunion
2009-03-20, 11:08:25
Denke ich nicht, die GTX280 sollte mit neuen Treiber kaum mehr als 15-20% schneller sein als eine 4870 und damit durchaus erreichbar für die 4890. Und nV platziert die GTX275 ja auch klar gegen die 4890.

Gast
2009-03-20, 11:14:44
Denke ich nicht, die GTX280 sollte mit neuen Treiber kaum mehr als 15-20% schneller sein als eine 4870 und damit durchaus erreichbar für die 4890. Und nV platziert die GTX275 ja auch klar gegen die 4890.
Deine Rechnung geht nur auf, wenn die 4870 auf einmal 10% schneller als die GTX 260 216 ist.

Dies ist nicht der Fall.


Das Ding dürfte also durchaus GTX280 Leistung erreichen und sollte natürlich auch einen Hinweis darauf geben wie schnell die 4890 werden wird.

Es kann genauso gut ein Hinweis sein, das die GTX 275 nicht direkt mit der 4890 konkurrieren muss.
Das verbessert immerhin die Position im Preiskampf.

reunion
2009-03-20, 11:16:15
Deine Rechnung geht nur auf, wenn die 4870 auf einmal 10% schneller als die GTX 260 216 ist.

Dies ist nicht der Fall.

Warum? Die GTX280 ist ca. 15% schneller wie die GTX260-216:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet

Die 4870/1024 liegt mit aktuellen Treiber wohl nicht mehr hinter der GTX260-216.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_93/10/#abschnitt_performancerating

Ailuros
2009-03-20, 11:45:43
Der 9.3 liefert nichts besonderes unter AA/AF im Vergleich zu vorigen 9.x Treibern.

Ohne jegliches hin und her, ist GTX275 die direkte Antwort NV's auf RV790.

Undertaker
2009-03-20, 12:22:25
Die 4870/1024 liegt mit aktuellen Treiber wohl nicht mehr hinter der GTX260-216.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_93/10/#abschnitt_performancerating

Da ändert sich nicht viel, da auch die NVidia-Treiber vergleichbar zulegen:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_nvidia_geforce_18205_beta/8/#abschnitt_performancerating

Bis vor kurzem war auch noch der Preisunterschied beider Karten in etwa dem entsprechend, aktuell sind beide mit knapp unter 170€ praktisch gleich teuer und die 260GTX imho das etwas bessere Angebot.

Edit: Was mir übrigens gerade auffällt: In 1680x1050 4xAA/16xAF liegen mittlerweile gigantische 40% zwischen 9800GT und HD3870. Zum HD3870 Launch waren es nur 8% Rückstand auf die identisch schnelle 8800GT... Was ist denn da passiert? So etwas kannte man aus der Vergangenheit ja eher umgekehrt.

reunion
2009-03-20, 12:32:44
Da ändert sich nicht viel, da auch die NVidia-Treiber vergleichbar zulegen:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_nvidia_geforce_18205_beta/8/#abschnitt_performancerating

Bis vor kurzem war auch noch der Preisunterschied beider Karten in etwa dem entsprechend, aktuell sind beide mit knapp unter 170€ praktisch gleich teuer und die 260GTX imho das etwas bessere Angebot.

Bei NV vom verwendeten 180.48-Treiber 5% mehr Leistung, bei AMD von Cat 8.11 immerhin 10% mehr Leistung. Macht ungefähr einen Gleichstand unter 4AA und einen klaren Vorsprung unter 8AA für die 4870.

Undertaker
2009-03-20, 12:43:03
Mit dem kleinen Unterschied, dass der 182.06 schon einen Monat draußen ist, der Cat. 9.3 gerade frisch auf dem Markt...

Von 8xAA mag man als ATI-Nutzer halten was man will (ich mach es an wenn genug Leistung da ist, einen Unterschied sieht man Ingame aber ohne gut gewählte Vergleichsbilder aber nicht), auf einer aktuellen NV-Graka macht der Modus definitiv keinen Sinn. 4xAA ist weit schneller, 8xS weit hübscher und oft genug nutzbar - da fehlt mir als RV770-Nutzer definitiv ein passendes Pendant. Ein sinnvoller, einheitlicher und vergleichbarer Standard ist imho nur 4xAA. Wenn man einen Vorteil sehen möchte dann vielleicht im etwas größeren Speicher, wobei es auch dazu entsprechende Gegenargumente gibt (z.B. den deutlich größeren OC-Spielraum der 260GTX).

Unter 1680x1050, 4xAA und 16xAF ist die 4870 1GB weiter ein wenig langsamer. Bleibt die Frage, ob der lange Zeit günstigere Preis wieder entsprechend angepasst wird, gar nicht mal unwahrscheinlich.
In diesem Setting fehlen 23% auf die GTX280, wenn man von einer ähnlichen Performance für die 275GTX ausgeht, wird das schon ein harter Brocken für die HD4890.

Ailuros
2009-03-20, 12:49:20
Bei NV vom verwendeten 180.48-Treiber 5% mehr Leistung, bei AMD von Cat 8.11 immerhin 10% mehr Leistung. Macht ungefähr einen Gleichstand unter 4AA und einen klaren Vorsprung unter 8AA für die 4870.

Wie lange ist es denn her dass Du Dir die 8xAA Leistung auf GFs angesehen hast?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet

Maximal ist die 4870 1GB (ja bei vergleichbaren Treibern) um 5% schneller als eine 216/260.
Natuerlich sollte man erwaehnen dass NV die meisten <"D3D10" Spiele fuer derartige Optimierungen links liegen laesst.

***edit: typos
***edit: falsche Aufloesung

LovesuckZ
2009-03-20, 13:00:29
Edit: Was mir übrigens gerade auffällt: In 1680x1050 4xAA/16xAF liegen mittlerweile gigantische 40% zwischen 9800GT und HD3870. Zum HD3870 Launch waren es nur 8% Rückstand auf die identisch schnelle 8800GT... Was ist denn da passiert? So etwas kannte man aus der Vergangenheit ja eher umgekehrt.

Liegt am Design - die heutigen Spiele werden immer rechenintensiver und somit führt AA zum herben Leistungsverlust.

Ailuros
2009-03-20, 13:09:57
Liegt am Design - die heutigen Spiele werden immer rechenintensiver und somit führt AA zum herben Leistungsverlust.

Es handelt sich wohl eher darum dass sich die Kerle im Treiberteam endlich darauf konzentriert haben generell die AA Leistung besser zu optimieren (von 4xMSAA bis 16xQ).

reunion
2009-03-20, 13:10:26
Wie lange ist es denn her dass Du Dir die 8xAA Leistung auf GFs angesehen hast?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/20/#abschnitt_performancerating_qualitaet

Maximal ist die 4870 1GB (ja bei vergleichbaren Treibern) um 5% schneller als eine 216/260.
Natuerlich sollte man erwaehnen dass NV die meisten <"D3D10" Spiele fuer derartige Optimierungen links liegen laesst.

***edit: typos
***edit: falsche Aufloesung

Ja mit dem Cat 8.11.

Mit dem kleinen Unterschied, dass der 182.06 schon einen Monat draußen ist, der Cat. 9.3 gerade frisch auf dem Markt...


Dann nimmst du eben den Cat 9.2, der ist auch nicht langsamer und ebenfalls schon einen Monat am Markt.



Unter 1680x1050, 4xAA und 16xAF ist die 4870 1GB weiter ein wenig langsamer. Bleibt die Frage, ob der lange Zeit günstigere Preis wieder entsprechend angepasst wird, gar nicht mal unwahrscheinlich.
In diesem Setting fehlen 23% auf die GTX280, wenn man von einer ähnlichen Performance für die 275GTX ausgeht, wird das schon ein harter Brocken für die HD4890.

Da bleiben bestenfalls noch 5% für die GTX280, und die GTX275 wird wohl nicht ganz GTX280-Speed erreichen.

Undertaker
2009-03-20, 13:16:48
Gehst du von einer gestiegenen Pro-MHz-Leistung des RV790 aus? Die Taktraten liegen ja nur 13% höher, das würde nicht reichen.

Die Performance der 275GTX wird interessant, tendenziell würde ich in 1680x1050 4x/16x aber von mindestens gleicher Leistung zur 280GTX ausgehen. Deren Mehrspreicher und Bandbreitenvorteil wird erst darüber zur Geltung kommen... Reine Prognose meinerseits ;)

reunion
2009-03-20, 13:21:28
Gehst du von einer gestiegenen Pro-MHz-Leistung des RV790 aus? Die Taktraten liegen ja nur 13% höher, das würde nicht reichen.


23% mehr Leistung sind es bei CB aktuell maximal (meist sogar weniger): 13% mehr Leistung durch mehr Takt, 5% mehr durch den Treiber, bleiben noch 5%. Wenn die pro-Mhz-Leistung auch noch etwas steigt natürlich noch weniger.


Die Performance der 275GTX wird interessant, tendenziell würde ich in 1680x1050 4x/16x aber von mindestens gleicher Leistung zur 280GTX ausgehen. Deren Mehrspreicher und Bandbreitenvorteil wird erst darüber zur Geltung kommen... Reine Prognose meinerseits ;)

Die ROPs sind bei NV mit AA auch nicht unwichtig deshalb glaube ich nicht ganz an einen Gleichstand. Außerdem gibt es ja auch noch andere Auflösungen/Settings außer 1680x1050 4x/16x.

reunion
2009-03-20, 13:34:29
Von der GTX275 soll es anscheinend nicht mal ein Referenzdesign geben:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/maerz/geforce_gtx_275_herstellern/

Mal schauen wie viele Hersteller sich damit dann überhaupt beschäftigen. Laut Expreview sollen sich bei der GTX275 auch nur die Taktraten ändern.

Gast
2009-03-20, 13:48:38
Von der GTX275 soll es anscheinend nicht mal ein Referenzdesign geben:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/maerz/geforce_gtx_275_herstellern/

Mal schauen wie viele Hersteller sich damit dann überhaupt beschäftigen.Genügend.
PCBs gibts zur Genüge, sowohl alte Referenz als auch alte Herstellereigene.
Nur wenn ein Hersteller Spass an der Sache hat, kann er noch ein neues entwerfen.

Ailuros
2009-03-20, 13:54:25
Ja mit dem Cat 8.11.

8.11 gegen 180.48. Auf beiden Seiten haben seither die Treiber leicht zugelegt und beide haben noch lange nicht ihr Ende erreicht was Optimierungen betrifft. Den "klaren" Vorsprung der 4870 1GB mit 8xAA kann ich nicht sehen gegen eine 216/260.

Die ROPs sind bei NV mit AA auch nicht unwichtig deshalb glaube ich nicht ganz an einen Gleichstand.

GTX275 wird genauso viel aber hoeher getaktete ROPs als die GTX260 haben.

deekey777
2009-03-20, 16:15:17
Ist etwas alt: http://theovalich.wordpress.com/2009/03/14/nvidia-owes-millions-of-in-gtx295-backlog/

Gast
2009-03-20, 21:03:41
Liegt am Design - die heutigen Spiele werden immer rechenintensiver und somit führt AA zum herben Leistungsverlust.

genau umgekehrt, je mehr pro pixel gerechnet werden muss desto billiger wird AA.

Gast
2009-03-21, 12:15:34
genau umgekehrt, je mehr pro pixel gerechnet werden muss desto billiger wird AA.

Weder noch, da der Aufwand für ein Kantensample ja derselbe ist wie für ein nicht-Kantensample.

AnarchX
2009-03-25, 10:29:00
Nvidia wird wohl die GTX 275 noch etwas abschwächen, da die HD4890 unter ihren Erwartungen ist:
Our information source points out that GTX 275 won’t hit retail market until April 13th, though the launch date remains as April 6th.
[...]
Besides the adjustment of availability, the frequencies of GTX 275 will be reduced to somewhere lower than we reported. Viewed from this aspect, Radeon HD 4890 is not only below the expectations of AMD fans, but also below than that of NVIDIA.
http://en.expreview.com/2009/03/25/gtx-275-offered-later-with-lower-clocks.html#more-2804

Gast
2009-03-25, 10:32:18
Nvidia wird wohl die GTX 275 noch etwas abschwächen, da die HD4890 unter ihren Erwartungen ist:

Wird dann auch noch mal die Defaultspannung abgesenkt, was ja auch validiert werden müsste. Wäre hübsch für die Leistungsaufnahme und vielleicht TDP, aber schlecht für Übertakter. Was meint ihr, dreht man so kurz vor Launch noch an solchen Stellschrauben?

AnarchX
2009-03-25, 10:36:57
Und hier offenbar NVs nächster Schritt:

Eine Single-PCB GTX 295:

http://www.abload.de/img/214522668026174213452914wc.png (http://www.abload.de/image.php?img=214522668026174213452914wc.png)

http://en.expreview.com/2009/03/25/nvidias-scheme-of-single-pcb-reference-gtx295-outlined.html#more-2812

Zwei ~500mm² Dies und 2x 448-Bit auf ein PCB zu bringen ist doch imo schon eine Leistung. Zudem soll hierdurch noch die Kosten gegenüber der Sandwich-GTX 295 sinken.

Wird dann auch noch mal die Defaultspannung abgesenkt, was ja auch validiert werden müsste. Wäre hübsch für die Leistungsaufnahme und vielleicht TDP, aber schlecht für Übertakter. Was meint ihr, dreht man so kurz vor Launch noch an solchen Stellschrauben?

Das würde ich doch eher bezweifeln, im Endeffekt werden die Partner wohl die alte GTX 275 gleich als OC-Version verkaufen.

reunion
2009-03-25, 18:15:12
Sieht nicht so aus als ob die GTX275 so schnell kommen würde:

This move, however, caught Nvidia slightly off guard as their GTX 275 isn't ready yet and the clocks aren't even finalized. AIC partners haven't even got the samples to do internal testing and verifications so a hard launch for GTX 275 on the 2nd of April seems unlikely at this point of time.

http://vr-zone.com/articles/amd-brings-foward-hd-4890-launch-date-to-2nd-april/6795.html?doc=6795

deekey777
2009-03-25, 21:29:43
Nvidia stellt neue Grafikkarten für den professionellen Einsatz vor (http://www.heise.de/newsticker/Nvidia-stellt-neue-Grafikkarten-fuer-den-professionellen-Einsatz-vor--/meldung/135180)
Eine Desktop-Version der Quadro FX 3800 wäre schon interessant. Und 192 sind so herzlich gut durch 32 teilbar...

AnarchX
2009-03-25, 21:31:04
Ist aber ein G200B, wie es der Treiber schon vor Monaten verriet.

Gast
2009-03-27, 00:07:22
Nvidia stellt neue Grafikkarten für den professionellen Einsatz vor (http://www.heise.de/newsticker/Nvidia-stellt-neue-Grafikkarten-fuer-den-professionellen-Einsatz-vor--/meldung/135180)
Eine Desktop-Version der Quadro FX 3800 wäre schon interessant. Und 192 sind so herzlich gut durch 32 teilbar...
Was wäre daran interessant? Eine etwas abgespeckte GTX260...
Und warum sollte es auch durch 32 Teilbar sein??

Spasstiger
2009-03-27, 01:27:02
Und warum sollte es auch durch 32 Teilbar sein??
Er dachte da an die 40-nm-Spekulation, dass die SIMD-Prozessoren 32 MADD-Einheiten bekommen werden statt wie bisher 16 bzw. 24.
192 SPs und ein 256-Bit-Interface wären auch für den 40-nm-Performance-Chip GT215 denkbar.

KonKorT
2009-03-28, 00:26:17
In einem niederländischen Shop ist die GTX 275 (Sparkle) für 249 EUR bereits gelistet. Erhältlich soll sie nach Shop-Angaben erst in 10 Tagen sein. Spezifikationen werden bis auf die Speichergröße (896 MiB) keine genannt.

Quelle: DollarShops (http://dollarshops.eu/product/Sparkle/SXX275896D3S-VP/Sparkle%20GeForce%20GTX%20275%20896MB%20DDR3%20PCI-e%202xDVI%20HDCP)

reunion
2009-03-30, 13:41:30
GTX 275 auch am 2. April, wenn auch wohl nur Paperlaunch:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/maerz/terminkarussel_teil_2_gtx_275_2_april/

AnarchX
2009-03-30, 13:58:38
Bald auch die GTX 295 als Quadro FX 4900X2/5900X2 mit 3.5 bzw. 7GiB Speicher:
http://www.brightsideofnews.com/news/2009/3/28/nvidia-working-on-a-dual-gpu-quadro-with-35-7gb-of-ram.aspx

Da dürfte man wohl auch das neue Single-PCB einsetzen.

AnarchX
2009-03-30, 18:55:28
Galaxy GTX 275?:
http://img12.imageshack.us/img12/58/galaxy02.jpg (http://img12.imageshack.us/my.php?image=galaxy02.jpg)
http://www.expreview.com/news/hard/2009-03-30/1238386708d12039.html

Der verbaute Speicher ist ja ziemlich nett.:D

Spasstiger
2009-03-30, 19:10:03
Also mit dem Speichertakt wäre das abgespeckte SI mehr als wieder wett gemacht. Auch die anderen Taktraten sind sehr nett.

AnarchX
2009-03-30, 19:12:29
Wobei man das nicht überbewerten sollte, die Galaxy-Karten sind im Bezug auf das OC-Verhalten, meist etwas überdurchschnitttlich:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7190207#post7190207
... und leider bei uns nicht verfügbar.

Mal sehen, was andere Hersteller wie EVGA aus dem 275er-Die herausholen können.

reunion
2009-03-30, 19:44:56
Das wären ja GTX285 Taktraten?!

AnarchX
2009-03-30, 19:59:08
Die Karte hat wohl schon eine leichte Werksübertaktung.

aths
2009-03-30, 20:11:51
Ohne jegliches hin und her, ist GTX275 die direkte Antwort NV's auf RV790.GTX 275 ist die Weiterentwicklung der 260-er, die erst mit 6, dann mit 7 Clustern kam. Die Chips sind gut genug dass man heile (mit deaktivierten Clustern) für die 260-er nehmen muss was sich nicht rechnet zumal der 260-Preis stark unter Druck ist. Mit dem neuen Namen (bei der 260 bliebt es bei "260" egal ob 6 oder 7 Cluster) ist vorläufig auch ein besserer Preis drin.

reunion
2009-03-30, 20:16:02
Die Chips sind gut genug dass man heile (mit deaktivierten Clustern) für die 260-er nehmen muss was sich nicht rechnet zumal der 260-Preis stark unter Druck ist.

Und das schließt du woraus? NV braucht etwas gegen die 4890, völlig unabhängig von den Yieldraten.

Gast
2009-03-30, 20:19:00
Und das schließt du woraus? NV braucht etwas gegen die 4890, völlig unabhängig von den Yieldraten.
NV braucht etwas um die GT200b nicht wegschmeissen zu müssen oder als billig GPUs wie für die GTX 260 zu verscherbeln.

Ailuros
2009-03-31, 08:30:55
Und das schließt du woraus? NV braucht etwas gegen die 4890, völlig unabhängig von den Yieldraten.

Es ist kein Zufall dass fuer die 275 die gleichen chips benutzt werden wie auf der 295.

AnarchX
2009-03-31, 08:37:15
Nvidia stellt neue Grafikkarten für den professionellen Einsatz vor (http://www.heise.de/newsticker/Nvidia-stellt-neue-Grafikkarten-fuer-den-professionellen-Einsatz-vor--/meldung/135180)
Eine Desktop-Version der Quadro FX 3800 wäre schon interessant. Und 192 sind so herzlich gut durch 32 teilbar...
Offenbar sogar 600MHz ROP/TMU-Takt bei der FX 3800, trotz 108W TDP:
http://www.nvidia.com/object/IO_11761.html

reunion
2009-03-31, 09:14:48
Dafür wurden die Hälfte der ROPs deaktiviert.

AnarchX
2009-03-31, 09:39:15
Natürlich, aber insgesamt trotzdem keine schlechte Leistung, wenn man bedenkt, dass die Karte damit in normalen Anwendungen wohl um die 80W liegen sollte, bei wohl immerhin ~750GFLOPs.

Wäre der Die nicht so monströs groß, hätte man im Zusammenhang mit etwas schnellerem Speicher doch ein nette ~100€ Karte.

AnarchX
2009-03-31, 17:34:38
http://img187.imageshack.us/img187/2179/geforcegtx2753618670.png (http://img187.imageshack.us/my.php?image=geforcegtx2753618670.png)
http://www.xbitlabs.com/news/video/display/20090330182759_Nvidia_to_Unveil_New_Performance_Mainstream_Graphics_Cards_Earlie r_Than_Expected.html

Hier auf Basis einer SLI-deaktivierten GTX 295 simuliert und getestet gegen eine 4870@4890:
http://www.legionhardware.com/document.php?id=819&p=5

Insgesamt wohl das überzeugendere Paket, 1792MiB GTX 275 scheinen wohl laut Gerüchten auch in Aussicht zu sein.

Spasstiger
2009-03-31, 17:42:37
Sind die Taktraten aus dem Bild jetzt final?
Wenn ja, kommt man damit ziemlich exakt auf GTX-280-Niveau (außer bei VRAM-Limitierung). Also aus Performancesicht eine GTX 280 mit weniger Speicher.
Mein Skript liefert mir einen Vorteil von 6-7% gegenüber der HD 4890 (+/- 10% Prozentpunkte).

KonKorT
2009-03-31, 17:46:35
Ja, sie sind final.

derguru
2009-03-31, 18:41:10
die 275 gtx wird es bestimmt auch in der 1792 ram variante geben.
ach wurd schon gesagt:tongue:

Ailuros
2009-04-01, 07:15:23
die 275 gtx wird es bestimmt auch in der 1792 ram variante geben.
ach wurd schon gesagt:tongue:

Was noch nicht erwaehnt wurde ist dass es dem Normalverbraucher nicht besonders viel nutzen wird. Jemand der sie in eine Quadro via RT umkrempelt ist natuerlich dann die Ausnahme.

AnarchX
2009-04-01, 09:05:13
Was noch nicht erwaehnt wurde ist dass es dem Normalverbraucher nicht besonders viel nutzen wird. Jemand der sie in eine Quadro via RT umkrempelt ist natuerlich dann die Ausnahme.

Ob man wirklich 1792MiB benötigt ist natürlich fraglich, aber mehr als 896MiB je nach Spiel und Setting sind hingegen doch schon ratsam.
Wobei man dann natürlich gleich den Kauf einer GTX 285 abwegen sollte.

Ailuros
2009-04-01, 09:19:01
Ob man wirklich 1792MiB benötigt ist natürlich fraglich, aber mehr als 896MiB je nach Spiel und Setting sind hingegen doch schon ratsam.

Man benoetigt unter normalen Umstaenden genauso wenig 1792 auf einer 275 als auch 2000MB auf einer GTX285.

Wobei man dann natürlich gleich den Kauf einer GTX 285 abwegen sollte.

In wievielen noch spielbaren Faellen liegt eine GTX295 mit 896MB/Frame deutlich im Nachteil gegen eine GTX285 wegen dem 128MB Speicherunterschied?

derguru
2009-04-01, 09:21:16
In wievielen noch spielbaren Faellen liegt eine GTX295 mit 896MB/Frame deutlich im Nachteil gegen eine GTX285 wegen dem 128MB Speicherunterschied?

bei sli in einigen.(in hybrid modis)

Ailuros
2009-04-01, 09:23:42
bei sli in einigen.(in hybrid modis)

Na dann schiess mal los mit dokumentierten Beispielen.

derguru
2009-04-01, 09:30:43
in gothic3 habe ich mit einer 285 gtx bei 1920*1200 16xS/16af fast die selben fps werte wie eine 295gtx die sehr gut skaliert.
bei 16xS standbild im gegensatz zur 285gtx.Oblivion verhält sich auch so.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7030385&postcount=26
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7032019&postcount=14

bin selbst gespannt was jetzt bei der pcgh beim 2gb palit test rauskommt.

Ailuros
2009-04-01, 09:45:36
in gothic3 habe ich mit einer 285 gtx bei 1920*1200 16xS/16af fast die selben fps werte wie eine 295gtx die sehr gut skaliert.
bei 16xS standbild im gegensatz zur 285gtx.Oblivion verhält sich auch so.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7030385&postcount=26
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7032019&postcount=14

Dafuer fehlt mir ein Vergleich mit SLi-AA mit einer analogen Portion von SSAA wie 16xS (und ich wuerde persoenlich auch SFR Faelle gleich mittesten), wo es eine bessere Unterteilung zwischen den GPUs gibt was AA generell betrifft. Ausser Dir hat jemand erzaehlt dass sich jemand im Treiberteam ueber Leistungsoptimierungen fuer unoffizielle AA-modi schert.

James Ryan
2009-04-01, 09:47:05
http://img187.imageshack.us/img187/2179/geforcegtx2753618670.png (http://img187.imageshack.us/my.php?image=geforcegtx2753618670.png)
http://www.xbitlabs.com/news/video/display/20090330182759_Nvidia_to_Unveil_New_Performance_Mainstream_Graphics_Cards_Earlie r_Than_Expected.html

Hier auf Basis einer SLI-deaktivierten GTX 295 simuliert und getestet gegen eine 4870@4890:
http://www.legionhardware.com/document.php?id=819&p=5

Insgesamt wohl das überzeugendere Paket, 1792MiB GTX 275 scheinen wohl laut Gerüchten auch in Aussicht zu sein.

Sehr interessant, dass die GTX275 nun doch mit vollen SPs kommt. :)
Habe dazu jetzt mal eine Überlegung:
Wäre es möglich, ein GTX275 Bios auf eine GTX260 zu flashen, um damit vielleicht sogar die abgeschalteten SPs freizuschalten?
Oder sind diese wirklich per Laserlock nicht aktivierbar?
Bei ATi-Karten ist dies ja meist problemlos möglich.

MfG :cool:

AnarchX
2009-04-01, 09:51:33
Sehr interessant, dass die GTX275 nun doch mit vollen SPs kommt. :)
Habe dazu jetzt mal eine Überlegung:
Wäre es möglich, ein GTX275 Bios auf eine GTX260 zu flashen, um damit vielleicht sogar die abgeschalteten SPs freizuschalten?
Oder sind diese wirklich per Laserlock nicht aktivierbar?
Bei ATi-Karten ist dies ja meist problemlos möglich.


Wird sich zeigen müssen, aber ich bezweifele es doch eher, selbst wenn es kein Laserlock ist, kann es auch ein anderer Mechanismus sein, denn man ausserhalb der Fertigung nicht beinflussen kann.

Charlie@INQ gab gestern von sich, dass es keine GTX 275 GPUs geben soll und die Hersteller selbst auf Basis von GTX 260 oder 285 GPUs sich die Karten bauen sollen.;D

Ailuros
2009-04-01, 09:58:39
Charlie@INQ gab gestern von sich, dass es keine GTX 275 GPUs geben soll und die Hersteller selbst auf Basis von GTX 260 oder 285 GPUs sich die Karten bauen sollen.;D

Ein netter Aprilscherz von Charlie waere wenn er endlich mal selbst das geringste positive ueber NVIDIA schreiben wuerde ;D

James Ryan
2009-04-01, 09:59:36
Ich werds mal testen, (morgen ist ja schon der 2. April) habe ja eine PCI-Karte für den Notfall da.

MfG :cool:

AnarchX
2009-04-01, 10:17:42
GTX 390 - Quad-GPU-Karte:
http://img6.imageshack.us/img6/7016/img12873732111.jpg (http://img6.imageshack.us/my.php?image=img12873732111.jpg)
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.extrahardware.cz%2Fnode%2F3266&sl=cs&tl=de&hl=de&ie=UTF-8

;D

Hmmm... ziemlich aufwendiger Scherz - viele Bilder der Karte. Wohlmöglich gar doch eine 4-GPU Quadro... :uponder:

James Ryan
2009-04-01, 12:38:02
Bisschen kleiner Lüfter für 4 GPUs oder?
Naja, vielleicht dreht der auch mit 80.000 rpm.

MfG :cool:

AnarchX
2009-04-01, 13:30:52
Mehr als 375W dürfte die Karte auch nicht benötigen, siehe Stromstecker.

Aber in der Tat ein etwas seltsamer/sehr guter Fake?, 256-Bit wie die QFX 3800 mit 108W TDP und zwei Display Ports.

Ich könnte mir durchaus vorstellen, dass das vielleicht doch ein Sample einer Quadro FX 5x00 X4 für das neue Multi-OS SLI sein könnte. Bei B3D meint man aber, dass die Stromversorgung wohl zu gering ausgelegt sein. In der Tat erkennt man ja hier eine Phasen und Co.

Gast
2009-04-01, 14:04:13
sehr guter Fake, nur haben die einige kleinigkeiten vergessen/übersehen:

IO Chips gibt es keine
NF200 fehlt auch
Die GPUs sind für G200 Chips zu klein

Gast
2009-04-01, 14:07:25
... was ich aber komisch finde, wie kommen die auf 448Bit / 3584 MB GDDR3? Man sieht ja klar das es nur 256Bit pro GPU sind und das gibt 2 oder 4GB Speicher...

KonKorT
2009-04-01, 14:13:50
Ich kenne den Administrator der Seite. Es handelt sich ebenfalls um einen April-Scherz. Aber in der Tat einer der Besten. :)

AnarchX
2009-05-12, 17:27:42
Single-PCB GTX 295:

http://img410.imageshack.us/img410/9841/inno3dgeforcegtx295plat.jpg (http://img410.imageshack.us/my.php?image=inno3dgeforcegtx295plat.jpg)
http://img266.imageshack.us/img266/9841/inno3dgeforcegtx295plat.jpg (http://img266.imageshack.us/my.php?image=inno3dgeforcegtx295plat.jpg)

http://en.expreview.com/2009/05/12/the-first-single-pcb-gtx295-from-inno3d-unearthed.html

AnarchX
2009-05-24, 11:04:34
G200@256-Bit - Quadro FX 3800:
http://img38.imageshack.us/img38/8637/0010690515739872.jpg (http://img38.imageshack.us/my.php?image=0010690515739872.jpg)
http://www.pcpop.com/doc/0/401/401925_1.shtml

Schlammsau
2009-05-26, 12:07:09
GeForce GTX 295 mit einem PCB völlig entblättert (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/geforce_gtx_295_pcb/)

http://pics.computerbase.de/2/5/7/1/7/18_m.jpg

http://vga.zol.com.cn/134/1347612.html

AnarchX
2009-05-28, 18:03:21
ASUS MARS 295 Limited Edition:
(http://www.computerbase.de/news/hardware/grafikkarten/2009/mai/asus_monster-dual-gtx_285_4_gb/)

http://img507.imageshack.us/img507/7646/38385673.jpg (http://img507.imageshack.us/my.php?image=38385673.jpg)

Spasstiger
2009-05-28, 20:46:43
Zur Asus Mars 295: Quad-SLI mit effektiv viermal GTX 285 2 GiB. Ob da jemand aus dem Forum schwach wird? :biggrin:

pervert
2009-06-17, 04:45:55
Die Asus Mars wird saubillig, im Six-Pack beim ALDI für 99,95 Euro!!!

Leider können aufgrund der bekannten Limitierung nicht alle Filialen beliefert werden ;)

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juni/asus_mars_295_gtx_285/