PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : wird der nv40 auch wirtschaftlicher erfolg?


anorakker
2004-04-14, 17:32:03
so, habe gerade mal ein paar reviews gelesen und kann nvidia eigentlich nur beglückwünschen..haben tatsächlich eine next-gen karte hingelegt, wie versprochen..

ich frage mich aber ernsthaft ob nvidia mit diesem "monster" auch wirtschaftlich erfolgreich sein wird, 220 millionen transis und gddr3, aufwendiges board und teurer lüfter - der angepeilte preis erscheint mir tatsächlich sehr (zu ?)günstig zu sein (selbst der einstiegspreis)..

seahawk
2004-04-14, 18:07:33
Ich sage mal ja.

Besonders weil der Chip ja möglicherweise so schön zu "zerteilen" ist. Da kommen bestimmt auch noch eigenständige 8 und 4 Pipe Varianten, die entsprechend weniger transisotren haben werden.

Xmas
2004-04-14, 18:38:14
Man kann den NV40 und seinen wirtschaftlichen Erfolg praktisch gar nicht losgelöst von der restlichen NV4x-Familie betrachten. Schließlich zählt auch die Image-Wirkung, und die Entwicklungskosten teilen sich auf die gesamte Familie auf. Von den reinen Produktionskosten rechnet sich eine GeForce 6800 Ultra Karte ganz sicher, auch bei $399.

Mr. Lolman
2004-04-14, 19:45:48
Die Karten sollen 499$ kosten.

robbitop
2004-04-14, 19:47:36
bei Features wie Shader 3.0 und Videoprocessor werden die OEMs auf die NV4x Familie fliegen. Ich denke die lowcost/Midrange Modelle werden sich gut verkaufen.

Xmas
2004-04-14, 19:58:02
Original geschrieben von Mr. Lolman
Die Karten sollen 499$ kosten.
Zu Beginn, und als SRP. Ob das lange so bleibt, wird von ATI beeinflusst. Trotzdem wäre die Karte schon bei $399 profitabel.

Gast
2004-04-14, 21:50:17
Mit den Features an Board wird die NV4x Familie ziemlich gut sein, vor allem im OEM-Bereich. Bis auf Kleinigkeiten die der Refreshchip vielleicht noch ausbuegeln kann ist doch fast alles an Bord was man sich wuenschen kann.

Die Wunschliste vom Refrehs fuer den User koennte so aussehen: 6x und 8xR/SGMSAA, den >4AF-Murks weg, weniger Leistungsaufnahme und natuerlich schneller (wer haette es gedacht :D)

Fuer nVidia wird ganz oben auf der Wunschliste die Freigabe von DX9.0c von MS stehen. Ob und wieviel es bringt werden wir sehen.
IMHO steht fest das sehr viele bis alle Spielehersteller einen PS/VS 3.0 Patch nachliefern werden: Die 'alten' Grakas werden nicht beeinflusst, man ist 'up to date' (Imagege und so), es ist relativ leicht nachzuliefern (Aufwand recht gering) und man kann schon mal 'ueben' wenn (falls?) ATI noch einen PS/VS 3.0 Chip einschiebt bzw den R500 loslaesst. So gesehen gibt es keinen Grund NICHT PS/VS 3.0 zu unterstuetzen.

HOT
2004-04-15, 13:53:02
Das war damals bei ATI schon wirtschaftlich mit dem R300, bei NV isses das auch. Sind ja teuer genug die Dinger, jedenfalls zu Anfang.

DrumDub
2004-04-15, 14:02:33
Original geschrieben von HOT
Das war damals bei ATI schon wirtschaftlich mit dem R300, bei NV isses das auch. Sind ja teuer genug die Dinger, jedenfalls zu Anfang.

jo, aber das dicke geld wir nicht mit dem high-end verdient, da dort die stückzahlen viel zu gering sind. der umsatz im low-end bzw. oem-geschäft macht den gewinn aus. :)

HOT
2004-04-15, 15:06:46
Original geschrieben von DrumDub
jo, aber das dicke geld wir nicht mit dem high-end verdient, da dort die stückzahlen viel zu gering sind. der umsatz im low-end bzw. oem-geschäft macht den gewinn aus. :)

Meiner Meinung nach wird das meiste Geld in Midrange (jetzt Radeon9600 bis XT und NV 5200U bis 5700) verdient, weil im Ultra-Lowend bis Lowend OEM Bereich die Gewinne pro Stück einfach sehr niedrig sind. Aber es sind auf jeden Fall alle 3 Sparten die Gewinn machen.

drmaniac
2004-04-16, 09:19:43
Original geschrieben von Gast


Die Wunschliste vom Refrehs fuer den User koennte so aussehen: 6x und 8xR/SGMSAA, den >4AF-Murks weg, weniger Leistungsaufnahme und natuerlich schneller (wer haette es gedacht :D)

warum soll alles groesser als 4x weg :D

Thomas_B
2004-04-16, 10:01:28
Original geschrieben von robbitop
bei Features wie Shader 3.0 und Videoprocessor werden die OEMs auf die NV4x Familie fliegen. Ich denke die lowcost/Midrange Modelle werden sich gut verkaufen.

Das glaueb ich weniger!

Die OEM's werden bestimmt nicht plötzlich 30 USD mehr ausgeben wollen für ein stärkeres Netzteil.

Weiterhin, wird es vor July keine Ware geben, bis ein OEM eine NV40 zertifiziert hat vergehen dann nochmal 12 Wochen!

Dann haben wir September und PCI-Express ist da!

Also ein bissel vorher überlegen bevor ich etwas behaupte!

Thomas_B
2004-04-16, 10:04:39
Original geschrieben von DrumDub
jo, aber das dicke geld wir nicht mit dem high-end verdient, da dort die stückzahlen viel zu gering sind. der umsatz im low-end bzw. oem-geschäft macht den gewinn aus. :)

Das glaube ich nicht !

1. Wird der Gewinn im Midrange bis Highend gemacht
2. Belegt doch gerade der Geschäftsbericht von nvidia und Ati auch diesen Umstand.

Die Marktanteile im Entrylevel sind bei nvidia noch stabil geblieben, sie haben aber mehr als 60% im Midrange bis Highend verloren.

Das belegen die Gewinne die ATI gemacht hat und die Verluste die nvidia auf der anderen Seite gemacht hat.

aths
2004-04-16, 10:15:13
Original geschrieben von anorakker
ich frage mich aber ernsthaft ob nvidia mit diesem "monster" auch wirtschaftlich erfolgreich sein wird, 220 millionen transis und gddr3, aufwendiges board und teurer lüfter - der angepeilte preis erscheint mir tatsächlich sehr (zu ?)günstig zu sein (selbst der einstiegspreis).. Nvidia hat die Entwicklung vom NV40 ca. 300 Millionen Dollar gekostet. Alleine mit dem NV40 holen sie das nicht rein. Aber wenn erst mal die Mittelklassen- und Einsteiger-Versionen kommen, und sie es schaffen, damit im OEM-Segment gut darzustehen, dürften sie anständige Gewinne einfahren.

ow
2004-04-16, 10:17:46
.

aths
2004-04-16, 10:18:47
Original geschrieben von Thomas_B
Das glaube ich nicht !

1. Wird der Gewinn im Midrange bis Highend gemacht
2. Belegt doch gerade der Geschäftsbericht von nvidia und Ati auch diesen Umstand.Meinst du, die Lowcost-Schiene fahren sie aus Menschenfreundlichkeit?

aths
2004-04-16, 10:20:14
Original geschrieben von robbitop
bei Features wie Shader 3.0 und Videoprocessor werden die OEMs auf die NV4x Familie fliegen. Ich denke die lowcost/Midrange Modelle werden sich gut verkaufen. Abwarten. Die Vorzeichen stehen natürlich gut, aber man weiß ja noch nicht, wie teuer die einzelnen Chips bzw. Boards werden. NV könnte auch versuchen, erst mal mit der FX-Schiene das Einstiegssegment im OEM-Bereich zu bedienen.

aths
2004-04-16, 10:21:18
Original geschrieben von Thomas_B
Das glaueb ich weniger!

Die OEM's werden bestimmt nicht plötzlich 30 USD mehr ausgeben wollen für ein stärkeres Netzteil. Der NV40 zieht so viel Strom, weil er so stark ist. Dabei ist er erstaunlich effizient. Weniger starke Karten, die aufgrund der Effizient aber in der Praxis schön schnell sind, könnten durchaus weniger Strom ziehen, als bisherige Modelle.

Original geschrieben von Thomas_B
Also ein bissel vorher überlegen bevor ich etwas behaupte! Dann ist ja gut.

aths
2004-04-16, 10:25:15
Original geschrieben von ow
Genau so sieht's aus.
Fuer OEMs wird es diese Jahr wohl nichts attraktiveres geben als einen NV4x Chip im lowcost segment. Nur, wenn der Chip wirklich lowcost wird – und gleichzeitig gut. Mir würde es z. B. nicht gefallen, wenn wieder die meisten Effizienz-Features geopfert werden. Als echten lowcost-Chip hat NV noch die GF4MX in Hinterhand. Danach die FX 5200. Eine hypothetische 6200 sollte bitte nicht so kastriert wie die 5200 sein.

Wir werden sehen, was NV uns anbietet.

robbitop
2004-04-16, 10:26:33
@Thomas
wie aths schon sagte, meinte ich die NV40 Familie.
Sprich den 8 4 oder sogar 2 Pipelineableger.
Diese sollten deutlich genügsamer sein.
Zu deiner Info: NV40 lief bei Leo mit einem 300W NT und es sind nur knapp 20W mehr Leistungsaufnahme als bei R9800XT/FX5950.

natürlich sind meine prognostiezierungen nicht sicher, aber es sieht gut aus. FX5200 war nicht sonderlich schnell, aber dank überlegener Featurelist, die meistverkaufte DX9 Karte.
Finanziell war NV3x nicht so schlimm für NV wie die Leistung die diese Familie bot ;)

aths
2004-04-16, 10:29:15
Im Vergleich zur FX halte ich den NV40 "pro Transistor" eigentlich für recht genügsam. Die Zahlen habe ich jetzt leider nicht zur Hand. Kann ja jemand was zu sagen?

robbitop
2004-04-16, 11:00:42
habe doch schon gesagt was ich gelesen hab.
DaveKirk: 120W Maximal
THG misst 110W
Gamestar 80-95W je nach Situation.
Man hat nur 25W ggü dem Vorgänger von ATi/NV zugenommen.
Liegt aber auch am niedrigen Chiptakt und am GDDR3.

aths
2004-04-16, 11:03:36
Ich meine, was die FX-Serie angeht.

Tmoas_B
2004-04-16, 11:11:42
Original geschrieben von aths
Meinst du, die Lowcost-Schiene fahren sie aus Menschenfreundlichkeit?

ATHS, kannst du bitte in ganzen Sätzen antworten bzw. diskutieren. Deine Antwort ist einfach nur Kontra ohne jegliche Begründung.

Wenn dir der Geschäftsbericht von nvidia und ati vorliegen würde würdest du die Zusammenhänge verstehen.

robbitop
2004-04-16, 11:21:22
naja die FX5950 hat ~90W Verlustleistung, laut PCGH sogar 100W.
Es gibt Leistungsmessungen von der 5900XT die von knapp 60W sprechen (128MB und niedrigere Takte).

ich hoffe das ist, was du suchst =)

DrumDub
2004-04-16, 11:43:44
aths

ich verweise auf dieses posting von mir:

eben. ich weiß gar nicht, warum die leute über die leistungsaufnahme meckern. relativ gesehen hat sich die leistungsaufnahme zum nv38 in etwa halbiert. man könnte natürlich auch von einer verdopllung der effizienz sprechen. 105 (nv38) vs. 111 (nv40)* watt bei 127 vs. 222 millionen transistoren finde ich mehr als beeindruckend.

* quelle: http://www.hardware.fr/articles/491/page11.html

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1730772#post1730772

;)

aths
2004-04-16, 11:59:36
Original geschrieben von Tmoas_B
ATHS, kannst du bitte in ganzen Sätzen antworten Ich antworte in ganzen Sätzen :)
Original geschrieben von Tmoas_B
bzw. diskutieren. In die Diskussion warf ich den Einwand, dass im Lowcost-Bereich massenhaft Chips verkauft werden. Die werden sicherlich daran verdienen. Bei der kleinen Marge kommt der Gewinn dann über die Stückzahlen. Sonst wären die Kapazitäten besser genutzt, sich auf andere Marktsegmente zu konzentrieren. Z. B. Sapphire baut sehr viele extrem schwache Karten, die Mittelklasse ist auch noch stark und im High-End-Bereich werden kaum noch Karten verkauft; entsprechend wenige werden gebaut.

Die NV40-Architektur ist darauf vorbereitet, auch mit nur 2 Pipes zu arbeiten. Sicher nicht ohne Hintergedanken ...

Original geschrieben von Tmoas_B
Wenn dir der Geschäftsbericht von nvidia und ati vorliegen würde würdest du die Zusammenhänge verstehen. Da gucke ich übers WE mal rein.

Zool
2004-04-16, 12:11:28
Vergleicht man die Preise einer kompletten Gf 6800 500€ mit den Preisen für einen P4-EE (3.2Ghz) 900€ (bei Alternate) muß NVidia entweder ganz viel Minus bei der GPU machen oder Intel, ganz, ganz viel Plus.
Zumal bei der Graka noch die Preise für RAM, Board etc. in den 500€ drin sind.

Auch wird die Ausbeute bei dem 222Mill Monster Die im 0.13 Prozeß nicht sehr hoch sein. Wenn man noch die Kosten rechnet, die Nvidia and IBM für die Fertigung zahlt, können die außer Prestige an der GF 6800 gar nichts verdienen.

Es sei den eine billige GF6200 mit 2 oder 4 Pipes wird der große Renner.

Windi
2004-04-16, 12:18:47
Ich frag mich gerade warum eine Billigversion des NV40 so toll sein soll für den OEM Markt.

Was hat der Chip denn für neue Features, die ein OEM Käufer kennt. Hat er eine höhere DirectX Nummer? Noe! Was suggeriert einem OEM Käufer mehr Leistung? 3.0 Shader oder 256 MB Speicher. Die Antwort dürfte klar sein (gerade da er mit Shadern nichts anfangen kann).

OEM Kunden kenn sich oft nicht gut aus und kennen meist nur Taktrate, Speichermenge und die DirectX-Nummer. Auch informieren sich die meisten nicht über die Leistung der Karten und da macht es keinen Unterschied ob die 6200 jetzt doppelt so schnell währe wie eine 5200.
Nicht das ihr jetzt denkt ich fände eine 6200er Karte schlecht, aber ich denke das die meisten Käufer den Unterschied gar nicht verstehen würden.

DrumDub
2004-04-16, 12:23:01
Original geschrieben von Zool
Vergleicht man die Preise einer kompletten Gf 6800 500€ mit den Preisen für einen P4-EE (3.2Ghz) 900€ (bei Alternate) muß NVidia entweder ganz viel Minus bei der GPU machen oder Intel, ganz, ganz viel Plus.

letzteres, denke ich: http://www.golem.de/0404/30782.html

ist zwar nicht ganz fair von den intel geschäftszahlen auf den p4-ee zu schliessen, aber dennoch glaube ich nicht daran, dass nv mit der 6800u verlust macht.

Windi
2004-04-16, 12:24:47
Mir ist gerade noch eingefallen das der 5200 wohl immer noch in 150nm gefertigt wird, wenn der 6200 jetzt in 130nm oder sogar schon 110nm gefertigt würde, dann wären beide Chips vielleicht gleich teuer. Allerdings glaube ich nicht das man den 5200er so schnell auslaufen lassen wird. Der 5200 ist halt die perfekte OEM-DirectX9 Karte.
Und wenn die 6200 irgendwann mal kommt, wird sie wohl sehr stark kastriert sein werden.

DrumDub
2004-04-16, 12:26:09
Original geschrieben von Windi
Ich frag mich gerade warum eine Billigversion des NV40 so toll sein soll für den OEM Markt.

Was hat der Chip denn für neue Features, die ein OEM Käufer kennt. Hat er eine höhere DirectX Nummer? Noe! Was suggeriert einem OEM Käufer mehr Leistung? 3.0 Shader oder 256 MB Speicher. Die Antwort dürfte klar sein (gerade da er mit Shadern nichts anfangen kann).

OEM Kunden kenn sich oft nicht gut aus und kennen meist nur Taktrate, Speichermenge und die DirectX-Nummer. Auch informieren sich die meisten nicht über die Leistung der Karten und da macht es keinen Unterschied ob die 6200 jetzt doppelt so schnell währe wie eine 5200.
Nicht das ihr jetzt denkt ich fände eine 6200er Karte schlecht, aber ich denke das die meisten Käufer den Unterschied gar nicht verstehen würden.

die gf4mx wird afaik auch noch im oem-markt verkauft, obwohl sie technologsiche steinzeit ist. wer sagt denn, dass nv nicht einfach weiter die 5200 im oem-markt in großen stückzahlen verkauft?

edit für windi: hihi... da hatten wir wohl beide den gleichen gedankengang. ;)

ow
2004-04-16, 12:38:04
.

aths
2004-04-16, 13:28:07
Original geschrieben von ow
Klar werden wir das erst sehen, wenn's soweit ist.
Aber was soll den an der 5200 so kastriert sein? Viel ist es doch nicht, was ggue. den groesseren Chips fehlt.Die Leistung ist sehr schwach. Kein Wunder angesichts der Architektur, zumal bis auf Early Z (und afaik Fast Z Clear) die LMA-Features fehlen.
Original geschrieben von ow
Mehr als ein 4x1 Design wird aber eine hypothetische GF6200 IMO nicht bieten. Fuer die <80$ Preisklasse reicht das doch auch. Mit 4 Pipes bei sagen wir 250-300 MHz wäre der Chip wohl schon zu gut, um wirklich der Einsteiger-Chip zu sein. Ein 2-Pipe-Design (mit 64 Bit RAM), was kommen könnte, dürfte dann wieder sehr schwach sein. Wir werden dann ja sehen, welche Chips noch kommen, und wie sie abschneiden.

ow
2004-04-16, 13:41:49
.

Gast
2004-04-16, 13:46:25
Denkt ihr Nvidia wird wie Ati defekte Pipes deaktivieren und diese Chips dann umlabeln => billige oder ? und darum die skalierbare Architektur??

DrumDub
2004-04-16, 13:48:15
Original geschrieben von ow
Ja, der Gedanke, dass 4x1 Pipes schon zu leistungsstark fuer das lowcost-segment sind kam mir auch kurz nach meinem obigen Posting. Vielleicht sind es ja 2x1 bei 350+ MHz. Wir werden sehen.:)

soll der rv370 nicht nen 4x1 design sein für unter 90€?

LovesuckZ
2004-04-16, 13:53:45
Original geschrieben von DrumDub
soll der rv370 nicht nen 4x1 design sein für unter 90€?

Gibt es auch schon als 5600XT. Naja, fast immer :)

DrumDub
2004-04-16, 13:59:45
Original geschrieben von LovesuckZ
Gibt es auch schon als 5600XT. Naja, fast immer :)

die 9600se ja auch. ;)

ow
2004-04-16, 14:17:41
.

DrumDub
2004-04-16, 14:46:17
Original geschrieben von ow
Fuer den 6800 non-Ultra scheint sowas geplant (12 statt 16 Pipes), bei den lowcost-Chips macht das IMO keinen Sinn.


natürlich könnte nvidia auch auf die idee kommen die nv40s mit drei defekten quads als 6200er zu verkaufen. :freak:

HOT
2004-04-16, 14:51:28
Original geschrieben von Zool
Vergleicht man die Preise einer kompletten Gf 6800 500€ mit den Preisen für einen P4-EE (3.2Ghz) 900€ (bei Alternate) muß NVidia entweder ganz viel Minus bei der GPU machen oder Intel, ganz, ganz viel Plus.
Zumal bei der Graka noch die Preise für RAM, Board etc. in den 500€ drin sind.

Auch wird die Ausbeute bei dem 222Mill Monster Die im 0.13 Prozeß nicht sehr hoch sein. Wenn man noch die Kosten rechnet, die Nvidia and IBM für die Fertigung zahlt, können die außer Prestige an der GF 6800 gar nichts verdienen.

Es sei den eine billige GF6200 mit 2 oder 4 Pipes wird der große Renner.

Ein P4EE kostet weniger als 100$ pro stück in der Fertigung hab ich mal gelesen.
Ein Athlon (ohne 64) kostet knapp 50 soweit ich weiss. NV muss dann den Chip für 100-120$ pro Stück minimum anbieten um daran Gewinn zu machen wenn man nach der Logik geht.

Im Endeffekt sind aber die Kosten der unsichere Faktor. Wieviel kosten die TSMC oder IBM Fabs im Gegensatz zur Fab30 oder zu den Intel Fabs (Technik, Wartung, Personal usw.) wirklich? Man weiss es nicht.

DrumDub
2004-04-16, 14:59:17
Original geschrieben von HOT
Ein P4EE kostet weniger als 100$ pro stück in der Fertigung hab ich mal gelesen.
Ein Athlon (ohne 64) kostet knapp 50 soweit ich weiss. NV muss dann den Chip für 100-120$ pro Stück minimum anbieten um daran Gewinn zu machen wenn man nach der Logik geht.

Im Endeffekt sind aber die Kosten der unsichere Faktor. Wieviel kosten die TSMC oder IBM Fabs im Gegensatz zur Fab30 oder zu den Intel Fabs (Technik, Wartung, Personal usw.) wirklich? Man weiss es nicht.

auf jeden fall sind die margen für intel bei deren cpus weitaus besser als für nv oder ati bei deren gpus.

aths
2004-04-16, 15:19:26
Original geschrieben von aths
Da gucke ich übers WE mal rein. Zitat: "We have five major product families: GeForce, nForce, GeForce Go, Quadro and TNT2."

Im Jahre 2003 wurde TNT2 noch als "major product family" bezeichnet.

aths
2004-04-16, 15:21:21
Original geschrieben von Windi
OEM Kunden kenn sich oft nicht gut aus und kennen meist nur Taktrate, Speichermenge und die DirectX-Nummer. Der Kunde bekommt, jedenfalls nehme ich an dass das NVs Strategie sein wird, eingehämmert, dass es jetzt unbedingt eine 6-er GeForce sein muss.

Original geschrieben von Windi
Auch informieren sich die meisten nicht über die Leistung der Karten und da macht es keinen Unterschied ob die 6200 jetzt doppelt so schnell währe wie eine 5200."Wäre" bitte ohne h schreiben. Danke :)

aths
2004-04-16, 15:27:12
Original geschrieben von ow
Wenn wir mal von den DX9 Shadern absehen ist die Leistung einer 5200 gar nicht einmal so schlecht. Natuerlich an ihrer Preisklasse gemessen.In DX9 ganz, ganz übel, ja. In DX8 auch nicht gerade blendend. Letztlich ist die Leistung auf dem Niveau einer GF2 GTS/Pro, sofern man eine (seltene) 128-Bit-Version hat.

Die "normalen" 5200-er sind ja auf 64 Bit kastriert. Da reicht es vielleicht für Quake3.

Original geschrieben von ow
Ja, der Gedanke, dass 4x1 Pipes schon zu leistungsstark fuer das lowcost-segment sind kam mir auch kurz nach meinem obigen Posting. Vielleicht sind es ja 2x1 bei 350+ MHz. Wir werden sehen.:) Radeon 9600 und GeForce FX 5700 mit 4x1 sind ja relativ fix. Jedenfalls gut genug für normale Spiele, um sie in mittleren Auflösungen mit AA+AF zu spielen. Angesichts der verbesserten Effizienz im NV40 müsste eine NV40-Version mit 4 Pipes, wenn noch die ganzen Effizienz-Features drin sind, ein gutes Stück schneller sein.

Für 16 Pipes ist das 256-Bit-Interface eigentlich zu knapp, für 8 Pipes schon etwas zu stark. Für 4 Pipes reichen also 128 Bit noch gut aus, für 2 Pipes wäre man mit 64 Bit ganz gut bedient. (Diese Milchmädchenrechnung lässt andere Datenströme, wie z. B. Geometriebandbreite, außer Betracht.)

64 Bit DDR (128 Bit pro Takt) ist aber bekanntermaßen nicht sonderlich toll. Die Füllrate einer 5200 kann bei einem 64-Bit-Interface afaik lange nicht ausgespielt werden. Hier limitiert klar der Speicher. Das kann bei einer auf NV40-basierenden Architektur – neue Colorcompression hin oder her – kaum anders sein. Und wenn man schon so kleine Chips baut, es also auf jeden Transistor ankommt, kann ich mir vorstellen dass die Architektur ordentlich gerupft wird. Spieletaugliche Leistung erwarte ich dann nicht mehr.

Freunde könnte sich NV mit einer auf preiswert getrimmten 8-er Version machen. Quasi ein NV40 / 2, (also nur 3 VS, usw.) Der ordentlich abgespeckte Chip sollte einigermaßen gut taktbar sein und käme zur Not mit einem 128 Bit breiten Datenbus aus. Für die Performance-Freaks, die keine 6800 kaufen wollen, könnte NV den Chip vielleicht auf 500+ MHz treiben, und ihn mit einem 256-er Interface versehen. Dafür muss der RAM nicht so hoch getaktet werden, und das sollte insgesamt noch immer preiswerter als die 6800 sein.

Ich bin jedenfalls gespannt, welche Modelle wir im einzelnen sehen werden.

Quasar
2004-04-16, 15:49:02
Original geschrieben von aths
Der Kunde bekommt, jedenfalls nehme ich an dass das NVs Strategie sein wird, eingehämmert, dass es jetzt unbedingt eine 6-er GeForce sein muss.


Ja, das sagte DK auch in Genf auf die Frage, warum das "FX" in der neuen Serie fallengelassen wurde. "GeForce 6 Series" sei einprägsamer und würde nicht so leicht mit der "GeForce FX 5xxx" Bezeichnung verwechselt...

Ein Schelm wer böses dabei denkt.

Gast
2004-04-16, 17:03:30
Es wird gesagt, dass der NV40 ein etwa 500 Watt Netzteil voraussetzt. Dies sagt jedoch nicht viel aus. Es kommt darauf an, wie effizient das Netzteil ist. So lief die Ultraversion beim Test von 3DCenter auch mit 350 Watt und sogar mit 300 Watt Netzteilen. Selbstverständlich kommt es auch darauf an, wie viel "Schnick-Schnack", wie Fesplatten, DVD-Laufwerk, Karten etc. verbaut sind.

DrumDub
2004-04-16, 17:23:44
Original geschrieben von Gast
Es wird gesagt, dass der NV40 ein etwa 500 Watt Netzteil voraussetzt. Dies sagt jedoch nicht viel aus. Es kommt darauf an, wie effizient das Netzteil ist. So lief die Ultraversion beim Test von 3DCenter auch mit 350 Watt und sogar mit 300 Watt Netzteilen. Selbstverständlich kommt es auch darauf an, wie viel "Schnick-Schnack", wie Fesplatten, DVD-Laufwerk, Karten etc. verbaut sind.

exakt. das mit den 480w-psu war wohl eher ne vorsichtsmaßnahmen von nvidia. insgesamt verbraucht die 6800u nur unwesentlich mehr als ne 5950u.

Gast
2004-04-16, 19:31:36
Wahrscheinlich möchte man nie mehr verschmorrte Mainboards, wie zu Zeiten der ersten Geforce 256 Karten sehen ;)

Ja Ja... wie damals die Presse gelacht hatte über 3dfx und ihren "zusätzlichen Stromblocker"

Gast
2004-04-17, 02:25:37
Original geschrieben von Gast
Es wird gesagt, dass der NV40 ein etwa 500 Watt Netzteil voraussetzt. Dies sagt jedoch nicht viel aus. Es kommt darauf an, wie effizient das Netzteil ist. So lief die Ultraversion beim Test von 3DCenter auch mit 350 Watt und sogar mit 300 Watt Netzteilen. Selbstverständlich kommt es auch darauf an, wie viel "Schnick-Schnack", wie Fesplatten, DVD-Laufwerk, Karten etc. verbaut sind.

Also Schnick-Schnack ist meine Serial -ATA niet!, mein DVD-Rom brauche ich auch und meine TV-Karte ist pflicht.

Omnicron
2004-04-17, 02:46:49
Also beim Typ von 3dgpu.com läuft die Karte auch in einem 200W Barebone. :|
http://www.nvnews.net/vbulletin/showthread.php?t=27394

Gast
2004-04-17, 08:20:43
Original geschrieben von Omnicron
Also beim Typ von 3dgpu.com läuft die Karte auch in einem 200W Barebone. :|
http://www.nvnews.net/vbulletin/showthread.php?t=27394

Das glaube wer sich die Hose auch mit der "Kneifzange" anzieht!

Suspekt! 200W ist utopisch!

Windi
2004-04-17, 12:04:56
Anscheinend kommt doch schon ziemlich bald eine Geforce 6200.
nVidea will seine Lager von alten NV30 Ablegern räumen. Unteranderem verkauft man eine GeForce FX5200 und eine GeForce FX5700LE zu einem Paketpreis von zusammen $87. Damit läge man 10% unter dem Preis der Einzel-Chipsätze.

Quelle:
http://www.digitimes.com/NewsShow/Article3.asp?datePublish=2004/04/16&pages=A1&seq=1
und auf deutsch:
http://www.hartware.net/news_36156.html

Ich schätze mal, wenn die Geforce 5200 ausläuft, das damit auch solche Modelle wie die GeForce FX 5500 und die GeForce PCX 5300 enden.

ice cool69
2004-04-20, 02:13:45
Also ich glaube dass die 6800 Ultra sogar das beste Preis/leistungs-Verhältnis bieten wird (bei Straßenpreis 500€).

Die Karte kostet dann zwar 60% mehr als eine normale GF6800, hat dafür aber 256MB RAM und wohl ne deutliche Ecke merh Performance.

Vielleicht könnte das die neue R9700pro werden. Diese ist selbst heute noch fast High End, besonders wenn man sie übertaktet hat!
Wenn eine GF6800 Ultra auch so lange hält ist sie das Geld absolut wert!

Radeonator
2004-04-20, 02:47:15
300mio ??? :O

Das würde bei einem Preis von min 499 pro Karte bedeuten das sie = 601202,40480961923847695390781563 Karten vertickern müssten, nur von der Ultra und nur um nicht in den Miesen zu stehen ???? ola!

robbitop
2004-04-20, 10:58:16
@radeonator
meinst du die Entwicklungskosten für NV4x Familie?
Die sind eher 400Mio. Wie auch bei NV3x.
Das ist normal und das große Geld wird sowieso im low cost/mid range Bereich gemacht. High End sind nur bessere Aushängeschilder.

aths
2004-04-20, 11:15:34
Original geschrieben von robbitop
@radeonator
meinst du die Entwicklungskosten für NV4x Familie?
Die sind eher 400Mio. Wie auch bei NV3x. Der NV40 ansich kostete ~ 300 Mio. Daraus die kleineren Chips zu machen, dürfte nicht mehr so teuer werden. So käme man bei der NV40-Familie in der Tat auf eine Größenordnung von 400 Mio.

robbitop
2004-04-20, 11:53:59
100Mio um eine sehr gut modulierbare Architektur herrunter zu skallieren? :|

AlfredENeumann
2004-04-20, 12:02:19
Ihr solltet nicht in Kartenpreisen Rechnen, sondern in Chippreisen. Und dann sind noch die reinen Kosten pro Chip abzuziehen, und dann dürft ihr nochmal rechnen wieviele Chips man Verkaufen muß um überhaupt mal ein PLUS unterm strich zu haben.

Quasar
2004-04-20, 12:03:15
Original geschrieben von HOT
Im Endeffekt sind aber die Kosten der unsichere Faktor. Wieviel kosten die TSMC oder IBM Fabs im Gegensatz zur Fab30 oder zu den Intel Fabs (Technik, Wartung, Personal usw.) wirklich? Man weiss es nicht.

Was ich mal vor einiger Zeit gehört habe, ist, daß IBM Auslastungsprobleme einiger Fabs hat. Keine Ahnung allerdings, ob nV sich das zu Nutze gemacht haben könnte und einen besonders guten Deal ausgehandelt hat.

kmf
2004-04-20, 12:35:02
Original geschrieben von Quasar
Was ich mal vor einiger Zeit gehört habe, ist, daß IBM Auslastungsprobleme einiger Fabs hat. Keine Ahnung allerdings, ob nV sich das zu Nutze gemacht haben könnte und einen besonders guten Deal ausgehandelt hat.

Unter oder auf Niveau des Selbstkostenpreis wird niemand fertigen. Eher werden die Hallen zugesperrt.
Es mag sein, daß bei Erhöhung des Auftragsrahmen seitens nV eine Preisreduzierung bei IBM durchsetzbar ist.

Sphinx
2004-04-20, 12:38:22
"wird der nv40 auch wirtschaftlicher erfolg ?"

Auf die NV3x Series und den Beständen : Definitv Nein * ob Nvidia die Entwicklungskosten raushat wird sich sicher Ende diesen Jahres in den Geschäftszahlen wiederspiegeln können.

Godmode
2004-04-20, 12:39:47
Denke mal das kein High-End Produkt rentable ist, wenn man alleine schon die R&D Kosten ansieht. Aber durch den Mainstream und Midrange Part wird das kompensiert.