PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Aus GeForce 3 MX mach GeForce 4 MX


Tarkin
2002-01-11, 23:41:18
Nvidia mit dem Witz des Tages.:

http://www.theinquirer.net/11010215.htm

... weiter unten im Bericht heißt es da, dass Nvidia den Nv 17 offenbar unter GeForce4 MX auf den Markt werfen will... Was bitte soll das Nvidia? Das ist wirklch ne tolle Strategie neue Grafikchips zu fabrizieren! Der Nv17 war ursprünglich als GeForce 3 MX geplant, nochdazu hat dieser Chip keine DX8 Unterstützung (kein Pixelshader)... Das kann man in zahlreichen Previews dieses Chips (z.b. www.anandtech.com) nachlesen.

Der Nv17 ist eigentlich nvidias neuer mobile Chip (Präsentation auf der Comdex im November 2001). Jetzt wird plötzlich die GeForce 4 MX daraus. Darf ich an dieser Stelle daran erinner, dass die GeForce 4 MX (eigentlich GeForce 3 MX) damnach wahrscheinlich nicht viel schneller sein wird, als eine GeForce 2 Ultra oder so. Durch den fehlende DX8 Unterstützung ist der Chip doch der reinste Witz!!! ... Völlig uninteressant. Na ja, hauptsache die Dummen Käufer fallen auf diese billige Masche herein.

Tolle Leistung Nvidia, BRAVO!!!

Meine Meinung: GeForce 4 = der übliche Nvidia Mist eben (aufgeblasen, nichts dahinterund sau teuer... und ein neuer Name natürlich, die sind das Haupfeatures der neuen GeForce Serie 600, 1000, 4600, 3ß4589ß09, TIsupergut500000, HAHAHAHAHA!!!!!

Razor
2002-01-12, 03:00:15
*gäääääähhhhhhhhnnnnnnn*

Also wirklich Tarkin, krieg Dich doch erst mal wieder ein...
;-)

Nicht der NV17, sondern der NV17M ist der neue Mobile-Chip...
Und klar, jeder der die interenen Chip-Bezichnungen kennt, weiß, daß 17 VOR 20 leigt uns somit das, was dort als MX bezeichnt wird nicht wirklich eine gf3 ist...

Wie dem auch sei, die gf3 ist (wie damals auch die gfddr) nur der technologische Anfang. die gf2-Linie hat nun langsam ausgedient und wird nun durch die gf4-Linie abgelöst.

Im Westen nichts Neues sozusagen !

Damals war es auch schon so, daß eine gf2mx nicht schneller als 'ne gfddr war... schlimmer noch, die gf2mx soger ehhebliche Defizite mitbrachte... aber so richtig gestört hat es die Käuferschaft nicht...

Und wenn man sich so die Verteilung von Gra-Chips im Hause nVidia anschaut, dann wird man fest stellen, daß die gf3 (auch die TI's !) bald keinen Platz mehr haben...

Mit den 5 neuen Karten (gfmx420/440/460, gfti4400/4600) ist die gesamte Platte vom Einsteiger-Chip bis zum High-End KOMPLETT abgedeckt. Wo soll denn da noch 'ne gf2ti oder die gf3 (samt ti's ;-) hinpassen ?

Die Ti-Serie war nur eine kleine Zwischen-Einlage, um die Lager zu räumen, mehr nicht...

Und inwieweit eine NV17 (früher gf3mx, jetzt gfmx4) tatsächlich in DX8 'beschnitten' sein wird, stellt sich erst noch heraus. Also klappe zu und bis zum 5.2. warten, dann wissen wir alle mehr...
;-)

In diesem Sinne

Razor

Pengo
2002-01-12, 05:36:12
Niemand wird DX8 features dieses Jahr brauchen, wie niemand DX7 features 2001 gebraucht hat. Wir haben kein einziges Spiel was DX7 features zwingend verlangt, also was soll der scheiß. Richtige DX8 Spiele kommen wenn DX9 aktuell ist.

Andre
2002-01-12, 16:43:38
Aha, Tarkin,

The Inquirer also.
Mehr braucht man nicht zu sagen, da kann ich gleich die Bildzeitung lesen.

smallB
2002-01-12, 17:01:05
Originally posted by Pengo
Niemand wird DX8 features dieses Jahr brauchen, wie niemand DX7 features 2001 gebraucht hat. Wir haben kein einziges Spiel was DX7 features zwingend verlangt, also was soll der scheiß. Richtige DX8 Spiele kommen wenn DX9 aktuell ist.

Was ist mit u2, ut2, doom3 und kreed? Die spiele kommen 2002 und haben dx8 features.

Pussycat
2002-01-12, 17:19:58
Und klar, jeder der die interenen Chip-Bezichnungen kennt...

Uns weiviele haben ahnung, wass ein 'NV20' ist?

Damals war es auch schon so, daß eine gf2mx nicht schneller als 'ne gfddr war... schlimmer noch, die gf2mx soger ehhebliche Defizite mitbrachte... aber so richtig gestört hat es die Käuferschaft nicht...

Die GF2MX war aber auf den GF2GTS basiert und hatte auch die gleichen Features. Der GF4MX (wofür steht 'mx' eigentlich???) hat jedoch nichts mit dem GF4 zu tun, ist also eine Marketinglüge. Wie nVidia sie immer mehr zu brauchen scheint.

Du scheinst übrigens sehr froh zu sein, dass nvidia immer noch etwas auf die Beine kriegen kann. Schau' dir dann mal dass (http://www.within3d.net/index.php?show=articles&type=showarticle&id=8&page=1) an!

Bald hat dein Lieblingsfabrikant ausgedient.

Ceiser Söze
2002-01-12, 17:45:28
Originally posted by Pussycat

Du scheinst übrigens sehr froh zu sein, dass nvidia immer noch etwas auf die Beine kriegen kann. Schau' dir dann mal dass (http://www.within3d.net/index.php?show=articles&type=showarticle&id=8&page=1) an!

Bald hat dein Lieblingsfabrikant ausgedient.

Das hab ich in diesem Artikel nie gesagt. ATI holt in einem wichtigen Bereich (Dritthersteller) auf und zwar schnell (innerhalb von einem halben Jahr mehr als 20 OEMs) und nVidia muss darum dieses Jahr unbedingt Massnahmen ergreifen, damit die OEMs auch dieses Unternehmen wieder "lieben". Und handeln wird man vermutlich schon, denn nVidia ist nicht dumm. Einziges Problem: Man ist auch ziemlich selbstgefällig - und das könnte hier zum Problem werden, denn um mit den unzufriedenen OEMs wieder Frieden zu schliessen, müssen Zugeständnisse gemacht werden - und dafür muss man zuerst mal von der Intelschen Arroganz loskommen. Aber "ausgedient" hat das Unternehmen dsewegen noch lange nicht. Dafür hat man viel zu viele Reserven.

Will das nur schnell klarstellen, damit meine Mailbox nicht plötzlich mit (auf Missverständnissen beruhenden) Flame-Mails zugespammt wird, oder so ;)

syronth
2002-01-12, 18:41:38
Originally posted by Pussycat
Du scheinst übrigens sehr froh zu sein, dass nvidia immer noch etwas auf die Beine kriegen kann. Schau' dir dann mal dass (http://www.within3d.net/index.php?show=articles&type=showarticle&id=8&page=1) an!


Eigentlich lese ich aus dem Artikel einen gewissen Spott auf nVidia heraus. Übrigens wirklich nett geschrieben, Söze, gern gelesen :)