PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce 4 vs Geforce 4 mx


Pengo
2002-01-21, 11:11:44
So wie es ausschaut basiert Geforce 4 auf NV25 und Geforce 4 MX auf NV17. Falls NV17 wirklich nur ein DX7 Chip ist, finde ich, ist es eine absolute Frechheit so ein Namenschaos einzuführen. Wer von den Otto-Normalverbrauchern wird daran denken daß GF4 und GF4MX nicht viel miteinander zu tun haben?

Leonidas
2002-01-21, 12:19:02
Niemand :-).


Und ohne Pixel Shader und mit starrer T&L Einheit würde ich nicht mal GF3 MX für angebracht halten, GF1 Ultra ist die korrekte Bezeichnung.

Xmas
2002-01-21, 13:21:09
Nicht eher GeForce 2 Ultra Superplus Megaperls? ;D

ow
2002-01-21, 13:25:38
a) hat der Kunde sich zu informieren was er kauft

denn

b) kann man nicht nach Produktnamen gehen, s.a. Radeon (VE ohne T&L mit einer Pixelpipe)

Nr. 5
2002-01-21, 15:13:17
a) informiert sich der typische DAU in Computerblind und kauft sich einen komplettrechner bei mediamarkt (boah!... da is ja ne GEFORCE 4 drin!) ;D
ich würde jedem in diesen forum das wissen über den kauf zutrauen - nur eben keinen "normalen" PC-nutzer.

b) muss nVidia jetzt schon marketingtricks der konkurrenz kopieren?`;D ;)


cu

ow
2002-01-21, 16:59:54
@ Nr.5


Mit den Tricks schaffen doch alle.

Gohan
2002-01-21, 17:27:18
Ist typische nVidia masche, GeForce 2 MX 200, war auch nicht schneller als ne TNT 2 Ultra...

Labberlippe
2002-01-21, 17:36:44
Originally posted by ow
a) hat der Kunde sich zu informieren was er kauft

denn

b) kann man nicht nach Produktnamen gehen, s.a. Radeon (VE ohne T&L mit einer Pixelpipe)

Richtig und deshalb haben soviele eine TNT2M64 und MX200 gekauft.

Gruss Labberlippe

ActionNews
2002-01-21, 18:46:58
Gut, dass PowerVR das nicht nötig hat :D:D:D !! Da weiß man woran man ist ;)!

Naja ich fide das auch ziemlich dreist! Bei der TNTM64 oder G2MX waren wenigstens die Features noch die gleichen! Nur halt weniger Pipelines und beschnittenes Speicherinterface!

CU ActionNews

Ceiser Söze
2002-01-21, 19:59:33
Ehrlich gesagt sehe ich dahinter eine ganz andere Problematik: nVidia bremst die Entwicklung. Die GF4 MX ist für den Massenmarkt gedacht, ist aber featuremässig vermutlich nur unwesentlich dem NV15 überlegen (die "eingeschränkten" Vertex Shader werden von Spielentwicklern wohl ganz einfach ignoriert und das ganze einfach als DX7 T&L-Unit angesehen). Obwohl nun, ein Jahr nach dem ersten DX8-Chip, höchste Zeit dafür wäre, DirectX8-Technologie auch für die Masse zugänglich zu machen, geht man nun einen Schritt zurück und bietet eine GeForce2 1/2 an - was wiederum die Etablierung von Vertex- und insbesondere von Pixel-Shadern weiter verzögern wird, da der kleinste gemeinsame Nenner damit immer noch bei DirectX7 bleibt. Schade drum...

Pengo
2002-01-21, 20:03:24
Was hat PowerVR nicht nötig? Sie verkauften Kyro 1 neu verpackt genauso wie NVidia TNT und GF1 neu verpackt verkauft hat. Abgesehen davon weiß man wirklich was man da hat, relativ wenig nämlich, low-end eben.

Gohan
2002-01-21, 20:07:12
Originally posted by Pengo
Was hat PowerVR nicht nötig? Sie verkauften Kyro 1 neu verpackt genauso wie NVidia TNT und GF1 neu verpackt verkauft hat. Abgesehen davon weiß man wirklich was man da hat, relativ wenig nämlich, low-end eben.

Ne so stimmt das nicht. Die bezeichnungen für die Kyro Karten sind richtig. Kyro 1 Kyro 2, und Kyro 2 Ultra. Obwohl letzteres wohl doch nicht ganz sauber ist.

So einen Namensmüll wie bei nVidia seh ich da nicht.

Pengo
2002-01-21, 20:13:52
Originally posted by Ceiser Söze
Ehrlich gesagt sehe ich dahinter eine ganz andere Problematik: nVidia bremst die Entwicklung. Die GF4 MX ist für den Massenmarkt gedacht, ist aber featuremässig vermutlich nur unwesentlich dem NV15 überlegen (die "eingeschränkten" Vertex Shader werden von Spielentwicklern wohl ganz einfach ignoriert und das ganze einfach als DX7 T&L-Unit angesehen). Obwohl nun, ein Jahr nach dem ersten DX8-Chip, höchste Zeit dafür wäre, DirectX8-Technologie auch für die Masse zugänglich zu machen, geht man nun einen Schritt zurück und bietet eine GeForce2 1/2 an - was wiederum die Etablierung von Vertex- und insbesondere von Pixel-Shadern weiter verzögern wird, da der kleinste gemeinsame Nenner damit immer noch bei DirectX7 bleibt. Schade drum...

Viele haben 3dfx (auch ich) vorgeworfen daß sie am Ende ihrer Tage die Entwicklung aufgehalten haben, jetzt sind sie schon so lange weg, NVIDIA und ATI dominieren den Markt, sind die Spiele wirklich besser geworden? Wenn ich mir Sachen wie Star Trek Armada 2, RTCW, Aquanox oder SS2 ansehe, sie schauen fast genauso aus auf einer TNT wie auf einer GF3/Radeon 8500. Die Chips werden zwar schneller, aber die neuen Features werden von den Programmierern ignoriert, die Spiele haben auf alten Schinken zu laufen, basta.

Doom 3 wird wahrscheinlich eine neue Dimension in der Spielegrafik bringen d.h. GF2/Radeon richtig nutzen. Aber ich glaube nicht daß wir noch dieses Jahr davon was sehen.

Pengo
2002-01-21, 20:16:25
Originally posted by Gohan


Ne so stimmt das nicht. Die bezeichnungen für die Kyro Karten sind richtig. Kyro 1 Kyro 2, und Kyro 2 Ultra. Obwohl letzteres wohl doch nicht ganz sauber ist.

So einen Namensmüll wie bei nVidia seh ich da nicht.

Weil sie nur 2 Produkte haben. ATI ist da auch nicht viel besser, Radeon VE klingt ähnlich wie TNT2 M64, natürlich ist das Namenschaos bei NVIDIA am größten, aber Unschuldslamm ist keiner.

Legolas
2002-01-21, 20:59:23
Originally posted by Pengo


Weil sie nur 2 Produkte haben. ATI ist da auch nicht viel besser, Radeon VE klingt ähnlich wie TNT2 M64, natürlich ist das Namenschaos bei NVIDIA am größten, aber Unschuldslahm ist keiner.

Du meinst aber Unschuldslamm, oder??? :D

Pengo
2002-01-21, 21:21:42
Originally posted by Legolas


Du meinst aber Unschuldslamm, oder??? :D

Ja, wollte aber schauen ob aths noch um diese Zeit aktiv ist :)

Legolas
2002-01-21, 22:54:45
Hab nur lachen müssen, wie ich das so vor mich hingelesen hab :D

aths
2002-01-22, 00:59:07
Ceiser,

dass nVidia die Entwicklung behindert, habe ich auch im Verdacht. Dazu muss man sich nur durchlesen, was David Kirk zum PS 1.4 sagte. Salopp gesagt: Alles Neue, was nicht von nVidia kommt, ist lt. nVidia s o lange nicht brauchbar, bis es auch von nVidia angeboten wird. Es ist zu hoffen, dass der NV30 ein richtiger Knaller wird. Dass sie den NV17 tatsächlich als GF4 vermarkten traue ich selbst nVidia nicht zu.

Der NV25 wird vom Feature-Reichtum den R200 offenbar nicht einmal einholen...

StefanV
2002-01-22, 01:33:28
Originally posted by Gohan
Ne so stimmt das nicht. Die bezeichnungen für die Kyro Karten sind richtig. Kyro 1 Kyro 2, und Kyro 2 Ultra. Obwohl letzteres wohl doch nicht ganz sauber ist.

So einen Namensmüll wie bei nVidia seh ich da nicht.

Wollen wir wetten, daß die 'Kyro 2 Ultra' Kyro 3 heißen wird??

Und daß die 'Kyro 3' nicht Kyro heißen wird!!

Denn bei PowerVR ist es üblich, daß eine Generation einen eigenen Namen hat und eine andere halt eine andere!

StefanV
2002-01-22, 01:36:37
ATI müsste nur eine Radeon 8500 mit 200MHz anbieten (was aber nicht geht, jeder Radeon 8500 User wird das bestätigen können, daß die Radeon 8500 ab ca. 225MHz bildfehler produziert, weniger ist mit dem jetzigen Design nicht möglich).


BTW: Meine Radeon 8500 hab ich auf 225/225MHz gedrosselt, sollten eigentlich 183/183Mhz werden.

Warum?

Weil ich die Leistung momentan eh nicht brauche, wenn ich mehr brauche, dann flashe ich wieder ein anderes BIOS.

Ceiser Söze
2002-01-22, 09:31:23
@aths
Was ich besonders witzig finde: Zu VSA-100 Zeiten haben alle nVidia-Jünger geschrieen, 3dfx behindere die Entwicklung und sei der Bremser der Industrie etc. etc.
Jetzt macht nVidia mit dem NV17 etwas Ähnliches (nachdem man mit der Ti-200 eigentlich bereits einen guten Ansatz für "DX8 für die Masse" geboten hat) und plötzlich sagen dieselben Leute, dass man die alten Features momentan ja eh nicht braucht...
Meine Theorie der "allgemeinen Gehirnwäsche" scheint sich langsam aber sicher zu bestätigen :D

ow
2002-01-22, 12:38:38
Originally posted by Gohan


Ne so stimmt das nicht. Die bezeichnungen für die Kyro Karten sind richtig. Kyro 1 Kyro 2, und Kyro 2 Ultra. Obwohl letzteres wohl doch nicht ganz sauber ist.

So einen Namensmüll wie bei nVidia seh ich da nicht.



Ich schon.

Der Kyro2 ist eine Kyro1 Ultra, mehr nicht.

Fragman
2002-01-22, 12:41:35
da kann man leuten wie john carmack nur danken, dass sie mal "mutiger" sind als andere und die graphik mal endlich nach vorne bringen. seit dem g1 wird einem das blaue vom himmel erzaehlt, wirklich passiert ist bis heute nichts und das obwohl alle grossen hersteller damals gesagt haben, sie programmieren spiele mit mehr details und noch besserer graphik. man sieht immer nur techdemos und das wars. aquanox zb sieht zwar gut aus, laeuft aber mit jeder non dx8 karte. und welchen effekt der pixel shader hier bieten soll, weiss wohl nur massive allein.

gruss, fragman

ps: soll die g3ti200 nicht dx8 fuer die breite masse sein?

ow
2002-01-22, 12:42:57
Originally posted by Ceiser Söze
@aths
Was ich besonders witzig finde: Zu VSA-100 Zeiten haben alle nVidia-Jünger geschrieen, 3dfx behindere die Entwicklung und sei der Bremser der Industrie etc. etc.
Jetzt macht nVidia mit dem NV17 etwas Ähnliches (nachdem man mit der Ti-200 eigentlich bereits einen guten Ansatz für "DX8 für die Masse" geboten hat) und plötzlich sagen dieselben Leute, dass man die alten Features momentan ja eh nicht braucht...
Meine Theorie der "allgemeinen Gehirnwäsche" scheint sich langsam aber sicher zu bestätigen :D



Da ist nur EIN Unterschied:

3dfx hatte ueberhaupt keine nicht-die entwicklung-bremsenden Produkte.

NV schon, es ist ja niemand gezwungen, einen NV17 zu kaufen, oder?

Legolas
2002-01-22, 12:46:13
Originally posted by ow




Da ist nur EIN Unterschied:

3dfx hatte ueberhaupt keine nicht-die entwicklung-bremsenden Produkte.

NV schon, es ist ja niemand gezwungen, einen NV17 zu kaufen, oder?

Intern hatte 3dfx wohl doch einiges, aber das ist ja nicht wirklich relevant :D

Der NV17 wird aber in vielen Komplettrechnern stecken, und so eine ziemlich große Verbreitung v.a. wegen seines Preises erfahren. Außerdem fallen imho geschätzte 95% der DAUs auf den Namen GF4MX rein und denken sie haben damit modernste Technik gekauft...

Ceiser Söze
2002-01-22, 12:47:24
Nein, gezwungen ist niemand. Aber wenn nVidia die Karte tatsächlich als GeForce4 MX vermarktet (was ich nicht hoffe, aber nVidias PR-Abteilung durchaus zutraue) kannst du dir das Resultat bei den weniger gut informierten Usern vorstellen, oder?

ow
2002-01-22, 12:57:37
Ich verstehe eure Einwaende schon, aber den DAUs ist doch eh nicht zu helfen.

Da wird erst gekauft und dann gefragt, was man denn da gekauft hat.

Hab das oft genug gelesen in der Art:

"Hab mir ne GF2MX gekauft, wo ist der Unterschied zur GF2 GTS?"

HOT
2002-01-22, 13:00:49
3Dfx hat sich damals als Bremse rausgestellt, weil sie die Chips immer nur weiterentwickelt haben (vor allem die V3 war ein Beispiel dafür).
Die V5 hingegen war IMHO schon ein Schritt in die richtige Richtung - das einzige, was dem Chip hätte fehlen können ist Bumpmapping (allerdings hat auch dies zu der Zeit wirklich NIEMAND vermisst)... T&L hätte dem Teil sicherlich nichts gebracht. Aber zum Ende der Ära stellte sich dann heraus, dass alle Firmen nur mit Wasser kochen, und das selbst NVidia Nachteile hat. Der Rampage und Fear hätten wirklich Konkurrenz in der ersten Minute bedeuten können.
Wie auch immer, jetzt ist PowerVR an die Stelle von 3Dfx getreten und die haben ein besser organisierens Geschäftsprofil, vor allem fahren sie im Gegensatz zu 3Dfx Gewinne ein *eg*.
Ich bin mir sehr sicher, dass wir dieses Jahr noch einiges erleben werden ;)

Pengo
2002-01-22, 13:20:25
Würde ein DX6 Chip kommen der von der Performance GF3 und R8500 weit hinter sich läßt würde man sehen wie unwichtig DX7/DX8 ist.

Ceiser Söze
2002-01-22, 13:21:18
Mal abwarten. Wird wohl noch einiges kommen in diesem Jahr - nicht nur von PowerVR :)

Labberlippe
2002-01-22, 13:53:53
Originally posted by Ceiser Söze
Ehrlich gesagt sehe ich dahinter eine ganz andere Problematik: nVidia bremst die Entwicklung. Die GF4 MX ist für den Massenmarkt gedacht, ist aber featuremässig vermutlich nur unwesentlich dem NV15 überlegen (die "eingeschränkten" Vertex Shader werden von Spielentwicklern wohl ganz einfach ignoriert und das ganze einfach als DX7 T&L-Unit angesehen). Obwohl nun, ein Jahr nach dem ersten DX8-Chip, höchste Zeit dafür wäre, DirectX8-Technologie auch für die Masse zugänglich zu machen, geht man nun einen Schritt zurück und bietet eine GeForce2 1/2 an - was wiederum die Etablierung von Vertex- und insbesondere von Pixel-Shadern weiter verzögern wird, da der kleinste gemeinsame Nenner damit immer noch bei DirectX7 bleibt. Schade drum...

Das habe ich auch schon des öfteren gesagt das nVIDIA mit den NV17 die Technologie bremst.
Ein Grossteil der Kunden haben einfach nicht soviel Kohle um eine TI 500 oder R8500 Retail zu kaufen.
Diese fallen dann aufgrund der Namensgebung auf die MarketingTrick rein.
"GeForce4 Boah" das MX wird übersehen und dann kommt das grosse Staunen weil kein PS vorhanden ist.
Da kann ich nVIDIA nicht verstehen.
Sollen Sie doch lieber den VS weglassen und dafür den PS integrieren, das wäre aktzeptabel.

Genug Kunden werden
Da lobe ich mir die CPU Hersteller.
Hier gibt es wenigsten eine deutliche Namengebung zwischen High und Low Coast.

Intel
P4 High
Celereon Low

AMD
AthlonXP
Duron.

So kann es zu keiner Verwechslung kommen.

Gruss Labberlippe

Labberlippe
2002-01-22, 13:56:18
Originally posted by Pengo


Weil sie nur 2 Produkte haben. ATI ist da auch nicht viel besser, Radeon VE klingt ähnlich wie TNT2 M64, natürlich ist das Namenschaos bei NVIDIA am größten, aber Unschuldslamm ist keiner.

Mit den Unterschied das ATi dies mittlwerweile erkannt hat und jede Karte einen eindeutigen Namen hat.

DX 7
Radeon 7xxx

DX 8
Radeon 8xxx

Gruss Labberlippe

Gohan
2002-01-22, 14:01:33
Originally posted by Ceiser Söze
Mal abwarten. Wird wohl noch einiges kommen in diesem Jahr - nicht nur von PowerVR :)

Na kriegst du ketzt keine haue wegen deinem DNA? :D Ich hoffe ja noch das Matrox mit was neuem aufglänzt und der R300 kommt auch noch ;)

Ceiser Söze
2002-01-22, 14:04:51
DNA? Also mit meiner DNA ist, soviel ich weiss, alles in Ordnung :D :D

Legolas
2002-01-22, 14:12:38
Originally posted by Ceiser Söze
DNA? Also mit meiner DNA ist, soviel ich weiss, alles in Ordnung :D :D
Das wollen wir auch hoffen :D

Pengo
2002-01-22, 14:52:20
Originally posted by Labberlippe


Das habe ich auch schon des öfteren gesagt das nVIDIA mit den NV17 die Technologie bremst.
Ein Grossteil der Kunden haben einfach nicht soviel Kohle um eine TI 500 oder R8500 Retail zu kaufen.
Diese fallen dann aufgrund der Namensgebung auf die MarketingTrick rein.
"GeForce4 Boah" das MX wird übersehen und dann kommt das grosse Staunen weil kein PS vorhanden ist.


Wann kommt das Staunen? Wohl nicht dieses Jahr, ich kann mir nicht vorstellen daß ein einziges Game vor Mitte 2003 den Pixelshader verlangt.

Labberlippe
2002-01-22, 14:54:51
Originally posted by Pengo


Wann kommt das Staunen? Wohl nicht dieses Jahr, ich kann mir nicht vorstellen daß ein einziges Game vor Mitte 2003 den Pixelshader verlangt.


Spätestens dann wenn alle den 3DMark2001 Testen.
Gruss Labberlippe

Unregistered
2002-01-22, 15:18:29
Kyro II Ultra wird Kyro II 4800 heißen ! Die 3D Prophet 4800 bestätigt das zudem.

Der Kyro III ist ein neuer Chip und kommt März/April

Pengo
2002-01-22, 15:46:16
Originally posted by Labberlippe



Spätestens dann wenn alle den 3DMark2001 Testen.
Gruss Labberlippe

Ein Ottonormalverbraucher weiß nicht was 3DMark 2001 ist und wir reden hier von Ottonormalverbrauchern.

Mich stört es nicht daß nvidia einen neuen DX7 Chip rausbringt, mich stört es daß er Geforce 4 MX heißen soll.

Pengo
2002-01-22, 15:47:02
Originally posted by Unregistered
Kyro II Ultra wird Kyro II 4800 heißen ! Die 3D Prophet 4800 bestätigt das zudem.

Der Kyro III ist ein neuer Chip und kommt März/April

2002? :)

Labberlippe
2002-01-22, 15:58:58
Originally posted by Pengo


Ein Ottonormalverbraucher weiß nicht was 3DMark 2001 ist und wir reden hier von Ottonormalverbrauchern.

Mich stört es nicht daß nvidia einen neuen DX7 Chip rausbringt, mich stört es daß er Geforce 4 MX heißen soll.

Ein Grossteil der Ottonormalverbraucher kaufen sich Zeitschriften und darin werden massig Detos und 3DMarks auf die CD gepresst.
Solange bis alle reiern.

gruss Labberlippe

Labberlippe
2002-01-22, 15:59:54
Aber gehen wir wieder auf das eigentlichte Thema zurück.

Ich bin gespannt was sich nVIDIA beim FSAA einfallen lässt.
Es hat ja schon einmal im Vorfeld geheissen, das das FSAA der V5 ähnlich ist.

Gruss LAbberlippe

ow
2002-01-22, 16:35:59
Originally posted by Labberlippe


Mit den Unterschied das ATi dies mittlwerweile erkannt hat und jede Karte einen eindeutigen Namen hat.

DX 7
Radeon 7xxx

DX 8
Radeon 8xxx

Gruss Labberlippe


Dabei wollen wir doch aber nicht vergessen, dass es die ATis in unzaehligen UNGEKENNZEICHNETEN Takt-/Speichervarianten gibt, oder?

Eine R7500 mit 230/180MHz ist eben keine mit 290/270MHz. Also nix mit eindeutig.

Labberlippe
2002-01-22, 16:41:40
Originally posted by ow



Dabei wollen wir doch aber nicht vergessen, dass es die ATis in unzaehligen UNGEKENNZEICHNETEN Takt-/Speichervarianten gibt, oder?

Eine R7500 mit 230/180MHz ist eben keine mit 290/270MHz. Also nix mit eindeutig.

Natürich aber hier ist nicht ATi Schuld sondern die jeweiligen Händler, welche normalerweise nach Gesetz sogar diese Angaben mit aufführen müssten.

Das gleiche gilt auch bei nVIDIA.
Hier kann nVIDIA auch nichts machen, wenn die Händler die Taktraten "bewust" weglassen.

OW:a) hat der Kunde sich zu informieren was er kauft

Deine Aussage.
Bei ATi hinfällig oder was?

Gruss Labberlippe

Pengo
2002-01-22, 16:42:43
Originally posted by Labberlippe
Aber gehen wir wieder auf das eigentlichte Thema zurück.

Ich bin gespannt was sich nVIDIA beim FSAA einfallen lässt.
Es hat ja schon einmal im Vorfeld geheissen, das das FSAA der V5 ähnlich ist.

Gruss LAbberlippe

v5 benutzt doch Supersampling, wenn es schnell sein soll kann ich mir kaum vorstellen daß es wieder SS ist.

Labberlippe
2002-01-22, 16:44:27
Originally posted by Pengo


v5 benutzt doch Supersampling, wenn es schnell sein soll kann ich mir kaum vorstellen daß es wieder SS ist.

Yepp deshalb bin ich ja gespannt was nVIDIA hier bringen will.

gruss Labberlippe

aths
2002-01-22, 17:31:02
Pengo,

die GF4 wird Multisampling machen, aber noch bandbreitensparender als bei der GF3. Die Voodoo4/5 macht Supersampling, aber bandbreitensparender als die Konkurrenz (Kyro mal ausgenommen!). Die Subpixel müssen ja wieder "verschmolzen" werden. Dazu müssen sie gelesen und das Ergebnis muss geschrieben werden. Der letzte Schritt läßt sich aber einsparen, wenn direkt im RAMDAC gemischt wird. Diese Technik könnte auch bei der GF4 zum Einsatz kommen.