PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GF4 MX


aths
2002-02-11, 13:04:48
Ich würde mich freuen, wenn folgendes Posting neutral aufgefasst wird und nicht als nVidia bashen.

nVidia kann mit den GF4 MX offenbar mehr Geld verdienen, wenn sie DX7 HW ist, als wenn sie DX8 HW wäre. Es wurde viel darüber geredet, dass die GF4 nur PS1.3 hat. Viel schlimmer finde ich, dass die MX nur NSR und keinen PS hat.

Hier hält Marktwirtschaft die Innovation auf. In meinen Augen ist die Welt für DX8-Spiele mehr als reif. Diese werden natürlich nur dann kommen, wenn die passende HW entsprechend weit verbreitet ist. Wäre die GF4 MX DX8 HW, bestünde in einem halben Jahr vermutlich eine deutlich größere DX8 HW Verbreitung als heute. Das würden die Entwickler auch sehen und entsprechend reagieren. Denn dann wären alle Neu-Karten von allen großen Firmen kompatibel zu DX8.

So aber dürfen wir weiterhin mit DX7-Technik auskommen. Es ist richtig, dass das heute kein Nachteil ist, "nur" DX7 HW zu haben. Jedenfalls ist nVidia, seit dem sie sicher die Marktführerschaft erreicht haben, nicht mehr der bekannte "Förderer" neuer Technologie. Was nützt mir eine denkbare DX9-HW im Herbst, wenn ich sie nicht bezahlen kann?

Die GF4 MX ist "fast" DX8 HW. Ich frage mich, wieso sie auf DX7 gekappt wurde, da sie DX8 nicht ganz erreicht. Sollte der Abstand zur Ti gewahrt werden? Will sich nVidia vom MS-Diktat mit den DX-Versionen lösen und möchte erreichen, dass die Entwickler NSR nutzen? (Womit sich auf der MX eine Vielzahl "DX8-Effekte" darstellen lassen.)

Mich interessieren eure Meinungen.

Leonidas
2002-02-11, 15:13:15
Mich würde interessieren, wie diese, welche früher 3dfx Technlogie-Feindlichkeit vorgeworfen haben (sicher nicht gaanz zu Unrecht), jetzt dazu stehen. Zwar liefert NV auch DX8 Hardware, aber DX8 Programmierungen werden sich nun einmal nur durchsetzen bei einer ausreichenden Marktdurchdringung auch auf ALDI-Maschinen. Und auf den nächsten ALDI-PC kommt todsicher eine DX7 GeForce4 MX.

Razor
2002-02-11, 16:06:28
Ähm aths...

gf4mx + DX8 = gf4ti

Oder ist Dir das noch nicht aufgefallen ?

nVidia möchte mit der neuen gf4-Serie über kurz oder lang ALLE Marktsegmente bedienen.

- die gf3ti200 wird später durch die gf4ti4200 ersetzt
- die gf5 (nv30) wird alle vorherigen Kategorien nach unten rutschen lassen
(die TNT/gf2-Linie wird dann vollständig verschwunden sein)

Insofern werden wir Ende diesen Jahres oder Anfang nächsten Jahres eben nur noch gf4/5 haben, welche in allen Presisegmenten vertreten sind.

Das nennt man Marketing und es ist zudem noch sehr geschickt, günstige Produkte mit weniger Features zu verkaufen. Wenn man sich ATI anschaut, dann tuen sie doch nichts anderes. Da wird ein altes Produkt im neuen Gewand verkauft (Radeon1), aber dort wird natürlich nicht behauptet, daß Technologie oder Forschritt aufgehalten wird. Schon komisch...

Insofern sehe ich auch diesen Post von Dir, aths, als einen weiteren Versuch, Deine Hass-Firma nVidia zu mißkreditieren.

-

Ich empfinde dieses Vorgehen als sehr geschickt (sowohl von ATI als auch von nVidia !)

Und noch noch mal das, was ich meine:
Radeon7000 GeForce4 MX 420
Radeon7200 GeForce4 MX 440
Radeon7500 GeForce4 MX 460
Radeon8500LE GeForce3 Ti 200
Radeon8500 GeForce4 Ti 4200
Radeon8500XL GeForce4 Ti 4400
Radeon8800 GeForce4 Ti 4600
R300 NV30
So oder ähnlich, aber ich vermute, daß Ihr wißt, was ich meine...
;-)

@Leo

Wollen wir wetten ?
;-)

Ich vermute, daß man im nächsten ALDI-PC eine gf4ti finden wird...
(im letzten waren ja auch schon gf3ti's zu finden ;-)

Wenn ATI nun seine Radeon7xxx-Reihe eingestampft hätte, könnte ich diese Aufregung ja verstehen, aber so ?

Hätte nVidia denn jetzt 6 verschiedene DX8-Progukte auf den Markt bringen sollen ? Oder ist es nun vielmehr nVidia zu verdanken, daß nun auch LowCost- (gf2-) Produkte in den Genuß moderner Technologie zu kommen ?

Immer eine Sache der Betrachtungsweise, gell ?
;-)

In diesem Sinne

Razor

Haarmann
2002-02-11, 16:29:57
Razor,

Du macht nen paar Betrachtungsfehler...

ATI bedient nicht nur Enduser...

Von Ati gibts noch (immer)

RageXL
Xpert2000pro
RadeonVE low Profile
RadeonVE (7000)
Radeon SDR (7200)
Radeon DDR (7500)
Radeon2 DDR (8500)

Dazu gibts noch die AIW Serie.

Die RadeonVE geht gegen Matrox
Die Xpert2000pro gegen TnT2m64
Radeon 7200 SDR vs MX400
Radeon 7500 vs GF2 Ti
Radeon 8500 vs GF3

NV will mit der GF4MX nun die GF2 Serie absetzen und tritt somit gegen die 7500 an und nicht umgekehrt.
Mit der GF4Ti wird die bisherige GF3 Ti500 ersetzt, damit tritt man gegen die 8500 an.
Die Radeon 7200 fliegt übrigens ausm Sortiment, genau wie die alten RadeonDDR schon draussen sind.

Preislich gesehen aber, sieht die Welt dann anders aus...

Ich rede hier von ATI und nicht von den Leuten, die ATI Chips verbauen.

Leonidas
2002-02-11, 16:49:18
Originally posted by Razor

@Leo

Wollen wir wetten ?
;-)

Ich vermute, daß man im nächsten ALDI-PC eine gf4ti finden wird...
(im letzten waren ja auch schon gf3ti's zu finden ;-)


Razor



Nicht unplausibel, fürwahr ...

Razor
2002-02-11, 16:51:32
@Haarmann

Nicht umsonst habe ich geschrieben:
So oder ähnlich, aber ich vermute, daß Ihr wißt, was ich meine...
;-)
Klar, es wurde ja auch gesagt, daß die TNT2 und die gf2mx200/400 erst einmal im Programm bleiben (wie auch die gf3ti200). Ebenfalls auch klar, daß nVidia gegen ATI antritt und nicht umgekehrt... habe mich da vielleicht etwas unklar ausgedrückt...

Auch nVidia bedient nicht nur Enduser, wie Du ja sicher weist.

Aber schlußendlich folgst Du ja meiner Argumentation, daß die gf4mx-Reihe nicht in Konkurrenz mit DX8-Progukten gesetzt wird, sondern ganz bewußt auf das untere Marktsegment gezielt wird, in dem sich eben Matrox, ATI (bis R7500), ImgTech (zumindest bis STG4800) und die vielen andern Nicht-DX8'er aufhalten.

So gibt es also einen sehr guten Grund, die MX-Serie ohne DX8 heruas zu bringen, zumal es absolut unsinnig gewesen wäre, bei derzeitiger Martlage, nur noch DX8'er ins Rennen zu schicken.

Finde das Ganze sehr geschickt, insofern scheinen sich ATI und nVidia im Marketing immer weniger zu nehmen...
;-)

Bis denne

Razor

P.S.: Gegen die AIW's tritt das PersonalCinema an, weches mit nahezu allen Chips kombiniert werden kann...

Haarmann
2002-02-11, 17:11:53
Razor,

Aber Du kennst ja ATIs Antwort auf die GF4 Serie?

8500er LE 64MB zum Preis einer 4MX - mehr Features zum gleichen Preis.

Dazu die 128MB 8500LE zum kleineren Preis denn eine GF4 Ti4200 - mehr Features und weniger Preis vs mehr Rohleistung und mehr Preis.

Es bleibt abzuwarten, wie das rauskommt.

Übrigens hab ich nun sogar ein Personal Cinema Kit gesichtet ;-). Nur isses "etwas" teuer

aths
2002-02-11, 17:51:28
Razor,

du lenkst ab, darauf lasse ich mich aber nicht. ATI vermarktet aggressiv die 8500LE mit 128 MB und nicht die 7500-er. nVidia vermarktet die GF4MX nicht weniger agressiv als die Ti-Serie.

NV bringt noch ein mal eine großen Schwall DX7 HW auf den Markt, was sicherlich nicht förderlich ist, um DX8-Features der breiten Masse zugänglich zu machen.

Du schreibst "Insofern sehe ich auch diesen Post von Dir, aths, als einen weiteren Versuch, Deine Hass-Firma nVidia zu mißkreditieren."

Ich weise die Unterstellung, nVidia zu hassen, zurück. Du begibst dich auf eine Schlammschlacht-Ebene und wirfst mir emotionales Verhalten vor. (Ausgerechnet du!) Ich bitte dich in Zukunft solche niederen Behauptungen zu unterlasse.

Razor
2002-02-11, 18:16:05
@Haarmann

"Aber Du kennst ja ATIs Antwort auf die GF4 Serie?
8500er LE 64MB zum Preis einer 4MX - mehr Features zum gleichen Preis."

In Sachen Preisgestaltung haben wir in letzter zeit schon des öfteren wahre 'Wunderdinge' erlebt.

"Es bleibt abzuwarten, wie das rauskommt."

Auch ich sach nur ABWARTEN !
(und Bier trinken ;-)

"Übrigens hab ich nun sogar ein Personal Cinema Kit gesichtet ;-). Nur isses "etwas" teuer"

Bei Dir in der Schweitz vielleicht, aber hier schlägt 'nen gf2mx mit PersonalCinema nicht so wahnsinnig in die Tasche !
;-)

@aths

"ATI vermarktet aggressiv die 8500LE mit 128 MB und nicht die 7500-er. nVidia vermarktet die GF4MX nicht weniger agressiv als die Ti-Serie. "

Was ist denn das für eine Aussage ?
Ich würde mal sagen, das beide momentan kräftig die Werbetrommel rühren !
(mit was auch immer)
;-)

"NV bringt noch ein mal eine großen Schwall DX7 HW auf den Markt, was sicherlich nicht förderlich ist, um DX8-Features der breiten Masse zugänglich zu machen."

Es gibt einen kleinen Unterschied zwischen zusätzlich am Markt plazieren oder eben ersetzen !
;-)

Ich halte dieses Mrketing für sehr geschickt !
(im wirtschaftlichen Sinne)

"Ich weise die Unterstellung, nVidia zu hassen, zurück. Du begibst dich auf eine Schlammschlacht-Ebene und wirfst mir emotionales Verhalten vor. (Ausgerechnet du!) Ich bitte dich in Zukunft solche niederen Behauptungen zu unterlasse."

Wenn mir solche Kommentare als passend in den Sinn kommen, werde ich diese mit Sicherheit NICHT unterlassen !
;-)

In diesem Sinne

Razor

aths
2002-02-11, 18:24:23
Aha, wenn es dir also passt, den Gegenüber mit bösartigen Unterstellungen zu denunzieren, wirst du das auch weiterhin tun...

Andre
2002-02-11, 18:25:47
"Wenn mir solche Kommentare als passend in den Sinn kommen, werde ich diese mit Sicherheit NICHT unterlassen !
;-)"

Wie wäre es lieber mit einer vernünftigen Diskussion?
Diese unterschwelligen Bemerkungen kann man auch einfach unterlassen, dass gilt für alle.

Razor
2002-02-11, 19:05:35
Originally posted by aths
Aha, wenn es dir also passt, den Gegenüber mit bösartigen Unterstellungen zu denunzieren, wirst du das auch weiterhin tun...
Das 'bösartig' unterstellst Du mir...
;-)

Und ja, ich werde weiterhin das schreiben, was mir in den Sinn kommt !
(daran wirst gerade Du nicht viel ändern können, wenn Du so weiter machst ;-)

In diesem Sinne

Razor

aths
2002-02-11, 19:15:11
Ach Razor,

Moderator Andre deutet an, dass ihm hier einiges auf den Keks geht, aber du machst einfach weiter.

MadManniMan
2002-02-11, 20:42:09
hey razorle... wo ist dein prob?

hat ati die r7500 vor einer woche unter dem namen r8500mx rausgebracht?

nvidia schmeißt karten auf den markt, die noch bis mindestens weihnachten 2002 zu kaufen sind. machen mehrere.

nur eben sind diese auf dx7 ausgelegt.

fakt.

das is scheiße, weil marktverbreitungdx8karten*gf4mx = klein

Andre
2002-02-11, 21:20:08
Originally posted by Razor
(daran wirst gerade Du nicht viel ändern können, wenn Du so weiter machst ;-)

Aber ich werde das tun, wenn Deine Äusserungen auf nicht beweisbaren Vermutungen gegen User hinauslaufen.
Hart diskutieren ist vollkommen in Ordnung, aber man sollte es schon auf einem sauberen Fundament aufbauen.

Andre
2002-02-11, 21:21:57
Und Razor,

ich wäre für eine Erläuterung froh, welchen Zweck Deine exzessiv gebrauchten Smilies denn haben.
Ich kann nicht beurteilen und auch nicht nachvollziehen, welchen Zweck sie haben sollten, da Du sie in jedem Kontext verwendest.

Danke!

Andre
2002-02-11, 21:33:57
Und nochmal Razor,

was mir grade einfiel:
Wenn ich einen rhetorischen Tip geben darf:
Man macht sich unglaubwürdig, wenn man persönlich wird.
Man findet viel mehr Unterstützung, wenn man logisch stringent formuliert und vor allem den Diskussionspartner respektiert.

Das sollte natürlich auch für die anderen gelten.
Aber wie heisst es schön:
Mit gutem Beispiel voran!

Thowe
2002-02-11, 23:15:33
Originally posted by Andre
Und Razor,

ich wäre für eine Erläuterung froh, welchen Zweck Deine exzessiv gebrauchten Smilies denn haben.
Ich kann nicht beurteilen und auch nicht nachvollziehen, welchen Zweck sie haben sollten, da Du sie in jedem Kontext verwendest.

Danke!

Vielleicht eine Art des Widerrufsrecht ???

Frage ich mich auch seit langen.

Quasar
2002-02-11, 23:23:49
@Andre:
Geht dein "edit" Button nicht mehr oder willst du nur Stefan einholen?

@Leonidas:
Wie du selber schon bemerkt hast, liefert nVidia auch DX8-Hardware aus. Beim ehemaligen 3dfx hatte man dagegen lange Zeit keine Wahl. Und eine Wahl zu haben macht in meinen Augen schon einen Unterschied.

@aths:
Ok, ich werde mal versuchen, dein Posting unvoreingenommen zu betrachten, zumal ich ehrlich gesagt, ähnliche Gedanken hege.

Eines ist IMHO zu berücksichtigen: MX und Ti bedienen völlig unterschiedliche Marktsegmente. Die Ti ist für den ernsthaften Gamer, der auch verdächtigt wird, eventuell aufwendige Spiele zu kaufen. Die MX dagegen bedient ein anderes Marktsegment, welches eher den MultiMedia-Freak, den Office-Schufter anspricht, der ab und an auch mal ein Spielchen nebenbei riskiert. Sicher wäre es schön, wenn man auch in diesem Segment DX8 anböte, doch zu diesem Zweck scheint die Ti4200 auserkoren, die als preisliche Alternative zur R8500LE daherkommt. Die MX-Modelle werden dagegen ab schätzungsweise $69 (offiziell $99)angeboten, einem Preissegment in welchem auch von ATi keine DX8-Features geboten werden.
Insofern sehe ich "nur" noch die Ausnutzung der magischen "4" als verwerflich an, allerdings nur für Media-Markt-Kunden. Denn selbst der schon kritisierte c't Artikel weist in zwei Instanzen deutlich auf die fehlende DX8-Funktionalität hin.

Ein Frage:
Wieso ist die MX "fast" DX8-Hardware? Soweit ich weiß, ist sie pures DX7 mit LMA-2 und Accuview.

Doomtrain
2002-02-11, 23:52:29
Originally posted by Quasar



Ein Frage:
Wieso ist die MX "fast" DX8-Hardware? Soweit ich weiß, ist sie pures DX7 mit LMA-2 und Accuview.


GeForce4 MX = Geforce2MX in 15micron, viel höher getaktet, mit DDR RAM + LMA2 + Accuview. Sonst nix. Ach ja Nview lol

Ergo die seit langem geforderte MX mit DDR *eg*

aths
2002-02-11, 23:52:33
Hallo Quasar,

<Vermutung>

Der NV17 hat (nicht durch DX programmierbare) PixelShader, nur etwas beschnitten. Für den DX8.0-Standard reicht es jedenfalls nicht. Ich weiss nicht ob, und wenn, wie weit der NV17 mehr kann als NV15 via NSR; ich weiss nur, dass der PixelShader 1.1 der GeForce3 nicht so wahnsinnig viel mehr kann als eine GTS mit NSR.

</Vermutung>

Die Namensgebung ist eine Frechheit, Verzeihung, eine Marketing-Strategie für sich, die ich gar nicht mal weiter betrachten will.

Wer sich für hier und jetzt eine Grafikkarte kauft, hat kaum Nachteile, wenn er nur DX7 HW erwirbt. Meine Argumentation geht so, dass es wünschenswert wäre, DX8-HW zur Massenware zu machen.

Warum?

DX7 brachte HW T&L (per CPU emulierbar, insofern kein neues Feature) ein paar neue Blend-Modi und noch ein paar Sachen. DX8 ist, wenn man auf die HW-Realisierung guckt, nur eine besseres DX7. Aber es ist so weit besser, dass es eine neue Qualität bringt. In erster Linie meine ich die PixelShader.

Wozu braucht das "untere" Marktsegment PixelShader? Nun, sie schaden ja nicht - und eine große Verbreitung der PS gäbe Entwicklern die Sicherheit, dass die neuen Effekte die als Kaufanreiz dienen sollen tatsächlich bei den meisten zu sehen sind.

Die Frage des Preises. Angenommen, die Karte würde um 10$ teurer - dafür könnte nVidia groß DX8 raufschreiben... und würde sich nicht den zu erwartenen Ärger einiger (wohl nicht allzu vieler) Kunden zuziehen, die bei der MX DX8 HW erwartet haben.

Die MX ist mit DX7 eine gute Karte für heute. Doch die Programmierer entwickeln heute für morgen. Wer sich heute die MX kauft, wird sich morgen keine DX8 HW zulegen.

Doomtrain
2002-02-11, 23:59:10
Originally posted by aths


Wer sich heute die MX kauft, wird sich morgen keine DX8 HW zulegen.

Genau das hast du falsch erkannt. Alle die sich jetzt (unbewußt oder nicht) eine DX7 Karte kaufen werden irgendwann feststellen, das "was" fehlt und schlagen erneut zu. Meinst du nicht???

Quasar
2002-02-12, 00:06:52
Der nV17 hat (per nV-email bestätigt) keine DX8-Shader irgendwelcher Art.

-Does the nV17 use a "crippled" Vertex Shader to do its TnL functions or does it still use the GF2-style HW TnL-Unit?

It is a standard style of T&L coupled with the enhancements of the
Lightspeed Memory Architecture II that significantly boosts performance. GeForce4 MX also partially accelerates vertex programs in hardware although not at the same level as GeForce4 Ti obviously

Sicher hast du mit deinem Posting ansonsten Recht, nur stellt sich die Frage der Die-Größe. Was für uns als Kunden wünschenswert wäre, läßt sich in der Regel kaum mit dem von Unternehmen angestrebten Ziel der Profitmaximierung vereinbaren.
Ich denke, daß nVidia nun noch ein letztes Mal DX7-Hardware der breiten Masse anbieten wird (sicher danach noch weiter, doch nur für OEMs -> TNT M64-Style) und zwar mit der Rechtfertigung, daß die Konkurrenz (und zwar die gesamte) dies auch noch tut. Hier setzt man einfach noch einen drauf und bietet die Leistungs- und featuremäßig führende DX7-Karte an.

Da Ende des Jahres, wenn sich DirectX9 im Endstadium (seiner Entwicklung) befindet, sowieso ein komplett neues, wie man hört, Featureset inklusive neuer Shader-Techniken nötig sein wird (für ATi wohl ebenso) und angeblich einige Entwickler lieber von der starren gleich in die komplett freie Programmierung übertreten wollen ohne noch einen Zwischenschritt einzulegen, wird auf lange Sicht, den DX8-Shadern wohl wenig Bedeutung zukommen. (Dies ist nicht meine These, sie wurde von einigen anderen hier im Forum verteten)

Du sagst, es wäre eine Frage des Preises. Sicher würde bei den höherwertigen MXen auch eine Ti-GPU in Frage kommen, doch wie sollte man dann den Unterschied zwischen einer DX8-MX 460 und einer DX7-MX 420 erklären? Ich denke kaum, daß man für unter $100 (Hilgert von Guru3D geht sogar von Preisen ab $69 aus) eine KArte mit ausreichend schnellem (nicht schnell angebundenem!) Speicher und einer DX8-kompatiblen GPU erwarten kann.

Aber wie gesagt, prinzipiell hast du natürlich recht.

aths
2002-02-12, 00:09:00
Nee, meine ich nicht. Denn ansonsten sind die MX mit DDR-RAM ja ausgezeichnete Karten.

Doomtrain
2002-02-12, 00:16:03
Originally posted by aths
Nee, meine ich nicht. Denn ansonsten sind die MX mit DDR-RAM ja ausgezeichnete Karten.

Schon, schon, ich bezweifle ja gar nicht das die Karten gut sind, aber man kauft eine "alte" Technik die ein wenig aufgepeppt wurde als GeForce4. Schön. Ich sehe allerdigs ein, wie weit der GeForce2 seiner Zeit vorraus war, den der Kern basiert auf dem GeForce1 SDR!! Krass oder?

Quasar
2002-02-12, 00:16:50
Entschuldige, was meinst du nicht?

Doomtrain
2002-02-12, 00:22:49
Originally posted by Quasar
Entschuldige, was meinst du nicht?

Ich bin nur beeindruckt davon, wie lange eine Architektur "halten" kann. Aber nun ist Sense. Irgendwann ist alles mal veraltet.

Quasar
2002-02-12, 00:28:58
Entschuldige, Doomtrain, aber ich habe meinen Post zur gleichen Zeit getippt, wie du deinen. Ich meinte eigentlich aths... :)

aths
2002-02-12, 00:29:29
Quasar, das was Doomtrain sagte, glaube ich nicht.

Ich habe irgendwo gelesen (Quelle nicht mehr parat) dass GF4 MX alle PS1.1-Effekte bis auf 2 könnte. Meine Vermutung geht davon aus, dass für den NV17 der NV25 ausgeschlachtet wurde.

Was nV offiziell sagt, nun, dort war nur von VS, nicht PS die Rede, nach PS wurde ja auch nicht gefragt. Ein bekanntes GeForce3-Demo läuft auch auf der neuen MX. Entweder wurde diese Demo tatsächlich nur mittels NSR realisiert, oder es werden PixelShader genommen, die die MX dann in Ansätzen auch haben müsste. Ich weiss nicht, ob diese Demo in DX läuft (dann wäre die PS-These ja hinfällig) oder in OpenGL.

In Dingen DX9 geht meine Argumentation so: DX9 mag noch so gut sein, ehe sich die Karten durchsetzen werden, dass breit für sie entwickelt wird, vergeht noch einige Zeit. In dieser würde ich dann gerne DX8-Effekte sehen.

Die MXe enhalten nur 2 Pipelines haben nur eine T&L-Einheit, das spart schon mal kräftig Transistoren. Beim Cache läßt sich auch gut sparen (wenn dann auch auf Kosten der Leistung, natürlich.) Die Memory Controller wurden ja auch von 4 auf 2 halbiert. Es ginge nur darum, auf 2 Pipelines NSR durch PS.1.3 zu ersetzen. Das sollte den Die nicht allzu sehr strapazieren.

Doomtrain
2002-02-12, 00:34:50
Originally posted by aths
Quasar, das was Doomtrain sagte, glaube ich nicht.

Ich habe irgendwo gelesen (Quelle nicht mehr parat) dass GF4 MX alle PS1.1-Effekte bis auf 2 könnte. Meine Vermutung geht davon aus, dass für den NV17 der NV25 ausgeschlachtet wurde.


Die MXe enhalten nur 2 Pipelines haben nur eine T&L-Einheit, das spart schon mal kräftig Transistoren. Beim Cache läßt sich auch gut sparen (wenn dann auch auf Kosten der Leistung, natürlich.) Die Memory Controller wurden ja auch von 4 auf 2 halbiert. Es ginge nur darum, auf 2 Pipelines NSR durch PS.1.3 zu ersetzen. Das sollte den Die nicht allzu sehr strapazieren.

Der Vertex und PS sollte zwar eine menge Transistoren benutzen, aber ich sehe die Logik nicht, eine guten Chip (NV25)so zu verkrüppeln.
Auf DX7 Level!!!

Quasar
2002-02-12, 00:46:59
@Doomtrain:
Ein Wort: Kohle!

@aths:
Was du gelesen hast, mag auf die schon viel zitierte Möglichkeit zurückzuführen sein, mittels normalen Texturing könne man fast PS1.1 Funktionalität erreichen. Wenn nVidia also einen Transistorenfressenden Pixelshader einbaut, warum ihn dann um 2 Befehle kürzen und sich die Werbemöglichkeit entgehen lassen? Das wäre imho unlogisch!


Was die Demo angeht, so denke ich, du meinst das Chameleon (du schriebst sonst immer Chamilion o.ä.), welches unter OpenGL läuft und rein optisch keine Effekte produziert, die man nicht mit Dot3 auch zu sehen kriegen würde. Der Transparenz-Modus wurde weggelassen, das Programm startet per default mit dem Parameter "-no_xray". Ich denke, reine NSR-Funktionen werden genutzt.

Momentan sehe ich mehr Analogien zwischen DX7 und DX8 als mir lieb ist....

Was den Die angeht, so denke ich, daß die Caches weit nicht so umfangreich ausfallen, wie bei CPUs, so daß ein Sparpotential hier nicht allzugroß ausfallen dürfte. Aber bei deinem Vergleich (halbe TNL-Einheit, halbe Pipelines, halber Speichercontroller) beschleicht mich das ungute Gefühl, man habe aus einem Ti zwei MX machen wollen, und das einzige, was sich nicht aufteilen ließ, was der PS...
Ob nun ein NSR oder ein PS1.3 komplexer ist, kann ich nicht beurteilen...

Für heut' erstmal gute N8 allerseits!

Doomtrain
2002-02-12, 00:55:31
Originally posted by Quasar
@Doomtrain:
Ein Wort: Kohle!


Wer es kauft ist selber schuld. In diesem Sinne, Nacht

Quasar
2002-02-12, 00:57:32
Jetzt laß mich doch endlich schlafen :)

Der nV17 liegt rein numerisch schon näher am nV15 als selbst am nV20 geschweigedenn am nV25. Daraus schließe ich mal, daß er wohl auch eher ein aufgebohrter GF2 als ein verküppelter GF3/4 ist.

Jetzt aber:
N8!

Xmas
2002-02-12, 04:01:09
Originally posted by aths
Ich habe irgendwo gelesen (Quelle nicht mehr parat) dass GF4 MX alle PS1.1-Effekte bis auf 2 könnte. Meine Vermutung geht davon aus, dass für den NV17 der NV25 ausgeschlachtet wurde.
Vermutlich meinst du dieses Zitat:
"NVIDIA Shading Rasterizer with 24 of 26 DX8 pixel shading functions and full set of OpenGL 1.3 pixel combiner operations", gefunden hier (http://www.beyond3d.com/messageview.cfm?catid=3&threadid=2031)
Man beachte, dass von "pixel shading functions", nich aber von "Pixel Shader" die Rede ist ;) Es handelt sich hier nämlich um die sogenannten D3D Texture Operations, von denen die GF4MX zwei, nämlich D3DTOP_BUMPENV und D3DTOP_BUMPENVLUMINANCE nicht unterstützt. Das entspricht AFAIK GeForce2.

Andre
2002-02-12, 11:21:05
Quasar,

warum ist es mir nicht gestattet, 3 Postings hintereinander zu verfassen, da sie unterschiedliche Gedankengänge sind?
Ich habe anderes zu tun, als mir über meine Posting-Zahl Gedanken zu machen.

Razor,

ich warte immer noch auf ein Statement bzw. auf Antworten.
Oder ignorierst Du mich?

aths
2002-02-12, 12:05:08
Xmas,

genau dieses Zitat meinte ich :) Hat die GTS auch das "full set of OpenGL 1.3 pixel combiner operations"? Meine (etwas spekulative) "Schlussfolgerung" ging davon aus, dass GTS höchstens das full set für OpenGL 1.2 hat, und im gleichen Zuge NSR auch in Richtung DX8 überarbeitet wurde.

Quasar,

ich bin mir über die *genauen* Ähnlichkeiten und Unterschiede zwischen NSR und PS nicht im Klaren. Dass die MX rudimentäre PS besitzt nahm ich wegen dem Chamäleon an. (Es wäre doch verwirrend, wenn eine GF3 Demo nur NSR nutzt.) Ich hab ein Video davon auf Platte, und nicht alles was ich dort sah, wurde im Launch-Video gezeigt, vielleicht sind so die Diskrepanzen zu erklären. (Obwohl ich es ziemlich dreist finde, dass dort wörtlich von same functionality gesprochen wurde.)

Ich weiss auch nicht, ob und wenn inwieweit sich PixelShader unter OpenGL nutzen lassen, oder ob dort nur die herkömmlichen Combiner-Extensions verfügbar sind. Ansonsten könnten OpenGL-Tests vielleicht Aufschluss über die NSR-Realisierung in der MX geben.

AlfredENeumann
2002-02-12, 12:28:24
Originally posted by aths
Ich hab ein Video davon auf Platte, und nicht alles was ich dort sah, wurde im Launch-Video gezeigt, vielleicht sind so die Diskrepanzen zu erklären. (Obwohl ich es ziemlich dreist finde, dass dort wörtlich von same functionality gesprochen wurde.)

Ich weiss auch nicht, ob und wenn inwieweit sich PixelShader unter OpenGL nutzen lassen, oder ob dort nur die herkömmlichen Combiner-Extensions verfügbar sind. Ansonsten könnten OpenGL-Tests vielleicht Aufschluss über die NSR-Realisierung in der MX geben.

Kannst dir es ja mal runterladen, läuft in DX auch auf anderen KArten.

Razor
2002-02-12, 13:14:17
@MadManniMan
hey razorle... wo ist dein prob?

hat ati die r7500 vor einer woche unter dem namen r8500mx rausgebracht?

nvidia schmeißt karten auf den markt, die noch bis mindestens weihnachten 2002 zu kaufen sind. machen mehrere.

nur eben sind diese auf dx7 ausgelegt.

fakt.

das is scheiße, weil marktverbreitungdx8karten*gf4mx = klein
Nein, ATI hat die 'alte' RadeonDDR unter dem neuen Namen Radeon7500 heraus gebracht, ohne jegliche technische Änderung vorzunehmen (wenn man mal von dem geäderten Fertigungsprozeß absieht ;-).

nVidia hat der DX7-Generation wenigstens einen Teil der technologisch verfügbaren Möglichkeiten der Bandbreitenoptimierung 'spendiert', zudem auch noch das der gf4ti-Line, nämlich besagtes LMA2.

Hat ATI der R7500 denn wenigstens HyperZII mitgegeben ?
Nein !

Wer ist hier also 'einfallsloser' ?
;-)

@Andre

Nicht so ungeduldig, dies ist nicht der einzige Thread, den ich im Netz zur Szeit verfolge !
;-)

Habe ich Dich richtig verstanden ?

"Aber ich werde das tun, wenn Deine Äusserungen auf nicht beweisbaren Vermutungen gegen User hinauslaufen.
Hart diskutieren ist vollkommen in Ordnung, aber man sollte es schon auf einem sauberen Fundament aufbauen."

Du würdest also meine Äusserungen zensieren, nur weil der Inhalt Dir nicht paßt, auch wenn keine beleidigenden Inhalte oder ähnliches enthalten ist ?

DAS würde mich wirklich sehr wundern !

"ich wäre für eine Erläuterung froh, welchen Zweck Deine exzessiv gebrauchten Smilies denn haben."

Die kann ich Dir leider nicht geben, denn ich finde es einfach spaßig, diese zu benutzen !
;-)

"Wenn ich einen rhetorischen Tip geben darf:
Man macht sich unglaubwürdig, wenn man persönlich wird."

Das sollte sich ein spezielles 'Crew'-Mitgleid hinter die Ohren schreiben, denn er beschwört mit dem bei mir kritisiertem, aber bei ihm gedulteten Verhalten, eine diesbezügliche Reaktion meinerseits regelrecht herauf !

"Mit gutem Beispiel voran!"

Bis Du nicht der Meinung, daß nicht die Foren-Teilnehmer mit gutem Beispiel voran gehen sollten, sondern gerade die Betrieber (was Ihr bis auf eine Ausnahme auch tut !) dem Rechnung tragen sollten ?

@Quasar

Ich vermute ebenfalls, daß sich die meisten hier eigentlich nur an dem '4' stören.

Und Marketing hin oder her, man kann seitens nVidia das auch so argumentieren, daß die gf4 (alle Karten) eben die Speicherarchtektur der 4.Generation haben und somit die Bezeichnung auch als gerechtfertigt gilt.

Desweiteren hat nVidia noch nie die DX-Bezeichnungen in ihre Produkte aufgenommen, weil sie ja nicht nur Kompetenz in Sachen DirectX aufweisen, sondern ebenfalls (schon fast gleichwertig) OpenGL zu ihren Stärken zählen dürfen und wohl (noch) als einzige Anbieter mit ihrem Produktreihen auch professionelle Instanzen anbieten (GL-Reihe).

ATI läßt sich nun voll und Ganz auf die DirectX-Namensgebung ein und versucht durch eine Bezeichnungsänderung ein sehr altes Produkt einen 'modernen' Anstrich zu geben (RadeonDDR als Radeon7500).

Ich muß ganz ehrlich sagen, daß hier absolut kein Unterscheid festzustellen ist.

nVidia unterscheidet ganz klar mit "ti" und "mx" und stellt die unterscheidlichen Leistungsstufen in Form von Zahlen dar. Das ist eingängig und durchaus praktikabel.

ATI unterscheidet nach DX-Version "7" und "8" und stellt die unterscheidlichen Leistungsstufen sowohl in Zahlen (000/200/500), als auch in Buchstaben (LE/XL) dar.

Ein Nicht-Kenner kennt auch keine unterschiedlichen DX-Versionen, insofern ist die Namensgebung von ATI für diesen Personenkreis genauso mißverständlich, wie der von nVidia.

Hmmm...

Wenn die Reviewer nicht darauf hinweisen würden (MX='nur' DX7), dann könnte ich diese Aufregung ja noch verstehen, aber so sieht dies eher nach einer künstlichen Aufregung derer aus, die sich 'eh keine nVidia-Karte kaufen würden...

Wohlgemerkt: "Sieht danach aus..." !
;-)

@Doomtrain

"GeForce4 MX = Geforce2MX in 15micron, viel höher getaktet, mit DDR RAM + LMA2 + Accuview. Sonst nix. Ach ja Nview lol
Ergo die seit langem geforderte MX mit DDR"

gf4mx = gf2 (mx/gts/pro/ti/ultra) mit DDR und SDR + LMA2 + Accuview
oder
gf4mx = gf4ti ohne DX8 (sehr viel einfacher ;-)

Und eine gf2mx mit (halben) DDR gibt's doch schon lange...
;-)

@aths

"Wer sich für hier und jetzt eine Grafikkarte kauft, hat kaum Nachteile, wenn er nur DX7 HW erwirbt. Meine Argumentation geht so, dass es wünschenswert wäre, DX8-HW zur Massenware zu machen."

DX7-Hardware birgt also keine Nachteile ?
Warum dann die Aufregung um die gf4mx ?
Verteibt ATI nur noch exclusiv DX8-Hardware ?
Nein ?
Warum sollte nVidia das dann tun ?
???

Wünschenswert wäre es in jedem Fall für den Endbenutzer, nicht aber [i]für die Industrie[/b]. Auch für die Entwicklung für DX7-Hardware will bezahlt und profitabel sein. Das wird mit der DX8-Hardware wird das nichts anderes sein... und das gilt für alle Hersteller und hat keinen speziellen Anspruch.

nVidia möchte Grafikkarten der 4.Generation verkaufen und hinsichtlich der Speicherzugriffs-(Bandbreitenoptimierungs-)Technologie haben sie ja sogar in jedem Fall recht. Warum dann also nicht unter diesem Augenmerk vermarkten ?

Nur weil ATI die DX-Version in den Vordergrund stellt, müssen es doch nicht alle anderen genauso machen. Oder tut dies nur ein einziger anderer Hersteller ?

Eher nicht !

In diesem Sinne

Razor

aths
2002-02-12, 13:36:03
Razor,

ich argumentiere aus Sicht des Endverbrauchers und nicht von nVidias Aktienkurs.

AlfredENeuman,

hast du u.U. eine URL dafür?

Andre
2002-02-12, 13:41:49
Razor,

"Nicht so ungeduldig, dies ist nicht der einzige Thread, den ich im Netz zur Szeit verfolge !"

Schon ok.

"Habe ich Dich richtig verstanden ?"

Ich vermute nicht.

"Du würdest also meine Äusserungen zensieren, nur weil der Inhalt Dir nicht paßt, auch wenn keine beleidigenden Inhalte oder ähnliches enthalten ist ?"

Razor, lies mal ganz genau.
Ich will sagen, dass wenn Anschuldigungen gegen einzelne User gemacht werden, die NICHT belegbar sind und auf subjektivem Urteil basieren, dann werde ich einschreiten - das muss nicht in Forum eines Edits sein.

"Die kann ich Dir leider nicht geben, denn ich finde es einfach spaßig, diese zu benutzen !"

Auch das gehört zu einer gepflegten Diskussionkultur.
Smilies bedeuten allgemein, dass sie eine Aussage mit einem gewissen Humor oder einer Portion Ironie versehen - also nicht ganz ernst gemeint sind.
Wenn man diese Definition bei Dir anwendet, könnte man fast darauf kommen, dass Du nichts ernst meinst.
Vielleicht setzt Du dieses Mittel "etwas" dosierter ein.

"Das sollte sich ein spezielles 'Crew'-Mitgleid hinter die Ohren schreiben, denn er beschwört mit dem bei mir kritisiertem, aber bei ihm gedulteten Verhalten, eine diesbezügliche Reaktion meinerseits regelrecht herauf !"

Immer mit dem Finger auf andere zeigen, bringt nichts.

"Bis Du nicht der Meinung, daß nicht die Foren-Teilnehmer mit gutem Beispiel voran gehen sollten, sondern gerade die Betrieber (was Ihr bis auf eine Ausnahme auch tut !) dem Rechnung tragen sollten ?"

Das stimmt schon.
Aber man kann es selber besser machen und selber zu einer besseren Atmosphäre beitragen.

AlfredENeumann
2002-02-12, 15:39:58
Originally posted by aths
Razor,

ich argumentiere aus Sicht des Endverbrauchers und nicht von nVidias Aktienkurs.

AlfredENeuman,

hast du u.U. eine URL dafür?

http://www.nvidia.com/view.asp?IO=demo_chameleon

46MB !!!

TBird
2002-02-12, 17:39:37
Originally posted by aths
Ich würde mich freuen, wenn folgendes Posting neutral aufgefasst wird und nicht als nVidia bashen.


Kann man vor dem Lesen des eigentlichen Textes nicht versprechen.


nVidia kann mit den GF4 MX offenbar mehr Geld verdienen, wenn sie DX7 HW ist, als wenn sie DX8 HW wäre.


Begründung ???
nVidia bringt die GF4 MX nicht für den 3D-Enthusiasten heraus. Aus Sicht von nVidia ist dazu keine DX8.1 Kompatibilität nötig. Ich persönlich kann das nachvollziehen, da noch nichtmal die neuesten angekündigten Spiele DX8.1-only sein werden, sondern auch weiterhin auf DX7 Hardware spielbar bleiben.


Es wurde viel darüber geredet, dass die GF4 nur PS1.3 hat. Viel schlimmer finde ich, dass die MX nur NSR und keinen PS hat.


Wer DX8.1 kompatible Hardware von nVidia haben möchte, holt sich ein Modell aus der GF4 Ti Reihe. Die klare Abgrenzung der MX Reihe zur Ti Reihe wäre aus meiner Sicht nicht mehr gegeben, wenn die MX auch noch PS hätte.


Hier hält Marktwirtschaft die Innovation auf. In meinen Augen ist die Welt für DX8-Spiele mehr als reif. Diese werden natürlich nur dann kommen, wenn die passende HW entsprechend weit verbreitet ist. Wäre die GF4 MX DX8 HW, bestünde in einem halben Jahr vermutlich eine deutlich größere DX8 HW Verbreitung als heute. Das würden die Entwickler auch sehen und entsprechend reagieren. Denn dann wären alle Neu-Karten von allen großen Firmen kompatibel zu DX8.


Ich würde mich auch darüber freuen wenn die Spieleentwickler in Zukunft zu 100% auf DX8.1 und dessen Möglichkeiten setzten. nVidia aber den Vorwurf zu machen dies zu blockieren oder zu verzögern halte ich für falsch. nVidia bietet mit der GF4 Ti 4200 und der GF4 MX 460 preislich einen fließenden Übergang von DX7 Hardware zu DX8.1 Hardware. Ein ambitionierter Spieler wird sich heutzutage eh keine DX7 Hardware und somit keine GF4 MX mehr holen. DX8.1 Hardware ist also vorhanden. Die entsprechende Software herzustellen ist nicht Aufgabe von nVidia.


So aber dürfen wir weiterhin mit DX7-Technik auskommen. Es ist richtig, dass das heute kein Nachteil ist, "nur" DX7 HW zu haben. Jedenfalls ist nVidia, seit dem sie sicher die Marktführerschaft erreicht haben, nicht mehr der bekannte "Förderer" neuer Technologie. Was nützt mir eine denkbare DX9-HW im Herbst, wenn ich sie nicht bezahlen kann?


Wie ich oben schon geschrieben habe, muß keiner mit DX7 Hardware auskommen. Preisliche Alternativen bietet nVidia an. Meiner Meinung nach auch schon seit der GF3 Ti 200. nVidia nicht mehr als bekannten Förderer im ConsumerMarkt zu bezeichnen mußt Du mir mal erklären. Was sollen die Jungs denn noch tun ??? Sie waren die ersten die mit der GF3 100% kompatible DX8 Hardware entwickelt haben. Selbst an der DX8 API haben sie in sehr enger Kooperation mit Microsoft zusammengearbeitet. Sie waren darüberhinaus die ersten die 100% kompatible DX7 Hardware mit der GF 256 entwickelt haben. Die erste mit HW T&L. Sie haben in bedeutendem Maße an der Weiterentwicklung der OpenGL API durch Extensions mitgewirkt, von denen viele vom ARB in die offizielle OpenGL Spezifikation eingeflossen sind. Und sie werden aller Voraussicht nach auch die ersten sein, die 100% kompatible DX9 Hardware in Form der GF5 (NV30) den Entwicklern bereitstellen. Nenne mir ein Unternehmen das für den ConsumerGrafikMarkt mehr Innovationen eingebracht hat als nVidia. 3dfx wären aus meiner Sicht noch zu nennen wenn es die noch gäbe, aber andere Firmen sind wenn überhaupt immer nur dem eingeschlagenen Pfad von nVidia (seit sie 3dfx gekauft haben) gefolgt. Die DX9-HW nützt Dir bei erscheinen erstmal nicht sehr viel. Du wirst wahrscheinlich höhere Auflösungen fahren können mit höchstem aktiviertem AA und AF. DX9 Funktionalität wird Dir natürlich noch nix nutzen, da die Entwickler erstmal ihre Zeit brauchen sich mit der neuen Technologie zu beschäftigen um entsprechende Produkte zu entwickeln. Das ist aber wie gesagt ein Problem der Entwickler und nicht von nVidia.



Die GF4 MX ist "fast" DX8 HW. Ich frage mich, wieso sie auf DX7 gekappt wurde, da sie DX8 nicht ganz erreicht. Sollte der Abstand zur Ti gewahrt werden? Will sich nVidia vom MS-Diktat mit den DX-Versionen lösen und möchte erreichen, dass die Entwickler NSR nutzen? (Womit sich auf der MX eine Vielzahl "DX8-Effekte" darstellen lassen.)


Also die GF4 MX ist auch nicht "fast" DX8 HW. Hätte sie Vertexshader (Version 1.0) und Pixelshader (Version 1.0 und 1.1) dann wäre sie DX8 kompatibel. Beides hat sie nicht. Der NSR hat nix mit DX8 konformität zu tun, ist aber auch wieder ein Beispiel für Innovation von nVidia, die sich einreihen ließe in meine obige Auflistung. Der Abstand zur Ti sollte auf jeden Fall gewahrt werden, das ist auch meine Meinung. 6 DX8.1 Produkte herauszubringen würde für mich noch weniger Sinn machen als 3 DX8.1 und 3 DX7 Produkte. NSR wird leider immer noch benutzt, wahrscheinlich um fehlende DX8 Hardware gut genug emulieren zu können und somit nicht auf bestimmte visuelle Effekte zu verzichten. Mir wäre es aber auch lieber den DX7 Zopf komplett abzuschneiden und vollkommen auf DX8.1 zu setzen. Dies müssen allerdings die Entwickler bewerkstelligen. nVidia ist jedenfalls schon da.


Mich interessieren eure Meinungen.


Das war jedenfalls meine.

Major J
2002-02-12, 17:55:03
Ich bin mit meiner GF2 TI zufriedener als ich es mit so einer Schummelgeforce 4 wäre. Erstens desshalb weil die TI eine Hochgezüchtete Graka ist. Lieber einen aufgetunten Porsche als einen "Standard"-Ferrari. Zweitens ist sie eine TI. Und Drittens hab ich kein Geld um mir eine GF4 zu leisten.

:D

aths
2002-02-12, 18:04:02
T-Bird,

da sich VertexShader 1.1 ganz gut emulieren lässt, und es nur ein paar Geschwindigkeitsvorteile bringt, sehe ich vor allem auf die PixelShader die sich nicht emulieren lassen. Ebenso sehe ich HW T&L featureseitig kaum als Vorteil, da es "nur" etwas Geschwindigkeit bringt.

Welche Nachteile hätte der Käufer, wenn die MX-Karten DX8 HW wären, außer dass er vielleicht 10$ mehr bezahlen muss?

Ich sehe keine. Aber ich sehe die Vorteile, wenn DX8 jetzt so schnell wie möglich eine große Verbreitungsbasis bekommt. Wenn ich mich nicht irre, gibt es DX7 und entsprechende HW seit 4 Jahren - es ist in meinen Augen wirklich Zeit sie abzulösen. Die MX wendet sich auch an Spieler, wenn auch eher an preisbewusste Spieler. Die Entwickler brauchen als Sicherheit eine große Verbreitung der HW, für die sie entwickeln. Niemand wird gehindert, für DX8 zu programmieren. Der Schritt würde aber sicher einigen leichter fallen, wenn es als Neukarten für Spieler überhaupt nur noch DX8 HW gäbe.

Matrix316
2002-02-12, 18:18:56
Und anstatt ;-) sieht ;) doch schöner aus.;)

MadManniMan
2002-02-12, 18:21:33
@TBird

kein full, aber ein partielles ack...

2 punkte:

a) vergiß nicht, daß die ti4200 erst EINIGE wochen später kommt -> der übergang ist nicht wirklich fließend

b) ich hätte nix dagegen gehabt, hätte nVidia den gf4mx gf2ti maxx/xp/sonstwas genannt oder weiter den gf2ti ins volk geschmissen. so aber finde ich das marketing... doof

ansonsten hast du recht

TBird
2002-02-12, 18:49:52
Originally posted by aths

Welche Nachteile hätte der Käufer, wenn die MX-Karten DX8 HW wären, außer dass er vielleicht 10$ mehr bezahlen muss? Ich sehe keine.


Der Käufer kann von nVidia ja DX8.1 Hardware haben wenn er es will und braucht. Ohne Mehrkosten. Die GF4 MX 460 liegt im gleichen Preissegment wie die GF4 Ti 4200. Von meinem Standpunkt aus hätte nVidia natürlich die ganze MX Palette weglassen können aber es gibt sicherlich auch noch Leute, die nicht so hohe Ansprüche haben wie man selbst. Warum sollte nVidia diesen Käufern Produkte vorenthalten bzw. wieso sollten sie diesen Markt nicht bedienen ?


Aber ich sehe die Vorteile, wenn DX8 jetzt so schnell wie möglich eine große Verbreitungsbasis bekommt. Wenn ich mich nicht irre, gibt es DX7 und entsprechende HW seit 4 Jahren - es ist in meinen Augen wirklich Zeit sie abzulösen.


Meiner Meinung steht dem nichts mehr im Wege. Hardwaremäßig ist DX7 schon obsolet, da es DX8 und DX8.1 Karten zu günstigen Preisen zu kaufen gibt. Softwaremäßig muß allerdings von den Entwicklern noch viel getan werden. Das stimmt.
Man könnte das vielleicht mit dem Umstieg von reiner 16Bit Software zu reiner 32Bit Software vergleichen. Den ersten 32Bit Prozessor (386) gab es auch schon Jahre bevor es reine 32Bit Software gab, die die neuen Möglichkeiten voll ausgenutzt hat.


Die MX wendet sich auch an Spieler, wenn auch eher an preisbewusste Spieler.


Ich würde eher sagen, daß die MX sich nicht nur an preisbewusste Spieler sondern auch an anspruchslosere 3D Spieler richtet. Und für etwas anderes als 3D Spiele braucht man heutige Karten vom Kaliber einer GF4 oder Radeon 8500 sowieso nicht. 2D Spiele sind jedenfalls auch heutzutage mit einer TNT2/Rage128 kein großes Problem. Es geht also nur noch um 3D. Wer also heutige und ältere 3D Spiele in guter bis sehr guter Qualität spielen will, für den ist eine GF4 MX geeignet. Wer aber heutige und zukünftige 3D Spiele in bester Qualität spielen will, der muß zur GF4 Ti greifen.



Die Entwickler brauchen als Sicherheit eine große Verbreitung der HW, für die sie entwickeln. Niemand wird gehindert, für DX8 zu programmieren. Der Schritt würde aber sicher einigen leichter fallen, wenn es als Neukarten für Spieler überhaupt nur noch DX8 HW gäbe.


Es muß nicht unbedingt nur noch DX8 HW verfügbar sein. Wichtig ist, daß die Zielgruppe für die die Entwickler ihr Spiel schreiben die entsprechende Ausstattung haben und davon kann man ohne weiteres ausgehen oder nicht ?

TBird
2002-02-12, 19:01:32
Originally posted by MadManniMan der Rula
@TBird

kein full, aber ein partielles ack...


Na das ist doch schonmal was. ;)


a) vergiß nicht, daß die ti4200 erst EINIGE wochen später kommt -> der übergang ist nicht wirklich fließend


Das stimmt. Ich meinte das fließend auch bezogen auf den Preis nicht auf die Zeit der Verfügbarkeit.


b) ich hätte nix dagegen gehabt, hätte nVidia den gf4mx gf2ti maxx/xp/sonstwas genannt oder weiter den gf2ti ins volk geschmissen. so aber finde ich das marketing... doof


Die Namensgebung irritiert den nicht Eingeweihten, da hast Du recht. Den Namen führe ich auch eher nicht auf die DX Fähigkeiten zurück, sondern auf die Tatsache, daß die GF4 MX auf der gleichen erweiterten und verbesserten Architektur basiert wie die GF4 Ti. Wer sich aber richtig und gründlich vor einer Hardwareneuanschaffung informiert, hat damit denke ich keine Probleme. Und davon geh ich aus, denn wer ganz explizit DX8.1 Hardware möchte und weiß warum und was das überhaupt ist, der sollte den Unterschied der GF4 Ti/MX Reihe kennen bzw. von sich aus studiert haben. Das es dadurch aber zu Fehlkäufen kommt glaube ich eher weniger.


ansonsten hast du recht


Danke. :)

StefanV
2002-02-12, 19:52:34
Originally posted by AlfredENeumann


http://www.nvidia.com/view.asp?IO=demo_chameleon

46MB !!!

Watt is denn datt für'n Müll?!

Läuft ja nichtmal auf meiner G400!!

TBird
2002-02-12, 19:54:56
Originally posted by Stefan Payne


Watt is denn datt für'n Müll?!

Läuft ja nichtmal auf meiner G400!!

Kein Wunder:


Before you begin, make sure you have a GeForce3 GPU in order to run it.


;)

AlfredENeumann
2002-02-12, 20:26:14
Die ersten kaufen schon wie die Irren die GF4mx-Karten bei Ebay zu Preisen wo ich nur noch mit dem kopf schütteln kann.

http://cgi.ebay.de/aw-cgi/eBayISAPI.dll?ViewItem&item=2001742014

Doomtrain
2002-02-12, 20:43:22
Originally posted by Razor


Und eine gf2mx mit (halben) DDR gibt's doch schon lange...
;-)




HAHAHA Ach ja stimmt ja. Das heißt dann also noch weniger Innovation für die GeForce4MX *eg* *eg* (Nein, war ja die Schuld von Creative)

Quasar
2002-02-12, 21:41:12
Mal ein anderer Gedankengang:

Hat schonmal jemand dran gedacht, daß ATi nVidia zwingt, noch DX7 Hardware anzubieten, indem sie es auch tun?

Fiel mir nur grad so ein...
BTW, aths, das nV17-Chamäleon (so wird's glaube ich richtig geschrieben..), kommt, wie schon gesagt, ohne die aufwendigsten Effekte des nV20-Chamäleons aus, es sind zwei unterschiedliche Versionen der Demo.

Exxtreme
2002-02-12, 21:47:28
Originally posted by Quasar
Mal ein anderer Gedankengang:

Hat schonmal jemand dran gedacht, daß ATi nVidia zwingt, noch DX7 Hardware anzubieten, indem sie es auch tun?


Ich kann mir beim besten Willen nicht vorstellen, worauf du hinaus willst. Dir ist ist schon klar, daß die DX8-GraKas auch DX7 können ;). ATI bietet die DX7-Karten eher im Low-End-Bereich an.

Gruß
Alex

Quasar
2002-02-12, 22:07:53
Naja, DX8-Hardware im Low-Cost Bereich anzubieten wird sich kaum ein Hersteller leisten wollen. ATi tuts mit der R7500 auch nicht, sondern bietet dort ebenfalls eine geshrinkte DX7-RadeonI an. Gleiches tut nVidia mit der MX, beide basieren auf dem Kern der alten Garde, haben Dual-View, MM-Features und einen geshrinkten Die.

In jedem Segment der Konkurrenz etwas entgegenzusetzen haben lautet die Devise.

Doomtrain
2002-02-12, 22:15:56
Originally posted by Quasar
Naja, DX8-Hardware im Low-Cost Bereich anzubieten wird sich kaum ein Hersteller leisten wollen. ATi tuts mit der R7500 auch nicht, sondern bietet dort ebenfalls eine geshrinkte DX7-RadeonI an. Gleiches tut nVidia mit der MX, beide basieren auf dem Kern der alten Garde, haben Dual-View, MM-Features und einen geshrinkten Die.

In jedem Segment der Konkurrenz etwas entgegenzusetzen haben lautet die Devise.

Unlogisch. Eine DX8 Karte würde von den Produktionskosten vielleicht 10Euro mehr kosten. Wenn man eine DX8 Maintreamkarte gegen eine DX7 MS Karte antreten lassen würde, wer würde wohl im Endeffekt gewinnen? Oder sehe ich das falsch?

Oder anders: Wenn man eine bessere entsprechung hätte....

aths
2002-02-12, 22:57:21
T-Bird,

dass die Ti4200 tatsächlich genauso viel kosten wird wie die MX460, wage ich zu bezweifeln. nV hätte den Markt auch bedienen können mit Karten die den PixelShader haben. Sie wären nicht deutlich teurer geworden.

Bei T&L tat nVidia so, als würde man auf keinen Fall mehr ohne auskommen, dabei ist das leicht von der CPU machbar. Anders beim PixelShader, hier macht Hardwareintegration wirklich Sinn.

Du schreibst, da stimme ich zu, dass die MX trotz DX7 für ein bestimmtes Spielersegment ausreicht. Es wird also noch mal eine größere Zahl an DX7-Karten verkauft - was als Basis für DX8 nicht förderlich zu nennen ist.

Du sprichst die Zielgruppe an. Ich denke, wenige Spiele werden nur für Enthusiasten geschrieben, der Publisher wird darauf achten, dass auch der Normalo das Spiel laufen lassen kann.


AlfredENeumann,

diese Ebay-Versteigerung halte ich für absichtlich irreführend: Der Werbetext spricht von der GeForce4, müsste aber ausdrücklich von der Ti sprechen ("nfiniteFX™ II Engine"), des weiteren steht da "1.1 Billionen Texels/Sec." - hier wurde falsch übersetzt. Einen Chip mit 1.1 Billionen Texels pro Sekunde möchte ich mal sehen :))


Quasar,

danke für die Klärung - da frage ich mir nur, was er dann mit "same functionality" meinte. (Hast du dir das Video mal angesehen?)

Quasar
2002-02-12, 23:22:19
@Doomtrain:
Mag sein, aber €10 (oder nach aths sogar $10) pro Chip ist auch einiges an Geld, wenn du in 10.000er Stückzahlen und höher gehst. BTW, kenn ich keinen MM-Freak, dem nicht iDCT etc. 1000x lieber wäre als DX8, womit man z.Z. eh noch nix anfangen kann (laut div. Anworten auf frühere Posts von mir).
Außerdem sind $10 (und das ist nur der Kostenmehraufwand, abgesehen von dem, was sich Kartenhersteller auch einstecken wollen) schon 14% des angepeilten niedrigsten VK für die MX420. Und was soll bsw. eine Karte mit 2,7GB (1GB=8Mrd.Bit) Bandbreite mit DX8-Shadern? Ich weiß da schon jemandem, dem das mit als erstem mißfallen wäre!

@aths:
Leider nein, das Video vom GF3-Launch hab ich bisher noch nicht zu sehen bekommen. Hast du eine URL?

Doomtrain
2002-02-12, 23:30:18
@Quasar
Stimmt, wenn man 10x 500000 rechnet kommt man schon auf ein Hübsches Sümmchen. Wir weren ja sehen, wie die Sache entwickelt.
Ach, nur so am Rande, aber ein ungeübtes Auge oder Laien sehen den unterschied zwischen einzelnen Grakas so oder so nicht. Um neue Effekte von den "alten" zu unterscheiden muß man schon Ahnung haben.
(z.B kann man kaum sehen ob man Aquanox nun auf einer GeForce2 oder3 spielt.)

Razor
2002-02-13, 13:23:37
@aths

Du tust immer so, als ob es da nur den Endbenutzer und nVidia geben würde, aber das Geschehen ist dann doch etwas komplexer oder ?

Informier Dich doch mal bitte, wieveil ein NV-Chip kostet und setze dies in Relation zu den Chip-Kosten anderer Hersteller. Sicher wird nVidia 'etwas' teurer sein, aber so 'wild' ist's dann sicher nicht (habe genaue Zahlen nicht mehr im Kopf und auch keine Lust danach zu suchen).

Es gibt rund 20 Anbieter von NV-Karten und wohl etwa die häfte oder ein drittel an 'echten' Herstellern...

ALLE stehen in Konkurrenz und unterbieten sich gegenseitig. DAS ist schon mal sehr erfreulich für den Endkunden. Auch gibt nVidia ja keine Preise vor, sondern lediglich Empfehlungen, die dann auch fröhlich unterboten werden. Insofern kritsiere die Hersteller doch bitte, wenn es um geforderte Preise geht...

Das war nun keine direkte Antwort auf Deine diesbezügliche Feststellung, als wird diese nun nachgereicht:

Die Hersteller kaufen bestimmte Kontingente von NV und bekommen günstigere Konditionen je mehr sie abnehmen und wohl noch mehr, wenn sie die gesamte Palette anbieten. Der Hersteller erhält dafür sehr guten Support und eine Produktpalette, die man auf alle Marktsegmente abbilden kann. DAS ist ein unbestreitbarer Vorteil bei NV-Produkten, was sich zum Teil auch in dem Erfolg von nVidia niederschlägt (und damit in den Aktien-Kursen ;-).

Und da zur Zeit mehr DX7-Karten im Mainstream angeboten werden und die gf/gf2-Linie nun langsam gegen die gf3/4-Linie abgelöst werden soll, muß man dafür sorgen, daß die 'neuen' generationen ebenfalls alle Marktsegmente für die nächsten 1-2 Jahre bedienen können. So und nicht anders ist die MX-Serie zu erklären und nicht nur logisch nachvollziehbar, sondern vom wirtschaftlichen und marktpolitischen Standpunkt auch unabdingbar.

Würde es derzeit (und in den nächsten 6-12 Monaten) tatsächlich nur noch DX8-Karten geben, dann würde die neue Produktlinie von nVidia tatsächlich keinen Sinn machen, aber da dem nicht so ist, ist auch diese Diskussion ziemlich überflüssig.

Wenn gefürchtet wird, daß durch die 'doppeldeutigkeit' der '4' verwirrung entsteht, dann klärt die Leute auf (was allerdings auch für alle anderen Produkte aller anderen Hersteller gilt).

Wie schon vorher gesagt, verstehe ich diese ganze Aufregung nicht !

@Andre

"Ich will sagen, dass wenn Anschuldigungen gegen einzelne User gemacht werden, die NICHT belegbar sind und auf subjektivem Urteil basieren, dann werde ich einschreiten - das muss nicht in Forum eines Edits sein."

Habe ich das gemacht ?
Wenn ja, wäre ich Dir dankbar, wenn Du mir dieses dokumentieren könntest, geren auch per PM !

"Smilies bedeuten allgemein, dass sie eine Aussage mit einem gewissen Humor oder einer Portion Ironie versehen - also nicht ganz ernst gemeint sind.
Wenn man diese Definition bei Dir anwendet, könnte man fast darauf kommen, dass Du nichts ernst meinst.
Vielleicht setzt Du dieses Mittel "etwas" dosierter ein."

Vielleicht, vielleicht aber auch nicht...
Ich behalte es mir vor, weiterhin so zu posten, wie es mir in den Sinn kommt.
Wenn mir eine Diskussion 'ernsthaft', sachlich und objektiv geführt wird, dann erkläre ich mich schon im Vorwege dazu bereit. Solange aber subjektivität vorherrscht (und ich nehme meine Person nicht aus !), werde ich auch weiterhin so schreiben, wie es mir 'passend' erscheint.

Wäre das OK für Dich und die anderen Mod's ?
;-)

"Immer mit dem Finger auf andere zeigen, bringt nichts."

Ich zeige mit meinem Finger (wie andere übrigens auch) nur auf einen bestimmten anderen, das ist ein großer Unterschied !

"Aber man kann es selber besser machen und selber zu einer besseren Atmosphäre beitragen."

Seh ich auch so, aber leider gewährleistet dies nicht, das andere das auch so tun.
Und wenn sich jemand dort heraus nimmt, hat er einen stilistischen Vorteil...
(sicher nicht ganz korrekt ausgedrückt ;-)

Ich würde das nicht so ernst nehmen, Andre, solange so etwas im Pro&Contra-Forum passiert, welches ja nun extra eingerichtet wurde, um solch konträre Diskussionen zu führen, die auch mit viel Emotionalität behandelt werden und damit auch schnell in eine unsachliche Ebene abrutschen. Solange die anderen Foren dann davon befreit sind, ist's doch gut und der gewünschte Effekt wurde erzeilt.

Klar kann man es immer besser machen, aber dann macht's auch nicht mehr so viel Spaß und das wollen wir (will ich !) doch auch nicht...

@TBird

Sehe ich alles ziemlich ähnlich...
;-)

@Major J

Du bist meiner gf2ti zufriedener, als Du es mit einer gf4mx wärst ?
Warum ?
???

Um das zu beurteilen, müsste man eine solche Karte in den Fingern haben...
Erst dann würde eine solche Aussage sinn machen, so ist sie ziemlich haltlos.
(zumal bereits viele Reviewer etwas anderes berichteten ;-)

Aber ich vermute, daß Du dies auch nicht ganz ernst meintest...
(zumal eine gf4mx eine 'hochgezüchtete' gf2ti ist ;-)

@aths

"Welche Nachteile hätte der Käufer, wenn die MX-Karten DX8 HW wären, außer dass er vielleicht 10$ mehr bezahlen muss?"

Darf ich fragen, wie Du darauf kommst ?
Vermutlich müssten schon die Hersteller 10$ mehr für den Chip bezahlen, was dann mit ca. 50$ an den Kunden weiter gereicht werden dürfte (andere Fertigung inkl. Marge). Was dann dazu führen würde, daß gerade das untere Marksegment erheblich teurer werden würde. Und das wäre im Sinne der Endkunden, die dann für einen nicht benötigten VS/PS mehr ausgeben müssen, weil sie eben nur Office benutzen und mal 'nen paar Viedeo's schaun' (in sehr seltenen Fällen vielleicht soagr mal zum Knüppelk greifen ;-)...

Hmmm...

@Stefan

"Läuft ja nichtmal auf meiner G400!!"
Oh mann...
;-)

@Quasar

"Hat schonmal jemand dran gedacht, daß ATi nVidia zwingt, noch DX7 Hardware anzubieten, indem sie es auch tun?"

Das halte ich für einen durchaus überlegenswerten Ansatz !

"In jedem Segment der Konkurrenz etwas entgegenzusetzen haben lautet die Devise."

Aber nicht jedem scheint dies plausibel...

@Exxtreme

"ATI bietet die DX7-Karten eher im Low-End-Bereich an."
Die R7500 ist also Low-End ?
Dann liegen auch die gf4mx im Low-End...

@Doomtrain

"Unlogisch. Eine DX8 Karte würde von den Produktionskosten vielleicht 10Euro mehr kosten. Wenn man eine DX8 Maintreamkarte gegen eine DX7 MS Karte antreten lassen würde, wer würde wohl im Endeffekt gewinnen? Oder sehe ich das falsch? "

Man würde sich dann selber Konkurrenz machen...
Insofern ja, das siehst Du falsch !

Auch wäre es dann wohl das erste mal, daß sich Produktionskosten dann 1:1 im Endkunden-Preis wieder finden...

"Ach, nur so am Rande, aber ein ungeübtes Auge oder Laien sehen den unterschied zwischen einzelnen Grakas so oder so nicht. Um neue Effekte von den "alten" zu unterscheiden muß man schon Ahnung haben."

Was dann aber bitte für alle am Markt befindliche Karten gilt...

In diesem Sinne

Razor

Exxtreme
2002-02-13, 13:33:26
@ Razor
OK, ich habe etwas übertrieben. Ausser der R7500 sehe ich die DX7-Karten von ATI aber tatsächlich im Low-End angesiedelt. Die R7500 sehe ich im unteren Mainstream.

Gruß
Alex

Razor
2002-02-13, 14:23:00
@Exxtreme
OK, ich habe etwas übertrieben. Ausser der R7500 sehe ich die DX7-Karten von ATI aber tatsächlich im Low-End angesiedelt. Die R7500 sehe ich im unteren Mainstream.
Nun ja, auch die TNT2, gf2mx, gf4mx420 dürften sicher im Low-End anzosiedeln sein. Die gf4mx440/460 in etwa in der Gegend von R7500, gf2Ti/ultra und alles andere dann entsprechend...

Ich kann allerdings nur Quasars Arguemntation folgen, nach der nVidia fast so reagieren muß, weil der Hauptkonkurrent ATI ebenso handelt.

Insofern ist das einzige, was man nVidia vorwerfen könnte, die Namensgebung, derer Interpretation ein Laie aber genauso ausgeliefert ist, wie der Namensgebung von ATI.

Also ich halte diese ganze Diskussion ein wenig an den Haaren herbei gezogen...

Bis denne

Razor

TBird
2002-02-13, 16:46:12
Originally posted by aths
T-Bird,

dass die Ti4200 tatsächlich genauso viel kosten wird wie die MX460, wage ich zu bezweifeln. nV hätte den Markt auch bedienen können mit Karten die den PixelShader haben. Sie wären nicht deutlich teurer geworden.


Der Preis von nVidia für die GF4 Ti 4200 und GF4 MX 460 Chips ist identisch. Wie die genaue Preisgestaltung und Ausstattung der ersten Karten sein wird bleibt abzuwarten. Ein möglicher Preisunterschied wird sich aber in Grenzen halten und niemandem davon abhalten statt einer DX7 eine DX8.1 Karte zu kaufen.


Bei T&L tat nVidia so, als würde man auf keinen Fall mehr ohne auskommen, dabei ist das leicht von der CPU machbar. Anders beim PixelShader, hier macht Hardwareintegration wirklich Sinn.


Das stimmt natürlich auch nur halb, daß man ohne HW T&L nicht mehr auskommen wird. Dank leistungsfähigerer CPUs kann man dem entgegenwirken, aber auch nur bis zu einem gewissen Grade. Es ist aber grundsätzlich richtig, die komplette RenderingPipeline (vreinfacht: Transform->Light->Rasterize) in die GPU zu verlegen, da hier zum einen die CPU entlastet wird und mehr Raum für Optimierungen bleibt. Würden sich die Entwickler zu 100% auf HW T&L ausrichten, würde es auch mehr nutzen bringen in Spielen als SW T&L. Eine entsprechend leistungsfähge GPU natürlich vorausgesetzt.


Du schreibst, da stimme ich zu, dass die MX trotz DX7 für ein bestimmtes Spielersegment ausreicht. Es wird also noch mal eine größere Zahl an DX7-Karten verkauft - was als Basis für DX8 nicht förderlich zu nennen ist.


Ein Käufer, der sich heute eine DX7 Karte kauft, erwartet nicht Unreal2, Doom3 oder andere Spiele mit sog. "Next-Generation-Engines" in angemessener Qualität damit spielen zu können. Daher schadet es dem Hersteller solcher Spiele nicht, da dieser davon ausgehen kann, daß seine Zielgruppe mit entsprechender Hardware (DX8.1 Karten) ausgestattet ist.


Du sprichst die Zielgruppe an. Ich denke, wenige Spiele werden nur für Enthusiasten geschrieben, der Publisher wird darauf achten, dass auch der Normalo das Spiel laufen lassen kann.


Da hast Du leider Recht. Hier ist eindeutig mehr Mut der Spieleentwickler gefordert ihre minimalen Systemanforderungen entsprechend hoch anzusetzen und mehr auf neueste Technologien zu setzen. Allerdings kann ich auch die Entwickler verstehen, da sie ihr Spiel einem möglichst großen potentiellen Kundenkreis anbieten wollen und der hat momentan noch DX7 Karten (allerdings nicht weil nVidia jetzt GF4 MX rausbringt). Daher hoffe ich, daß viele in naher Zukunft auf DX8/DX8.1 Hardware umsteigen, denn nur so kann sich diese Basis vergrößern. Preislich steht dem nichts mehr im Weg.

aths
2002-02-13, 17:18:06
TBird,

du meinst, "daß man ohne HW T&L nicht mehr auskommen wird". Da frage ich wann denn? 2004?

Du schreibst: "Allerdings kann ich auch die Entwickler verstehen, da sie ihr Spiel einem möglichst großen potentiellen Kundenkreis anbieten wollen und der hat momentan noch DX7 Karten (allerdings nicht weil nVidia jetzt GF4 MX rausbringt). Daher hoffe ich, daß viele in naher Zukunft auf DX8/DX8.1 Hardware umsteigen, denn nur so kann sich diese Basis vergrößern. Preislich steht dem nichts mehr im Weg."

Dem stimme zu - bis auf den letzten Satz, obwohl er für sich genommen richtig ist. Die meisten kaufen billig oder in Komplettsystemen - wo kaum DX8-HW drin sein wird. Würde nV jetzt nur noch DX8 HW anbieten, würden mehr Komplettsysteme in Zukunft DX8 HW haben. Die weite Verbreitung von DX8 könnte mindestens um ein halbes Jahr beschleunigt werden, wenn dem so sein würde.

Würde nV jetzt nur noch DX8 HW verkaufen, dann würde von allen verkauften Karten der DX7-Teil deutlich sinken.

edit: Das mit dem fehlendem Mut der Spieleentwickler ist btw Thema einer Kolumne, die ich seit einiger Zeit vorbereite.

TBird
2002-02-13, 17:43:07
Originally posted by aths
TBird,

du meinst, "daß man ohne HW T&L nicht mehr auskommen wird". Da frage ich wann denn? 2004?


An einer Jahreszahl kann man das nicht fest machen. Der Zeitpunkt wird kommen, wenn es gilt Szenen darzustellen, die mehrere Millionen sichtbare Dreiecke enthalten, die alle transformiert und beleuchtet werden wollen. In einem solchen Szenario würde die CPU deutlich mehr belastet werden als heutzutage, wo ca. 10.000 Dreiecke Durchschnitt sind. Der CPU dann diese T&L Arbeit durch eine entsprechend leistungsstarke GPU (praktisch als eine Art Co-Prozessor) abzunehmen würde sich deutlicher bemerkbar machen als bei heutigen Spielen.


Die meisten kaufen billig oder in Komplettsystemen - wo kaum DX8-HW drin sein wird. Würde nV jetzt nur noch DX8 HW anbieten, würden mehr Komplettsysteme in Zukunft DX8 HW haben. Die weite Verbreitung von DX8 könnte mindestens um ein halbes Jahr beschleunigt werden, wenn dem so sein würde.

Würde nV jetzt nur noch DX8 HW verkaufen, dann würde von allen verkauften Karten der DX7-Teil deutlich sinken.


Diese Behauptungen würden implizieren, daß Komplettsysteme überwiegend mit DX7 Hardware ausgestattet werden. Selbst Aldi hatte in seinen BilligSystemen GF3 und somit DX8 Hardware verbaut. Größere Komplettsystem Hersteller wie Dell oder Gateway2000 bieten schon lange DX8 Hardware in ihren Systemen an. Diese Befürchtungen kann ich also nicht teilen.

Razor
2002-02-13, 17:52:18
Also wenn ich das richtig verstanden habe, dann wirft aths nVidia nun nicht mehr vor, die Entwicklung aufzuhalten, sondern vielmehr, sie nicht zu beschleunigen.

Insofern hat sich dann doch jede weitere Diskussion darüber erledigt, denn dieser Meinung sind hier doch wohl alle... denke ich.

Sowohl ATI und nVidia beiten bereits sehr günstige DX8-Hardware an (oder werden das in allernächster Zeit tun), damit ist der breiten Markteinführung nun kein Hindernis mehr gesetzt und wir werden in den nöchsten 1-2 Jahren in den Genuß 'echter' DX8-Games kommen, vorher aber zumindest mit extensiven DX7 T&L-Games bedacht werden...

*freu*
;-)

In diesem Sinne

Razor

Richthofen
2002-02-13, 19:03:32
mei oh mei ham die Leute hier alle nix zu tun?
Die Diskussion ist doch genauso überflüssig wie PS1.4 oder 1.3 oder 1.2 oder was auch immer.

Jedes Produkt hat seine Berechtigung solange es gekauft wird.
Was also macht Nvidia mit der GF4MX anders als ATI mit der Radeon7500?
Beide DX7 und in ähnlicher Preisklasse nur die MX bietet für den Spieler mehr brauchbares.
Wo ist das Problem also?
Die Namensgebung?
Die ist doch völlig schnuppe. Die können Nvidia und auch ATI nach belieben festlegen wie es ihnen passt.
Es wird immer so sein, das der informierte Kunde wohl eher eine geringe Fehlerquote hat was den Kaufentscheid angeht und der DAU greift halt öfters ins Klo.
Ich find die MX cool. Für paar Kumpels und Bekannte bei mir im Umkreis genau das richtige.
Die wollen halt keine 400 Euro ausgeben naja und die kaufen dann eben die MX und sind zufrieden.

ow
2002-02-13, 20:04:23
@Richthofen


Genau so ist es.

aths
2002-02-13, 21:13:24
TBird,

DX7 HW T&L halte ich, auch wenn es Gründe gibt die dem widersprechen, für ziemlichen Unsinn. Der VertexShader 1.1 hingegen scheint ganz brauchbar zu sein. (Doch in Dingen Programmierbarkeit darf - und wird ja auch nicht - das Ende erreicht sein.)

In vielen Komplettrechnern wurden sehr lange TNT2M64-Karten eingesetzt, später gerne die GF2MX, oft genug dann auch die 200-er. Die neue MX ist dank der geringen Kosten - aber dem guten Namen - ausgezeichnet für Komplettsysteme.


Razor,

ist ein Glas, welches zur Hälfte mit Milch gefüllt ist, halb vor oder halb leer? (Oder ist das Glas zu groß? Hehe.) Die Entwicklung nicht zu fördern oder aufzuhalten ist eine Frage des Standpunktes.

Was verstehst du unter extensivem DX7 T&L Game?


Richthofen,

die Voodoos wurden auch immer verkauft - bis zuletzt.

Richthofen
2002-02-13, 21:28:02
was hat das jetzt mit den Voodoos zu tun?
Goar nix.

aths
2002-02-13, 21:52:07
Richthofen,

du hast geschrieben "Jedes Produkt hat seine Berechtigung solange es gekauft wird." und so die Berechtigung der älteren PS verteidigt. Ich habe diese Argumentation auf die Voodooos angewendet - welche heute noch bei Ebay im Angebot sind.

TBird
2002-02-13, 22:38:06
Originally posted by aths
TBird,

DX7 HW T&L halte ich, auch wenn es Gründe gibt die dem widersprechen, für ziemlichen Unsinn. Der VertexShader 1.1 hingegen scheint ganz brauchbar zu sein. (Doch in Dingen Programmierbarkeit darf - und wird ja auch nicht - das Ende erreicht sein.)


Was ist denn der Hauptgrund für die Unsinnigkeit von DX7 T&L von Dir ??? Ich sehe jedenfalls keinen Nachteil darin.


In vielen Komplettrechnern wurden sehr lange TNT2M64-Karten eingesetzt, später gerne die GF2MX, oft genug dann auch die 200-er. Die neue MX ist dank der geringen Kosten - aber dem guten Namen - ausgezeichnet für Komplettsysteme.


Also eine TNT2 habe ich vor 3 Jahren mal in einem Komplettsystem gesichtet. Heutzutage werden aber ganz andere Kaliber verbaut. Siehe Aldi, Dell, Gateway2000.

Razor
2002-02-13, 22:55:25
@aths
Razor,

ist ein Glas, welches zur Hälfte mit Milch gefüllt ist, halb vor oder halb leer? (Oder ist das Glas zu groß? Hehe.) Die Entwicklung nicht zu fördern oder aufzuhalten ist eine Frage des Standpunktes.
Was für eine Milch ?
- H-Milch = Dreck = Abfall, nicht nur halb leer, sondern ganz leer, weil ich#s weg schütten würde
- Vollmilch = Gut = Majm, wäre auch nich lang halb gefüllt, sondern ziemlich schnell weg !
;-)

Ähm, aber um auf den psychologischen Hintergrund einzugehen: Halb voll !

"Was verstehst du unter extensivem DX7 T&L Game?"

Zum Teil auch schon MaxPayne...
U2 dürfte das erste 'richtige' werden...
(und dann werden noch viele weitere folgen ;-)

@TBird

Jep, die gf3ti200 im letzten ALDI-Rechner war schon ein Hammer...
Überhaupt, nForce-Mainboard und Athlon XP ?

Schon fast erste Shane würde ich sagen !
(haben vorher aber auch oft schrott verkauft)

Bis denne

Razor

Unregistered
2002-02-14, 02:56:06
Originally posted by Stefan Payne

Watt is denn datt für'n Müll?!

Läuft ja nichtmal auf meiner G400!!
WasWieWo?
Auf meiner G400MAX liefs.

Wie das Chameleon schaut, iss ja ganz witzig, aber sonst kann ich als Voll-Laie nix damit anfangen =)

Liszca
2002-02-19, 02:31:44
Originally posted by Doomtrain



GeForce4 MX = Geforce2MX in 15micron, viel höher getaktet, mit DDR RAM + LMA2 + Accuview. Sonst nix. Ach ja Nview lol

Ergo die seit langem geforderte MX mit DDR *eg*

@razor du hast recht was soll man sonst sagen, da bleibt bis jetzt nur Powervr, aber bei denen kommt er mit mehr modellen auch noch!

Liszca
2002-02-19, 02:41:15
3Dfx hatte es eigentlich immer richtig gemacht! Nur hatte die kein marketing, oder habe ich das übersehen???

Anfangs war qualität und angemessene geschwindigkeit nötig!
voodoo1 voodoo2

Danach kamm nur noch die Geschwindigkeit, und noch ein kleiner rückschritt zur kombikarte (2d / 3d in einem)

16 bit zum glück immer ignoriert, wenns das gegeben hätte wäre das für mich echt frustrierend gewesen! Da es ja zu lahm gewesen wäre (tnt serie bis gf2)

Danach wurde fast nur noch auf dinge gesetzt die sofort ohn direkte programmierung verwendet werden konnte, das Rotated grid antialiasing, bis heute nicht mehr erreichtes antialiasing! Und was es meiner meinung bis dato garnicht richtig gab!

Naja T&L hörte sich für alle besser an, und der name gpu war auch cooler, bei 3dfx hat man soetwas irgendwie nicht gefunden!
Und erst ab der vsa 100 serie wurden 32bit zum standard und verwendbar!

Und ich könnte mir vorstellen das Powervr als erstens ein vernünftiges 64 bit rendern hinbekommen, ihr 4k grosser speicher für die tiles würde (wenn ich mich nicht verrechnet habe) vollständig ausreichen (ich hoffe ihr wisst was mit dem 4k grossen dingens gemeint ist, ist glaube ich der frambuffer ersatz der grafikkarte!

ow
2002-02-19, 09:14:25
Originally posted by Liszca
Und erst ab der vsa 100 serie wurden 32bit zum standard und verwendbar!




LOL. 32Bit sind beim VSA100 genauso nuetzlich wie beim Riva TNT.

MadManniMan
2002-02-19, 11:46:41
@ow:

...auf ner gf2mx sind die einbrüche GENAUSO HOCH wie auf ner v4. auf ner v5 spielts sich in 32 bit schneller als auf ner gf1ddr in eben solchen