PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sinn oder Unsinn der GF4


AlfredENeumann
2002-02-08, 12:38:40
Ich möchte jetzt mal hier einen schönen Thread starten in dem es nicht darum geht wie schnell die GF4 ist, oder was für eine toll schnelles AA die Karte hat. Es geht mir eher um die Frage: Die Bisherigen DX8-Polygonenschleudern waren für alle erhältlichen Spiele und Anwendungen schnell genung. Im Herbst rechnet man mit der neuesten Generation von Grafikkarten (DX9). Die R200 und die TI500 sind bei weitem schnell genung. Warum die GF3 reihe sterben lassen und und die GF4 Reihe SO rausbringen, obwohl bis auf RAZOR und RICHTHOFEN keiner das schnelle FSAA jetzt braucht.

Meiner meinung hätte eine GF3TI500 Ulrta (kleiner Dye, höherer Takt) eher was gebracht. Nvidia macht sich immer unbeliebter mit seiner Firmen- und Produktpolitik. Von den Preise mal ganz zu schweigen. In vielen Foren wird schon drüber geschimpft was das denn soll.

Was haltet Ihr von der Geschichte ?

ow
2002-02-08, 12:52:49
Die GF4 ist mit Abstand das beste, was es derzeit gibt.
Wer sie nicht haben will, braucht sich keine zu kaufen.

Eine GF3Ultra hingegen waere absolut ueberfluessig.

gbm31
2002-02-08, 12:54:16
wieso?

das nennt sich marketing und führt zu dem, was eine firma am liebsten hat: umsatz.

also warum macht sich nvidia bei den firmen unbeliebt.

eher macht sich die chipschmiede bei "denkenden" usern, sprich kunden unbeliebt, weil diese über sinn und unsinn von solchen launches einen kopf machen.

was glaubst du, wie viele von den g3 besitzern, die sich ihre graka schon mitte letzten jahres gekauft haben (imho sinnlos), jetzt ihre g3 wieder verkaufen, um eine g4 zu erwerben (noch sinnloser, immer imho). und das, obwohl mit einem starken proz eigentlich alles noch gut mit einer gts/pro spielbar ist.

ich werde mir, wenn es denn je sein wird, für max. 150 € eine g3 zulegen, wenn die g4 gut auf dem markt ist.

AlfredENeumann
2002-02-08, 13:01:53
Originally posted by ow
Die GF4 ist mit Abstand das beste, was es derzeit gibt.
Wer sie nicht haben will, braucht sich keine zu kaufen.

Eine GF3Ultra hingegen waere absolut ueberfluessig.


Kannst du mir das mal besser erläutern. Laut Razor ist das FSAA der GF3 sehr gut und schnell. Eine höher getaktete Karte hätte noch bessere fps gebracht. Die anderen neuen goodies wie den zweiten Monitorausgang sind auch überflüssig laut einiger hartnäkiger Pro-Nvidias.

Haarmann
2002-02-08, 13:03:18
Also die GF4 Ti hat doch deutliche Vorteile gegenüber der GF3...

- offenbar funktionierendes S3TC

- 2 Monitorausgänge

Die GF4MX is auch besser als die bisherigen GF2, aber unter der GF3, da kein DX8.

- 2 Monitorausgänge

- MPEG2 Decoder

- LMA MX

Was definitiv in die Hose ging is der anisotrope Filter einer GF4 Ti - also nicht falsch verstehen, der Filter is IO - zumindest qualitativ, nur dessen FPS-Hunger is "etwas" hoch...

ATI wird wohl mit den sehr günstigen LE 8500ern wohl bald den DX8 Mainstream erobern können, da die GF3 Ti200 ja nicht mehr zu haben sein wird und die GF4Ti offenbar einiges teurer sind.

Aber lassen wir uns mal überraschen, was noch alles kommt. Die Ti4600 gibts soweit ich gehört habe erst ab März.

ow
2002-02-08, 13:05:18
Originally posted by AlfredENeumann



Kannst du mir das mal besser erläutern. Laut Razor ist das FSAA der GF3 sehr gut und schnell. Eine höher getaktete Karte hätte noch bessere fps gebracht. Die anderen neuen goodies wie den zweiten Monitorausgang sind auch überflüssig laut einiger hartnäkiger Pro-Nvidias.


Und die GF4 ist selbst mit Taktung der Gf3 erheblich schneller als diese.
Mehr fps durch neue Technik ist mir lieber als nur an den Takten zu drehen.

Korak
2002-02-08, 13:07:45
Ob sich nVidia beliebt oder unbeliebt macht ist mir egal, es kommt aufs Produkt an.
Rein 'leistungstechnisch' geshen wäre eine GeF4 wie sie jetzt ist nicht nötig gewesen. Aber da auch nVidia Konkurenz hat dürfen sie natürlich nicht schlafen. Mit der GeF4 hat nVidia IMO versucht (und hat es wahrscheinlich auch geschaft) die letzten Geschwindigkeitsvorteile, auch wenn sie eher theoretisch waren, der R8500 ausdem Weg zu räumen. Sprich sie haben die T&L-Leistung verbessert.
Jetzt könnte man sagen, dass sie den Pixel-Shader 1.4 vergessen haben. Aber der ist ja bei den heutigen verfügbaren Benchmarks langsamer als der 1.1~1.3. Also bleibt man beim 1.1 damit keine Nachteile entstehen.
nVidia setzt eben besonders auf Geschwindigkeit und das in den akuellen Benchmarks.
Lange Rede kurzer Sinn: nVidia wollte ATI in allen aktuellen Disziplinen in die Schranken weisen und hat es geschaft (gut bis auch gaaanz wenige kleine Ausnahmen vielleicht). Nur wirklich Sinn macht das für den Käufer im moment nicht.

Hmm posten geht bei mir nich richtig :(

Unregistered
2002-02-08, 13:15:20
Originally posted by ow



Und die GF4 ist selbst mit Taktung der Gf3 erheblich schneller als diese.
Mehr fps durch neue Technik ist mir lieber als nur an den Takten zu drehen.

LOL...
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/

^Da steht's!!

Die GF4 ist bei gleichem Takt nicht nennenswert schneller als die GF3 TI500!!

Aber du bist ja objektiv!

Labberlippe
2002-02-08, 13:40:43
Hi

Also die GeForce4 TI 4600 ist das absolute Flagschiff von nVIDIA.

Die TI 4400 und 4200 sind kaum schneller als die R8500 gerade dann wenn die XT kommt.

Positiv ist zu vermerken das endlich der DVD und Dual Headsupport vernünftig implementiert wurde.

Also ich sehe in der GeForce4 mehr Fortschritt als GeForce auf GeForce2 und 3.
Traurig aber nVIDIA hat Jahre für diesen Stand gebraucht.

Jetzt kommt aber Krititk.
Die MX Serie gehört sofort vom Markt.
Sowas technologie bremesendes habe ich schon lange nicht mehr gesehen.
Wenn die nv Jünger damals über 3dfx gemekert haben, dann müssen Sie es jetzt über die MX Serie genauso machen.

Schlimm finde ich das die TI 4600 Serie gehypt wird, aber kaum Hinweise auf das Frechheitsprodukt MX gegeben wird.

nVIDIA zeigt wieder den Kunden die Nase und kassiert ab.

Gruss Labberlippe

smallB
2002-02-08, 13:48:12
sinn, ganz einfach
Unreal2, Doom3, Kreed und UT2
Die spiele werden auf heutigen systemen eher schlecht laufen, durch die gf4 aber sowas von abgehen, stellt euch mal vor, kreed in 1600x1200x32 wie geil wäre das denn bitte?!?!

Und wenn die preise stimmen die derzeit angegeben werden, wird die gf4 ein renner, selbst ich würde sie mir dann kaufen:lol:

smallB
2002-02-08, 13:50:18
Originally posted by Unregistered


LOL...
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/
http://www.xbitlabs.com/video/geforce4/

^Da steht's!!

Die GF4 ist bei gleichem Takt nicht nennenswert schneller als die GF3 TI500!!

Aber du bist ja objektiv!

und wer ist bitte so schlau und taktet die graKa runter?!?! Ich würde sie aufdrehen bis zum geht nicht mehr, dann könnte nix mithalten, egal ob ati oder 3dfx:lol:

gruss b


ps: 3dfx wird wieder kommen, ich verspreche es;D

AlfredENeumann
2002-02-08, 13:53:43
Originally posted by smallB
sinn, ganz einfach
Unreal2, Doom3, Kreed und UT2
Die spiele werden auf heutigen systemen eher schlecht laufen, durch die gf4 aber sowas von abgehen, stellt euch mal vor, kreed in 1600x1200x32 wie geil wäre das denn bitte?!?!

Und wenn die preise stimmen die derzeit angegeben werden, wird die gf4 ein renner, selbst ich würde sie mir dann kaufen:lol:

Die dürften auf der GF5 und dem R300 aber besser und schneller laufen.
Warum einen überteurten DX8-Beschleuniger kaufen wenn in 6 monaten eine komplett neuen Chip-Generation kommt.

Nr. 5
2002-02-08, 13:54:50
hi.

für nVidia ist die GF4 sehr sinnvoll > da neuer name, stärkere zugkraft beim verkauf als Geforce3 Ti500 Ultra (was für´n wortungetüm).
für den käufer zu diesen preisen nicht sinnvoll. wer sich eine kauft ist selber schuld! für ein paar fps mehr hunderte Euros zu vernichten - LOL.
und wer bis jetzt nicht begriffen hat, daß man warten sollte bis die preise fallen, dem ist echt nicht mehr zu helfen.

der einsatz neuer technologie ist auf jeden fall zu begrüßen, da er zum glück keine neuen, besseren, schöneren features bringt welche erst in 2-3 jahren gut unterstützt werden.
sondern direkt auf die geschwindigkeit zielt.

die GF4MX hingegen sehe ich mit zwiespältigen gefühlen. einerseits verwendet sie neueste technologie, andererseits wird auf "veraltete" (DX7) standards gesetzt.
und Labberlippe muß ich da zum thema "technologiebremsend" voll zustimmen.


cu

Korak
2002-02-08, 14:00:23
Originally posted by AlfredENeumann


Warum einen überteurten DX8-Beschleuniger kaufen wenn in 6 monaten eine komplett neuen Chip-Generation kommt.

Wobei sich nicht mal DX8 voll 'eingebürgert' hat. Bis Spiele DX9 Features benutzen dürfte es noch ein Weilchen dauern.

Richthofen
2002-02-08, 14:04:32
@Haarmann

Das stimmt das A. Filtering ist performancemäßig noch nicht so dolle.
Ich hab allerdings diesbzgl im Beyond3D Forum gelesen, das einer von NvNews.net bei Nvidia nachgefragt hat.
Man hat ihm dort gesagt man geht der Sache auf den Grund und es scheint so als wäre das ein Treiberbug.
Da wird man erstmal abwarten müssen.
Normal ist der Einbruch nicht, denn die Karte bricht ja mehr als mit FSAA bei AF ein und vor allem mehr als die Ti500. Ich denke mal hier wird sich noch einiges tun.

Was den Mainstream anbelangt, so glaube ich kaum das Nvidia das Geschäft ATI überlassen wird.
Ich denke hier wird Nvidia die GF4Ti4200 ansetzen, die es natürlich etwas später als die anderen Tis geben wird.
Oder sagen wir es so, sie wird es geben wenn bedingt durch Konkurenz dazu ein Anlass besteht.

Was die GF4MX betrifft, so weiss ich gar nicht warum sich alle so aufregen.
Die Karte hat kein DX8 Zeugs - OK.
Aber es soll ja auch viele Leute geben die das nicht unbedingt wollen.
Wenn jemand zb wenig Geld ausgeben möchte, und gerne auf das DX8 Zeugs verzichtet was momentan und auch die nächsten 9 Monate in keinster weise genutzt wird, er aber schnelles FSAA haben will, dann ist doch die MX eine echte Alternative für denjenigen.
Wenn jemand DX8 und schnelles FSAA haben will, dann greift er eben zu einer der TI Versionen - bei kleinerem Geldbeutel zur 4200 halt.

Und @ Alfred Neumann

Deine Argumentation kann ich überhaupt nicht nachvollziehen.

Du willst mir sagen eine GF3 Ultra hätte gereicht, weil das FSAA der GF3 auch schnell ist und man hätte auf 2. Vertex Shader und LMAII und NView verzichten sollen.
Was bitte ist das für eine hirnrissige Argumentation.
Du willst mir doch jetzt nicht allen ernstes erzählen, das diese "GF3Ultra" Karten auch nur einen Cent weniger gekostet hätten als die GF4.
Das kann ich dir schon vorher sagen das sie das nicht tun würden.
Nvidia bewegt sich seid einigen Jahren in einer Spanne von 800 bis 1200 DM oder 400 bis 600 Euro fürs Top Produkt.
Warum auch nicht? Sie bieten maximale Leistung und können es sich leisten diesen Preis zu verlangen.
Und eine GF3 Ultra wäre bei FSAA niemals so schnell gewesen wie eine GF4. Und der Grund ist LMAII das deutlich verbessert wurde sowie auch die Bandbreitenutzung des FSAA.

Ich finde die GF4 durchaus gelungen. Sie folgt dem Nvidia Muster 1 Generation was neues und dananach die Verbesserung. Die GF4 hat ganz entscheidende Schwachstellen der GF3 ausgemerzt und zusätzlich Ausstattung bekommen.
Ich brauch NView nicht andere vielleicht schon aber was ich brauch ist abslolut flüssiges FSAA und das bekomm ich nur mit einer GF4 momentan und mit Sicherheit nicht mit einer Radeon8500XT wenn diese die normale Radeon8500 mit höherem Takt ist.

Ich bestreite gar nicht das wer sich ne GF3 gekauft hat mit Sicherheit keine GF4 braucht. Aber wer noch keine GF3 hat und dazu zähle ich auch, der kauft sich lieber ne GF4 statt ner GF3 oder Radeon8500 weil er eben FSAA bekommt das er sofort in jedem Spiel endlich flüssig einsetzen kann bis zu 4x je nach Game und Auflösung.
Also genau das was man im Prinzip seid der V5 und dem Erscheinen von FSAA vermisst.
Wer eine GF3 hat der behält sie oder kauft sich ne GF4 unter der Vorraussetzung, das er einen dummen findet der zu viel für die GF3 löhnt.
Wer noch keine GF3 hat kann über eine GF4 nachdenken. Über die GF5 würd ich mir keinen Kopp machen. Wenn ich mir darüber den Kopp zerbreche das es alle 4 bis 6 Monate was neues gibt, dann könnt ich mir nie was kaufen.
Ich find gut das es so ist. So sind wir in paar Jahren bei Kinoreife angelangt und ordentlich verdient wird auch noch daran.

RAL
2002-02-08, 14:19:19
Originally posted by Nr. 5

[..]
und Labberlippe muß ich da zum thema "technologiebremsend" voll zustimmen.



Naja, die GF4-MX-Serie ist von der Namensgebung her schlecht gewählt, aber wieso technolgiebremsend? Die GF4-Ti ist doch das, was man sich angucken muss, wenn man über neueste Technologie reden will und nicht die Value-Serie. Redet ja auch keiner davon, daß ATI technologiebremsend ist, weil die Radeon 7500 keine DX8-Karte ist.
Der Preisunterschied zwischen der schnellsten GF4MX und der langsamsten GF4Ti ist gerade mal $20, es gibt also eigentlich keinen Grund, daß die Masse der Anwender nun unbedingt eine DX-7 Karte kaufen müsste.

Nr. 5
2002-02-08, 14:32:21
@RAL

hmm, hab nochmal drüber nachgedacht. wäre passender "profitmaximierend" zu schreiben.
da manche GF4MX-user beim anblick von DX8-games auf DX8-karten auch so´ne grafik wollen. und sich eine neue karte kaufen (müssen).

der GF4MX wird ja ab jetzt min. 6 monate verbaut.
und so gibts eben auch zum erscheinungsdatum von DX8-games noch viele user die diese karte nutzen. und dann umsteigen "müssen".

ich halte es für sehr ungünstig die karte GF4 zu nennen.
einer meiner kumpel hat sich letztes jahr ´ne GF2MX400 geholt.
irgendwieso kommt er aber damit nicht so richtig an meine GF2GTS ran.
was ihn schon bei technologisch gleichwertigen karten ärgert...


cu

nggalai
2002-02-08, 15:41:00
Hi smallB,
Unreal2, Doom3, Kreed und UT2
Die spiele werden auf heutigen systemen eher schlecht laufen, durch die gf4 aber sowas von abgehen, stellt euch mal vor, kreed in 1600x1200x32 wie geil wäre das denn bitte?!?!Woher weisst Du, dass die oben genannten Spiele auf heutigen Systemen eher schlecht laufen werden? Wie definierst Du "heutiges System", alles bis und ohne GF4 Ti? Oder beschränkt sich diese Aussage auf die von dir genannte Auflösung von 1600x1200x32?

ta,
.rb

Labberlippe
2002-02-08, 15:57:06
Originally posted by RAL



Naja, die GF4-MX-Serie ist von der Namensgebung her schlecht gewählt, aber wieso technolgiebremsend? Die GF4-Ti ist doch das, was man sich angucken muss, wenn man über neueste Technologie reden will und nicht die Value-Serie. Redet ja auch keiner davon, daß ATI technologiebremsend ist, weil die Radeon 7500 keine DX8-Karte ist.
Der Preisunterschied zwischen der schnellsten GF4MX und der langsamsten GF4Ti ist gerade mal $20, es gibt also eigentlich keinen Grund, daß die Masse der Anwender nun unbedingt eine DX-7 Karte kaufen müsste.

Der Grund ist das dies ein ganz fieser Trick von nVIDIA ist, 2 div. Karten Technologien unter einer Namens Serie zu verkaufen.
Wie die Lemminge werden einige drauf reinfallen.

Das Flagschiff wird getestet und die MX wird überlesen.

Bei CPU Herstellern gibt es wenigsten eine deutlich Namensgebung.

P4/Celereon
XP/Duron.
R8500/7500

Technologie bremsend aus den Grund.
Da nVIDIA die MX Serie im Mainstream Positioniert, wird er PS &VS gebremst. (Welches ja eigentlich der super Zug seitens nV Jünger war)
Ein Mitbewerber hat einen verbesserte Version, diese wird ignoriert und die eigene foreciert. (No na nit vielleich :) )
Kann ich aber dennoch nicht gut heissen, weil durch den T&L Hype ja die andern auch nachziehen mussten.
Kurz nVIDIA macht einfach was es will und alle machen mit.

Gruss Labberlippe

Labberlippe
2002-02-08, 16:00:33
Originally posted by smallB
sinn, ganz einfach
Unreal2, Doom3, Kreed und UT2
Die spiele werden auf heutigen systemen eher schlecht laufen, durch die gf4 aber sowas von abgehen, stellt euch mal vor, kreed in 1600x1200x32 wie geil wäre das denn bitte?!?!

Und wenn die preise stimmen die derzeit angegeben werden, wird die gf4 ein renner, selbst ich würde sie mir dann kaufen:lol:

Klatsch Klatsch

Bist gerade das perfekt Beispiel das die nVIDIA Masche funzt.
Achso hat es nicht geheissen das Doom3 und U2 mit GeForce3 perfekt laufen.
Hmm Doom3 und U2 sind noch immer nicht hier.
Grübbel und schon wird suggeriert das wieder eine neue Karte benötigt wird.

PS: Mit einer GeForce2 Ti würde ich mir momentan noch keine Sorgen um eine neue Graka machen.
Denn darauf läuft ein Doom3 und U2 auch.
Bis die Games Ende des Jahres kommen geht es schon weiter im Graka Markt.

Anders wäre wenn Du eine MX hättest, dann würde ich mir auch überlegen um eine neue Graka.
Was ich auch mache und meinen Favoriten habe ich schon.

Aber klappt gut nVIDIA grosses Lob.

Gruss LAbberlippe

Piffan
2002-02-08, 16:15:01
Ungeheuerlich: Da bringt NV nen neuen Chip raus, der endlich mal rundherum gut ist (Video, Dual..., bandbreitenschonende Technik, flottes FSAA), da wird schon wieder geschrien... Weil diesmal der Chip keine großen Schwächen bietet, da wird das Marketing angeprangert....

Unsere Wirtschaft lebt davon, daß den Konsumenten mit mehr oder notwendigen Produkten das Geld aus der Tasche gezogen wird. Es ist aber für alle gesorgt: Es werden die Enthusiasten ebenso bedient wie die Dumpfbacken: Die einen bekommen für teures Geld absolute Highendprodukte, die anderen für etwas weniger Geld Schrott bzw. minderen Krempel.... Jeder nach seinen Möglichkeiten und seinen Kenntnissen. Ist doch alles bestens!

Wobei der "Schrott" soo schlecht nicht ist, immerhin bringt er die LMA- Technik mit, ist damit immer noch besser als die 7500.

Habe die vorletzte Computerbild "Spiele" gekauft... Danach ist ja die Kyro weit besser als die G3..... Solange also in einer Wirtschaft die Volksverblödung Gang und Gäbe ist, würde ich über Nvidia mal nicht so laut schreien, die müssen sich schließlich wehren. ;-)

Nvidia? Find ich gut!

AlfredENeumann
2002-02-08, 16:22:11
Originally posted by Piffan
Ungeheuerlich: Da bringt NV nen neuen Chip raus, der endlich mal rundherum gut ist (Video, Dual..., bandbreitenschonende Technik, flottes FSAA), da wird schon wieder geschrien... Weil diesmal der Chip keine großen Schwächen bietet, da wird das Marketing angeprangert....

... Wobei der "Schrott" soo schlecht nicht ist, immerhin bringt er die LMA- Technik mit, ist damit immer noch besser als die 7500. ...



Hab mal was weggesnippt. Es behauptet ja keiner das die Karte schlecht ist. Sonder mir ging es darum das die KArte für mich und viele andere keinen Sinn ergibt. WARUM SOVIEL GELD NUR FÜR FSAA IN HOHER AUFLÖSUNG ?

Dir TI500 hätte bei weitem gereicht warum diese Karten sterben lassen ? Kalr ist es Marktwirtschaft. Wie kann man am besten den Leuten wieder 1000DM aus der Tasche ziehen ? Der Standart Spruch bei Nvidia.

Labberlippe
2002-02-08, 16:25:42
Originally posted by Piffan
Ungeheuerlich: Da bringt NV nen neuen Chip raus, der endlich mal rundherum gut ist (Video, Dual..., bandbreitenschonende Technik, flottes FSAA), da wird schon wieder geschrien... Weil diesmal der Chip keine großen Schwächen bietet, da wird das Marketing angeprangert....

Unsere Wirtschaft lebt davon, daß den Konsumenten mit mehr oder notwendigen Produkten das Geld aus der Tasche gezogen wird. Es ist aber für alle gesorgt: Es werden die Enthusiasten ebenso bedient wie die Dumpfbacken: Die einen bekommen für teures Geld absolute Highendprodukte, die anderen für etwas weniger Geld Schrott bzw. minderen Krempel.... Jeder nach seinen Möglichkeiten und seinen Kenntnissen. Ist doch alles bestens!

Wobei der "Schrott" soo schlecht nicht ist, immerhin bringt er die LMA- Technik mit, ist damit immer noch besser als die 7500.

Habe die vorletzte Computerbild "Spiele" gekauft... Danach ist ja die Kyro weit besser als die G3..... Solange also in einer Wirtschaft die Volksverblödung Gang und Gäbe ist, würde ich über Nvidia mal nicht so laut schreien, die müssen sich schließlich wehren. ;-)

Nvidia? Find ich gut!

So schlecht finde ich die GeFocre4 Serie nicht, habe ich erwähnt. :)
Aber.
Die Namensgebung ist und bleibt ein linker Trick.

Das beste genau die Sachen die nVIDIA forciert hat, werden jetzt im Mainsteambereich geköpft.
Beinhart und ohne Rücksicht auf Verluste.

Die TI 4200 wird erst in ein paar Wochen geliefert.
Achso gibt es keine Speicher mehr?
Nein, Blöd wäre nVIDIA sich im Mainstream mit der ranzutasten.
So müssen manche entweder, a: eine MX kaufen, oder ab Ti440 aufwärts.
Ganz Link um das Volk zu melken.

Die Technik ist nicht schlecht nur wieder die üblichen Linken welche nVIDIA schon seit Jahren schiebt.

Gruss Labberlippe

Korak
2002-02-08, 16:26:12
Originally posted by AlfredENeumann


WARUM SOVIEL GELD NUR FÜR FSAA IN HOHER AUFLÖSUNG ?

Wenn man schon eine GeF3/r8500 hat gibts dafür keinen Grund (außer man hat zu viel davon).
Wenn man keine hat ist eine GeF4 garnicht so abwegig.

AlfredENeumann
2002-02-08, 16:33:53
Originally posted by Korak


Wenn man schon eine GeF3/r8500 hat gibts dafür keinen Grund (außer man hat zu viel davon).
Wenn man keine hat ist eine GeF4 garnicht so abwegig.


Jain. Wenn ich doch weis das im Herbst neue Karten mit DX9 kommen und DX8 bzw DX8.1 eh nur eine übergangslösung ist, dann inverstiere ich doch nicht mehr soviel in eine Karte.

Ich möchte mal die Leute hören die vor kurzem für scheiße viel geld die TOP Nvidia Karte gekauft haben und diese Woche erfahren mußten das die Karte ein Auslaufmodel ist und jetzt nur "Schrottwert" hat.

Iceman346
2002-02-08, 16:33:55
Originally posted by Piffan
Ungeheuerlich: Da bringt NV nen neuen Chip raus, der endlich mal rundherum gut ist (Video, Dual..., bandbreitenschonende Technik, flottes FSAA), da wird schon wieder geschrien... Weil diesmal der Chip keine großen Schwächen bietet, da wird das Marketing angeprangert....

Unsere Wirtschaft lebt davon, daß den Konsumenten mit mehr oder notwendigen Produkten das Geld aus der Tasche gezogen wird. Es ist aber für alle gesorgt: Es werden die Enthusiasten ebenso bedient wie die Dumpfbacken: Die einen bekommen für teures Geld absolute Highendprodukte, die anderen für etwas weniger Geld Schrott bzw. minderen Krempel.... Jeder nach seinen Möglichkeiten und seinen Kenntnissen. Ist doch alles bestens!

Wobei der "Schrott" soo schlecht nicht ist, immerhin bringt er die LMA- Technik mit, ist damit immer noch besser als die 7500.

Habe die vorletzte Computerbild "Spiele" gekauft... Danach ist ja die Kyro weit besser als die G3..... Solange also in einer Wirtschaft die Volksverblödung Gang und Gäbe ist, würde ich über Nvidia mal nicht so laut schreien, die müssen sich schließlich wehren. ;-)

Nvidia? Find ich gut!

Die GF4 ist sicherlich eine Gute Karte. Schnell ist sie auch, aber wer braucht sie?

Zur GF4 MX. Die Top Version der MX soll für ca 200 € auf den Markt kommen und steht damit in Konkurrenz zur Radeon 8500 LE, preislich zumindestens. Und damit hat sich die GF4 MX eigentlich schon selbst erledigt.

Quasar
2002-02-08, 16:34:55
Originally posted by AlfredENeumann
Ich möchte jetzt mal hier einen schönen Thread starten in dem es nicht darum geht wie schnell die GF4 ist, oder was für eine toll schnelles AA die Karte hat. Es geht mir eher um die Frage: Die Bisherigen DX8-Polygonenschleudern waren für alle erhältlichen Spiele und Anwendungen schnell genung.

Schnell genug ist sehr relativ. In hohen Auflösungen und mit FSAA reichts für viele Spiele eben nicht. Und wenn nich BQextraordinaire, was sollte man dann von einer Grafikkarte erwarten?


Im Herbst rechnet man mit der neuesten Generation von Grafikkarten (DX9). Die R200 und die TI500 sind bei weitem schnell genung. Warum die GF3 reihe sterben lassen und und die GF4 Reihe SO rausbringen, obwohl bis auf RAZOR und RICHTHOFEN keiner das schnelle FSAA jetzt braucht.

Komisch, früher hieß es von allen Kritikern immer, FSAA ist zu lahm um wirklich Sinn zu machen (besonders zu Zeiten der GF2). Nun wird FSAA endlich soweit beschleunigt, daß man es wirklich auch in hohen Auflösungen nutzen kann, und schon braucht es angeblich keiner mehr.
640+ Kantenverschmierung braucht kein Mensch, da jeder anständige Monitor heute 1024er Auflösungen und höher hinbekommt und für 1280 mit FSAA waren die "alten" Karten eben nicht schnell genug.


Meiner meinung hätte eine GF3TI500 Ulrta (kleiner Dye, höherer Takt) eher was gebracht. Nvidia macht sich immer unbeliebter mit seiner Firmen- und Produktpolitik. Von den Preise mal ganz zu schweigen. In vielen Foren wird schon drüber geschimpft was das denn soll.

Interessant, und wie bekommt man mit derselben Fertigungstechnik einen kleineren Core hin? Die Wunderdoktoren von den BitBoys mögen sowas eventuell ankündigen, aber ansonsten ist das ohne aufwendige Neuoptimierung und evtl. Weglassen von Features nicht möglich.
Außerdem kann ich mir sehr gut vorstellen, wer als erstes einen Thread aufgemacht hätte "Die GF3Ti500ultra ist nur höher getaktet, kann aber nichts neues *maul*"....
Was die Preispolitik angeht, so weiß ich auch nicht, was du hast. Laut den Vorankündigungen sollen die Karten $399 kosten, abwärts gestaffelt. Das ist schon mal deutlich weniger als die GF3, die schon deutlich weniger kostete, als die GF2u.


Was haltet Ihr von der Geschichte ?

Wie vielleicht schon herauszulesen war, halte ich von deiner Geschichte nicht allzuviel, da die Argumente fadenscheinig, vorgeschoben und einigermaßen leicht zu entkräften sind.
Desweiteren gilt der Grundsatz des mündigen Bürgers, der auf der Verpackung lesen kann, was eine Karte kann. Was nicht draufsteht, kann sie eben nicht.

Fazit: Wer sie nicht mag, der soll sie eben hassen;
Wer sie nicht will, soll ebenso das Kaufen lassen.

Piffan
2002-02-08, 16:43:14
Originally posted by Labberlippe


So schlecht finde ich die GeFocre4 Serie nicht, habe ich erwähnt. :)
Aber.
Die Namensgebung ist und bleibt ein linker Trick.

Das beste genau die Sachen die nVIDIA forciert hat, werden jetzt im Mainsteambereich geköpft.
Beinhart und ohne Rücksicht auf Verluste.

Gruss Labberlippe

Ist schon richtig, diesen Punkt habe ich gar nicht so berücksichtigt. Die Frage ist, ob es wirklich ein Mainstreamprodukt wird. Wenn ja, dann ist es tatsächlich recht ungeschickt, weil es letztlich in jeder Hinsicht Nachteile hat. Es werden ja dann nicht nur die Kunden gelackmeiert, sondern auch die Entwickler der Spiele... Da wird es ja nie was mit der breiten Hardwarebasis für die schönen neuen Spiele...

Letzten Endes könnten einige erstmalig ihr Hirn einschalten und sich berechtigte Sorgen machen, ob denn die vielen neuen Features, die in der X-Box verwirklicht wurden, jemals Einzug in die PC- Spieleszene finden werden... Auf alle Fälle kein wirklich intelligenter Zug von NV, einen Kastraten im Mainstream zu platzieren...

Nvidia? Find ich sch****! ;-)

Labberlippe
2002-02-08, 16:45:10
Schnell genug ist sehr relativ. In hohen Auflösungen und mit FSAA reichts für viele Spiele eben nicht. Und wenn nich BQextraordinaire, was sollte man dann von einer Grafikkarte erwarten?

In den Bereich passt die GeForce4 TI4xxs Serie ja auch, auch ist es positiv zu vermerken das endlich die alten Fehler wirklich ausgebessert wurden.



Komisch, früher hieß es von allen Kritikern immer, FSAA ist zu lahm um wirklich Sinn zu machen (besonders zu Zeiten der GF2). Nun wird FSAA endlich soweit beschleunigt, daß man es wirklich auch in hohen Auflösungen nutzen kann, und schon braucht es angeblich keiner mehr.
640+ Kantenverschmierung braucht kein Mensch, da jeder anständige Monitor heute 1024er Auflösungen und höher hinbekommt und für 1280 mit FSAA waren die "alten" Karten eben nicht schnell genug.

Das Argument ist komisch die V5 hatte ein FSAA zu absolut akzeptabeln Framerraten, da wurde von allen FSAA als sinnlos abgestempelt.
Wieso der Sinneswandel?
Weil FSAA jetzt von nVIDIA angeboten wird.


Interessant, und wie bekommt man mit derselben Fertigungstechnik einen kleineren Core hin? Die Wunderdoktoren von den BitBoys mögen sowas eventuell ankündigen, aber ansonsten ist das ohne aufwendige Neuoptimierung und evtl. Weglassen von Features nicht möglich.
Außerdem kann ich mir sehr gut vorstellen, wer als erstes einen Thread aufgemacht hätte "Die GF3Ti500ultra ist nur höher getaktet, kann aber nichts neues *maul*"....
Was die Preispolitik angeht, so weiß ich auch nicht, was du hast. Laut den Vorankündigungen sollen die Karten $399 kosten, abwärts gestaffelt. Das ist schon mal deutlich weniger als die GF3, die schon deutlich weniger kostete, als die GF2u.
Amen wobei das Flagschiff aber knappe 500€ Kosten wird und die Gainward angebeliche 640€
So und die TI4200 ist erst nicht lieferbar. AHA

Meine Meinung.

Gruss Labberlippe

Xmas
2002-02-08, 16:52:46
Originally posted by Labberlippe
Der Grund ist das dies ein ganz fieser Trick von nVIDIA ist, 2 div. Karten Technologien unter einer Namens Serie zu verkaufen.
Wie die Lemminge werden einige drauf reinfallen.

Das Flagschiff wird getestet und die MX wird überlesen.

Bei CPU Herstellern gibt es wenigsten eine deutlich Namensgebung.

P4/Celereon
XP/Duron.
R8500/7500
Sorry, aber das kann ich jetzt einfach nicht verstehen.
GeForce4 Ti4600
GeForce4 Ti4400
GeForce4 MX460
GeForce4 MX440
GeForce4 MX420

Radeon 8500
Radeon 7500
Radeon 7200
Radeon 7000

Erkläre mir da jetzt mal den großen Unterschied...

Und zu Pentium/Celeron und Athlon/Duron: Auch da muss man erst mal wissen, welche Bedeutung die Begriffe haben, um sich entscheiden zu können. Wer also absolut keine Ahnung hat was er kauft, ist selbst Schuld, das hat keine Marketingabteilung zu verantworten.

Exxtreme
2002-02-08, 16:56:34
Hallo.
Ich halte die GF4 nach den ganzen Reviews für eine sehr beeindruckende Grafikkarte. Wäre diese anstatt der GF3Tixxx-Serie gekommen, hätte ich sie mir wahrscheinlich geholt. Sie hat endlich die Features bekommen, die ATI schon länger hat wie die sehr gute DVD-Unterstützung, gescheiter TV-Out usw. Ich bin jetzt gespannt wie es mit der SQ ausschaut.
Was nVidia IMHO verhunzt hat ist, daß sie keinen PS 1.4 eingebaut haben. Und kommt mir bitte nicht mit den Argument, daß es kein Spiel gibt, das den PS 1.4 ausnutzt. Auch halte ich OGMS für nicht der Wahrheit letzten Schluss. Da lobe ich mir SV, was qualitativ besser sein dürfte aber leider bei neuen Spielen nur in der 2x-Einstellung nutzbar ist. Auch den massiven Leistungseinbruch bei aktivierten AF empfinde ich als einen sehr grossen Nachteil ggü. der R8500. Könnte aber auch ein Treiberbug sein - wer weiss.
Alles in Allem ist es die erste GraKa von nVidia, die ich mir kaufen würde.

Gruß
Alex

Quasar
2002-02-08, 16:56:57
Was die V5 angeht, da haben wir schon oft genug drüber gesprochen. In normalen Spielauflösungen und in 32Bit war die Geschwindigkeit in halbwegs aktuellen Spiele nun einmal nicht ausreichend.

Tja, noch hab ich keine wirklichen (ernstzunehmenden) Angebote der Ti-Serie gesehen, also gehe ich erst mal vom empfohlenen VK aus. Der liegt bei $399, was die Firmen da mit Zusatzoptionen, doppelseitigen Kühler und ähnlichem Schwachsinn draus machen, sei mal dahingestellt.

Wer nicht so viel ausgeben will, wartet eben noch ein wenig und kauft sich ne Ti4200. Wer nVidia gar nicht mag (ideologisch oder sonstwie), der kann sicher auch mit ATi glücklich werden.

@Exxtreme:
Die von dir gelobten DVD- und Tv-out Features sind allerdings nur in der MX enthalten....

AlfredENeumann
2002-02-08, 16:57:07
Komisch, früher hieß es von allen Kritikern immer, FSAA ist zu lahm um wirklich Sinn zu machen (besonders zu Zeiten der GF2). Nun wird FSAA endlich soweit beschleunigt, daß man es wirklich auch in hohen Auflösungen nutzen kann, und schon braucht es angeblich keiner mehr.
640+ Kantenverschmierung braucht kein Mensch, da jeder anständige Monitor heute 1024er Auflösungen und höher hinbekommt und für 1280 mit FSAA waren die "alten" Karten eben nicht schnell genug.

Ehrlich gesagt habe ich noch keinen Benutzer einer Matrox oder Radeon großartig nach schnellem FSAA schreien gehört. Da spielt man dann lieber in hoher Auflösung. Ich selber benötge kein FSAA und schon gar nicht in 1600x1200. Bei den meißten Spielen hat man eh keine Zeit darauf zu achten ob man da irgendwo ein winzig kleines Treppchen sieht.



Interessant, und wie bekommt man mit derselben Fertigungstechnik einen kleineren Core hin?

genauso wie ATI das mit der 7500er gemacht hat. den kompletten Dye Schrumpfen.



Außerdem kann ich mir sehr gut vorstellen, wer als erstes einen Thread aufgemacht hätte "Die GF3Ti500ultra ist nur höher getaktet, kann aber nichts neues *maul*"....

Nö warum. Es meckert doch auch keiner über die RadoenXT, sofern sie erscheint. Nur wird mit deren erscheinen nicht eine komplette Kartenserie gekillt und als alt eingestuft.



Was die Preispolitik angeht, so weiß ich auch nicht, was du hast. Laut den Vorankündigungen sollen die Karten $399 kosten, abwärts gestaffelt. Das ist schon mal deutlich weniger als die GF3, die schon deutlich weniger kostete, als die GF2u.

Und das ist die Unverschämte PReispolitik von Nvidia. Aber wie Richthofen schon sagte: "Die können es sich leisten", da es immer wieder genung Leute gibt die soviel ausgeben nur um mal eben die schnelsste KArte zu haben.



Fazit: Wer sie nicht mag, der soll sie eben hassen;
Wer sie nicht will, soll ebenso das Kaufen lassen.

Nochmal . Es sagt keiner das die Karte schlecht ist.

Com1
2002-02-08, 16:59:07
Also ich finde die GF4 ist eine wirklich gute weiterentwicklung.

Im Vergleich zum GF3 -> GF3 Ti Schritt gibts einige wirklich gute neuerungen. Auch wenn die verbesserungen nur im Detail liegen, bekommt man diesmal deutlich mehr fürs Geld als noch zu GF3 Ti Zeiten. Das haben wir hauptsächlich der R8500 zu verdanken ;)

Sehr Schnelles FSAA, iDCT und Dual Display, LMA II

Hoffentlich wird das interessanteste Modell, die GF4 Ti 4200 bald rauskommen, das wird ein heißes Rennen gegen die neuen ATI Karten (ich sag nur Hercules R8500LE für 200 €) :D

NV hat jetzt in fast allen Bereichen mit ATI gleichgezogen bzw. in den Bereichen wo NV schon immer stärker war (Treiber, Performance) ATI überholt.

Auch die neue MX macht sinn. 440 und 460 sind für aktuelle Spiele ausreichend bis optimal, und sogar sehr gut unter OpenGL. Für die Zukunft ist die Karte nicht, aber Optimal für Gelgenheitsspieler.

Die Produktbezeichnungen der MX sind aber irreführend und verwirrend!

Quasar
2002-02-08, 17:02:02
Originally posted by AlfredENeumann
genauso wie ATI das mit der 7500er gemacht hat. den kompletten Dye Schrumpfen.

Wer lesen kann....
Eine neue Fertigungstechnologie scheint derzeit nicht verfügbar, also blieb man bei 0,15µ. ATi hat den Die-Shrink auch nur durch Umstellung von 0,18µ auf 0,15µ erreicht.....


Nö warum. Es meckert doch auch keiner über die RadoenXT, sofern sie erscheint. Nur wird mit deren erscheinen nicht eine komplette Kartenserie gekillt und als alt eingestuft.

Interessant. Es gab jedoch so einige, die nVidia immer vorhielten, ihre Designs bis zum letzten auszuschlachten (GF2, GF2pro, GF2ultra...). Daß die ATi-Fanboys das bei einer eventuellen R8500XT nicht kritisieren würden, liegt schon auf der Hand...

Exxtreme
2002-02-08, 17:04:12
Originally posted by Quasar
@Exxtreme:
Die von dir gelobten DVD- und Tv-out Features sind allerdings nur in der MX enthalten....
Achso... wusste ich nicht :(
Damit nehme den letzten Satz meines vorigen Postings zurück.

Gruß
Alex

Labberlippe
2002-02-08, 17:07:38
Originally posted by Xmas

Sorry, aber das kann ich jetzt einfach nicht verstehen.
GeForce4 Ti4600
GeForce4 Ti4400
GeForce4 MX460
GeForce4 MX440
GeForce4 MX420

Radeon 8500
Radeon 7500
Radeon 7200
Radeon 7000

Erkläre mir da jetzt mal den großen Unterschied...

Und zu Pentium/Celeron und Athlon/Duron: Auch da muss man erst mal wissen, welche Bedeutung die Begriffe haben, um sich entscheiden zu können. Wer also absolut keine Ahnung hat was er kauft, ist selbst Schuld, das hat keine Marketingabteilung zu verantworten.

Ganz einfach durch die 7xxx und 8xxx Namensgebung sind beide Technologien abgegrenzt.
Bei der GeForce4 gibt es 2einen" Namen für 2 Technolgien.

Die meisten lesen GeForce4 MX und schliessen gleich automatisch gedanklich auf die TI auf.
Schliesslich waren bis jetzt alle gewohnt das die GeForce2 und MX mehr oder weniger die gleiche Technologie Stufen hatten.
Davon wird bei der GeForce4 Serie von einigen auch automatisch ausgegangen.
Das MX wird sicher überlesen.
Gerade weil die Grundfunktionen bei der GeForce4 die gleichen sind.
Auf einen PS&VS wird dann nicht mehr gedacht.

Komme mir bitte jetzt nicht mit, der Kunde muss sich halt informieren.
Wie sehr sich die Kunden informieren haben wir ja schon alle erlebt.
TNT2 M64/MX 200 etc etc etc.
GeForce 2TI haben auch einige nach einen PS & VS gefragt.
Das ist ganz Link von nVIDIA.
Jetzt kommt es natürlich auf die Zeitschriften auch an, ob die gewillt sind diesen frechen Trick aufzuzeigen.
Ich bezweifle es.
Ergo geht diese Info an den Kunden vorbei.
Warum?
Weil nVIDIA wieder die Kohle reisen will.

Sorry aber sogar ATi hat sich angestrengt um im Zuge des Produktsredesign eine klare Linie geschaffen.

Labberlippe
2002-02-08, 17:11:38
Originally posted by Quasar


Wer lesen kann....
Eine neue Fertigungstechnologie scheint derzeit nicht verfügbar, also blieb man bei 0,15µ. ATi hat den Die-Shrink auch nur durch Umstellung von 0,18µ auf 0,15µ erreicht.....



Interessant. Es gab jedoch so einige, die nVidia immer vorhielten, ihre Designs bis zum letzten auszuschlachten (GF2, GF2pro, GF2ultra...). Daß die ATi-Fanboys das bei einer eventuellen R8500XT nicht kritisieren würden, liegt schon auf der Hand...

Du vergisst nur eines.
Das im Gegensatz zu nVIDIA, wird dafür die ausgewachsene R8500 in den Mainstream drückt.
nVIDIA hat liebend gerne einen Refresh unter einen neuen Namen gebracht.
Schliesslich wird die Hercules nur 200€ kosten.
So jetzt reden wir über den Sinn der MX weiter.

Der nächste Chip steht bevor.

Gruss Labberlippe

Labberlippe
2002-02-08, 17:15:42
@Exxtreme:
Die von dir gelobten DVD- und Tv-out Features sind allerdings nur in der MX enthalten....

Echt?
Die GeForce4 Ti4xxx Serie hat kein DVD und TVOUT Features?
Bist Du Dir sicher?

Gruss Labberlippe

Quasar
2002-02-08, 17:16:54
Das werden wir ja noch sehen....vielleicht stellt man dafür dann lieber die Produktion der "build by ATi" ein, damit der Leistungsabstand auch schön groß ausfällt.

@Labberlippe:
Features schon, aber keinen integrierten TV-out Encoder und kein iDCT. Adaptives De-Interlacing haben beide nicht.

Labberlippe
2002-02-08, 17:24:07
Originally posted by Quasar
Das werden wir ja noch sehen....vielleicht stellt man dafür dann lieber die Produktion der "build by ATi" ein, damit der Leistungsabstand auch schön groß ausfällt.

@Labberlippe:
Features schon, aber keinen integrierten TV-out Encoder und kein iDCT. Adaptives De-Interlacing haben beide nicht.

Wo hast Du den das her?
Das heist dann das nVIDIA beim Mainstream mit PS&VS spart und im Hig-End für beim DVD und TV-Out spart.
Das kann ich mir nicht vorstellen.

Ansonsten haben Sie in beiden Bereichen halbfertige Karten.
*rofl*
:lol: :lol: :lol: :lol: :lol:
Gruss Labberlipe

Quasar
2002-02-08, 17:28:33
Das steht in den Feature-Listen drin.

VPE (Video Processing Engine) wird bei der MX erwähnt, bei der Ti nicht.
Allerdings ist iDCT heutzutage wirklich wurscht, außer in Notebooks, da es die CPU schont und damit Strom spart...für die BQ ist das nicht relevant.

Xmas
2002-02-08, 17:28:43
Originally posted by Labberlippe
Ganz einfach durch die 7xxx und 8xxx Namensgebung sind beide Technologien abgegrenzt.
Bei der GeForce4 gibt es 2einen" Namen für 2 Technolgien.
Durch die MX4xx und Ti4xxx Namensgebung sind beide Technologien abgegrenzt.
Bei der Radeon gibt es "einen" Namen für 2 Technologien.


...fällt dir was auf? ;)

Quasar
2002-02-08, 17:32:39
Wobei fairerweise man sagen muss, das 7 für DX7 und 8 für DX8 steht. Eine etwas näherliegende Assoziation, imho, als MX=DX7 und Ti=DX8....

Aber egal...

Labberlippe
2002-02-08, 17:33:41
Originally posted by Xmas

Durch die MX4xx und Ti4xxx Namensgebung sind beide Technologien abgegrenzt.
Bei der Radeon gibt es "einen" Namen für 2 Technologien.


...fällt dir was auf? ;)

Ja das Du auf den Holzweg bist. ggg
Ich habe doch schon oben ausführlich den Grund erklärt.
Bei der Radeon gibt es nur R7500 oder R8500
Nicht R8550 für DX 8 und R MX 8520 für DX7 so was ist leichter zu trennen.

Gruss Labberlippe

Com1
2002-02-08, 17:35:35
Originally posted by Xmas

Durch die MX4xx und Ti4xxx Namensgebung sind beide Technologien abgegrenzt.
Bei der Radeon gibt es "einen" Namen für 2 Technologien.


...fällt dir was auf? ;)

Nun... es ist aber leider so, dass im Supermarkt die Zahlen eher zählen (und zu produktbeschreibung taugen) als abkürzugen wie Ti und MX, die eh nur wenige Mainstream Käufer wirklich deuten können. In vielen PC Angeboten fehlen diese wichtigen kürzel! das steht dann in etwa "Geforce 2 64 MB AGP TV OUT"
ob das jetzt ne mx 200 oder ne Ti ist weiß keiner... bei der Radeon Bezeichnung ist dieser beschiss kaum möglich, weil die bezeichnungen da eindeutig und logisch sind.

Xmas
2002-02-08, 17:37:23
Wieso ist 7500 von 8500 leichter zu trennen als MX440 von Ti4600 ??? Sorry, wo ist die Logik dahinter?

Quasar
2002-02-08, 17:42:25
Weil man eine 7 imho eher mit DX7 assoziert, als eine Buchstabenkombination. Wie gesagt, mein subjektiver Eindruck.

Labberlippe
2002-02-08, 17:44:10
Originally posted by Xmas
Wieso ist 7500 von 8500 leichter zu trennen als MX440 von Ti4600 ??? Sorry, wo ist die Logik dahinter?

Also in allen Review und Preview

Hat es geheissen R7500 oder R8500 überall wurde erwähnt das 7 für DX7 und 8 für DX8 Serie steht.
Eindeutiger geht es nicht mehr.

Gruss Labberlippe

Com1
2002-02-08, 17:56:36
also meiner (subjektiven) meinung nach ist es einfacher, Zahlen voneinander zu unterscheidden als Buchstaben Kürzel ;) Vor allem wenn man sonst Laie ist... ne höhere Zahl sagt jedem "das ist irgendwie besser" ;)

Xmas
2002-02-08, 18:00:32
Originally posted by Labberlippe


Also in allen Review und Preview

Hat es geheissen R7500 oder R8500 überall wurde erwähnt das 7 für DX7 und 8 für DX8 Serie steht.
Eindeutiger geht es nicht mehr.

Gruss Labberlippe
In allen Reviews und Previews wurde auch darauf hingewiesen dass MX4xx für DX7 und Ti4xxx für DX8 steht...
Klar, die Unterscheidung bei ATI ist eindeutig, aber bei NVidia ist sie es genauso!

Com1,
ist 4400 kleiner als 460?

Korak
2002-02-08, 18:04:54
Ich finde aber auch, dass man mit 8xxx besser DX8 und mit 7xxx besser DX7 in Verbindung bringen kann.

Com1
2002-02-08, 18:05:18
Originally posted by Xmas

Com1,
ist 4400 kleiner als 460?

Nein. Aber er steht vor beiden Zahlen "Geforce 4". 7 und 8 sind zwei unterschiedliche Werte. 4 und 4 sind leider das selbe. Die Zahlen die danach kommen werden bei NV Karten leider manchmal weggelassen, um die MX Karten besser aussehen zulassen z.B. in komplett PCs. Und das ist das Problem.

Joerk
2002-02-08, 18:08:01
Warum?

Ganz einfach, auf so eine Karte habe ich schon lange gewartet - moderate 3D-Leistung (zwischen GF2 TI und GF3 TI), endlich Multimonitor-support (DVD am TV-Out) und dazu noch relativ preiswert.

Ok, jetzt werden viele sagen "sowas gibts doch aber schon", tja, klar und zwar in Form von einer Radeon 7500, aber: diese Karte wollte bei mir nicht so richtig, bei Games stürzte meine Kiste ständig ab und das ist kein Einzelfall gewesen, da ich noch mehr User mit diesem Problem gefunden habe. Mein Board (BX-Chipsatz) mag die Karte einfach nicht oder umgekehrt (IMHO ein Spannugsproblem). Fazit: die Karte ging zurück zum Händler und ich verwende wieder meine betagte V3.

Aber nun sieht die Sache wieder sehr hoffnungsvoll aus, wenn man mal sämtlichen Pre/Reviews glauben darf. Jetzt muss ich nur noch einen geeigneten Anbieter finden, der so eine Karte (MX 440 oder 460) mit einer anständigen Signalqualität (betreibe einen 19 Zöller - Sony G400) und leisem Kühler/Lüfter anbietet. Im Moment tendiere ich zu ELSA, doch wer weiß, wie lange es die noch gibt. :(

Nuja, warten wirs ab, ich jedenfalls bin voll und ganz von der neuen MX überzeugt. Welcher normaler User braucht schon DX8-Funktionen? Ich nicht.

Labberlippe
2002-02-08, 18:08:08
Originally posted by Xmas

In allen Reviews und Previews wurde auch darauf hingewiesen dass MX4xx für DX7 und Ti4xxx für DX8 steht...
Klar, die Unterscheidung bei ATI ist eindeutig, aber bei NVidia ist sie es genauso!

Com1,
ist 4400 kleiner als 460?

Das wird nur leider nicht deutlich gesagt.
Es wird zwar in ein paar Zeilen darauf hingewiessen das die Karte keinen PS & VS hat.
Dennoch gehört FETT und GROSS angeprangert das es doch nur eine DX7 Karte ist.
kleine zeilen werden gerne überlesen.

Gruss Labberlippe

Korak
2002-02-08, 18:09:39
Originally posted by Labberlippe


Das wird nur leider nicht deutlich gesagt.
Es wird zwar in ein paar Zeilen darauf hingewiessen das die Karte keinen PS & VS hat.
Dennoch gehört FETT und GROSS angeprangert das es doch nur eine DX7 Karte ist.
kleine zeilen werden gerne überlesen.

Gruss Labberlippe

Ich bin für einen Poll :D

Xmas
2002-02-08, 18:14:29
Originally posted by Korak
Ich bin für einen Poll :D
Kein Problem :D
Wie soll die Auswahl sein?

Korak
2002-02-08, 18:19:51
Originally posted by Xmas

Kein Problem :D
Wie soll die Auswahl sein?

Is jetzt nich dein Ernst, oder?

Unregistered
2002-02-08, 18:54:01
Originally posted by Haarmann
- offenbar funktionierendes S3TC
[/B]

richtig - "offenbar". Vielleicht ist S3TCQuality einfach nur standardmässig gesetzt und der Fehler ist in Direct3D weiterhin vorhanden.

Razor
2002-02-08, 19:12:09
@AlfredENeumann

Im Prinzip gebe ich Dir sogar recht !
(hab ich in 'nem nV-Thread schon ähnlich geschrieben ;-)

Wer heute eine gf3 hat, der wird sich kaum auf 'ne gf4ti einlassen...
Die Dinger sind zwar wahnsinnig schnell, aber wofür ?

Und nur, damit das AA dann 'ne bissel schneller läuft, dann eine gf4ti kaufen ?
(das einzige Argement wär für mich die Dual-Moni-Unterstützung !)
Nee...
;-)

Klar, wenn ich noch keine gf3 hätte, würde ich wohl zu einer gf4ti4200 greifen und wenn das Geld keine Rolle spielen würde, dann klar zu einer gf4ti4600 (und im Herbst dann zu einer NV30 ;-)...

Aber wirklich 'brauchen' ?
???

Auch vermute ich, daß nicht nur die gf3-Linie stirbt, sondern auch ein Großteil (wenn nicht alle !), der vorherigen Produkte. Die gf4-Reihe deckt eigentlich ALLE Marktsegmente ab. Lediglich für den OEM-Sektor wären noch Karten ala TNT2 oder gf2mx/ti interessant... als Billigst-Lösungen zususagen...

@ow

Ne gf3ultra wär 'nen blanker hohn !
(und die gf3ti500 ist bereits 'ne 'ulra' !)
;-)

@Richthofen

100% ACK !
;-)

@Labberlippe

Du nun wieder...
;-)

Die gf4mx-Linie wird alle Produkte unterhalb einer gf3 (ti200) ablösen und auch diese konnten kein DX8 (oder hab' ich da was verpaßt ? ;-). Im Gegenzug gibt's dann ein paar Goodies (full MPEG2 z.Bsp.)...

Der Vollständigkeit halber: JEDES Re/Preview geht darauf ein, daß die MX nicht DX8-Compliant ist !
Auch wird überall darauf hingewiesen, daß die neuen gf4mx'er weder Leistungsmäßig, noch Featuremäßig an eine gf3 heran reichen, was ja auch durch die interne Chip-Bezeichnung ersichtlich ist (NV17 oder gf4mx -> NV20 oder gf3 -> NV25 oder gf4ti). Wer das überliest, dem ist wirklich nicht zu helfen. Und auch vorher dürften sich die Karten-Käufer (und -Verkäufer ;-) darüber im klaren gewesen sein, daß eine gf2mx nicht unbedingt mit einer 'richtigen' gf2 (gts/pro/ultra/ti) vergleichbar ist...

Oder wird ATI dafür 'verteufelt', weil die die alte Radeon unter einem neuen Namen verscherbeln (R7500) und sie es sich erdreisten, kein DX8 dabei an Board zu haben ? Hmmm...

Und schon mal das Kreed-Demo geschaut ?
(perfektes Beispiel für ein Doom3-Game ;-)
WOW kann ich dazu nur sagen !
Und her mit 'echten' DX8-Games...
"It's worth ist !"
;-)

@Piffan

"Nvidia ist böse!"

Also ich versteh' die Aufregung auch nicht so ganz...
Ich kann Dir nur 100%'ig zustimmen, denn ich persönlich finde, daß nVidia da einen ganz guten Mix gefunden hat, die gesamte Palette an Marktsegmenten zu bedienen. ALLE Chips (gf4mx/ti) haben die neuen Technologien bezüglich der Bandbreitenschonung an Board und sind klar auf die Zielgruppen zugeschnitten.

Auch scheinen hier einige wirklich nicht zu verstehen, daß die gf3-Technik nicht auf den Müll geworfen wird, sondern sich schlicht in optimierter Form in der gf4(ti)-Linie wieder findet. Aber einigen hier ist das anscheinend zu hoch...

Mal ganz davon abgesehen, daß die bessere Fertigungstechnik die Chip-Herstellung günstiger macht und damit letztendlich allen zugute kommt. Oder wie ist es zu erklären, daß selbst das Top-Modell (gf4ti4600) noch lange nicht an die Einsteigspreise einer gf3 heran kommt ?

@Xmas

Eine kleine 'Korrektur':

GeForce4 Ti4600
GeForce4 Ti4400
GeForce4 Ti4200
GeForce4 MX460
GeForce4 MX440
GeForce4 MX420

Radeon 8500XL
Radeon 8500
Radeon 8500LE
Radeon 7500
Radeon 7200
Radeon 7000

Ergo: KEIN Unterschied !
;-)

@Exxtreme

Wer 'braucht' PS1.4 ?
(und vor allem: für was ?)
???

@Quasar

Full MPEG2 gibt's nur bei der MX... ist richtig.

Falsch ist wohl Deine Bemerkung zum TV-Out, denn diese sollen wohl bei allen gf4-Karten gleich sein (nView) und außerdem sollte man noch erwähnen, daß nVidia der gf4ti gleich 2 vollwertige RAMDAC's spendiert hat (350MHz), während ATI dann 'nur' einen vollertigen (400MHz) und einen 'verkappten' (240MHz) zu bieten hat...

Und ach ja, auf dem Referenzdesign gibt's auch eine 'Aussparung' für das Personal Cinema von nVidia bei der gf4ti-Serie. Könnte mir also gut vorstellen, daß nV im oberen Midrange/High-End-Segment an eine andere Lösung denkt (als das VPE der gf4-Reihe).

Und noch eines (dann is aber schluß ;-): Die eigene Karten-Bezeichnungen nach der DX-Version zu richten, halt ich persönlich für nicht sonderlich gelungen (ATI mit Radeon7/8 für DX7/8). Wie dem auch sei, wer sich 'ne GraKa kauft, ohne sich auch nur den Hauch zu informieren, hat 'eh verloren...
(unabhängig vom Hersteller !)
;-)

Vielleich wäre es ja besser gewesen die Produkte so zu bezeichnen:

GeForce4 Ti8600
GeForce4 Ti8400
GeForce4 Ti8200
GeForce4 MX7060
GeForce4 MX7040
GeForce4 MX7020

Persönlich würde ich das net so dolle finden !
;-)

@nggalai & smallB

Habe gerade die Kreed-Demo (alpha) der neuesten PC-Games am Wickel gehabt:
WOOOOOOOOOWWWWWWWWWW !
;-)

Ist ein absoluter Hammer (von der Grafik her ;-) !
Und läuft auf meinem P3-900 mit gf3 (Standard-Takt) ganz hervorragend...

Also wird ALLES mir einer gf3 (oder 'ner R8500) was demnächst erscheinen wird, ganz hervorragen mit jetzt als 'Midrange' einzustufenden GraKa's laufen. U2, UT2, Kreed und auch Doom3 (wird nach Aussage der Entwickler auf gf3 optimiert ;-) werden auf jeden Fall laufen...

***

Also nur mal als Beispiel für die Geschwindigkeit einer gf4ti (egal welche ;-) im Vergleich zu 'ner R8500:
ArnandTech: NVIDIA GeForce4 - NV17 and NV25 Come to Life (http://www.anandtech.com/video/showdoc.html?i=1583)

Ein kleiner Auszug:
- beim 3DMurks2k1 ist die gf4ti auf Takt einer Ti500 schon schneller als 'ne R8500
- bei SeriousSam2 ist die R8500 gar langsamer als 'ne gf4mx (460 ;-) !
- bei RTCW kann eine R8500 nicht einmal die ur-gf3 erreichen
- beim neuen U2 2002 Test liegt die R8500 nun auch dort, wo sie hingehört: unterhalb einer gf3 !
- AA Performance ? Na ja, Ihr wißt schon...
;-)

Also, als Fazit würde ich sagen, daß die gf4ti4200 zur Zeit das interessanteste Produkt am Markt ist (sein wird ).
220€ für eine solch eine Karte ist DER Hammer !
(wenn man noch keine gf3/r8500 hat ;-)

In diesem Sinne

Razor

Pengo
2002-02-08, 19:16:31
Originally posted by Labberlippe


Der Grund ist das dies ein ganz fieser Trick von nVIDIA ist, 2 div. Karten Technologien unter einer Namens Serie zu verkaufen.
Wie die Lemminge werden einige drauf reinfallen.


So macht man viel Geld.

Haarmann
2002-02-08, 19:17:07
Gewisse Leute sollten Lesen lernen....

Wo steht, dass ne GF4Ti DVD Unterstützung hat?

Laut NV hat das nämlich nur die GF4MX... Der Ti fehlt das. Nix da mit gleichziehen mit ATI.

Das ist aber genau die schlaue Marketingtaktik von NVidia... GF4 = DVD und schnellste 3D mit DX8 - leider trifft dies nicht zu.

Die Leute, die nun drauf reinfallen, sind aber eigentlich selber schuld... mein Mitleid hält sich jedenfalls in Grenzen.

Unregged

Hehe interessant zu hören ... dann wird das 3dmark Muster auch noch da sein...

@Razor

Wenn ich ne Hercules R8500LE für kanppe 160€ kaufen kann, dann kann mir jede RuckelDVDScarface Gforce4 Ti gestohlen bleiben...

Pengo
2002-02-08, 19:19:17
Originally posted by AlfredENeumann


Dir TI500 hätte bei weitem gereicht warum diese Karten sterben lassen ? Kalr ist es Marktwirtschaft. Wie kann man am besten den Leuten wieder 1000DM aus der Tasche ziehen ? Der Standart Spruch bei Nvidia.



Wieso hat 3FX damals eine Voodoo 2 und keine Voodoo Graphics Ultra rausgebracht? Aus dem selben Grund wieso NVIDIA eine GF4 und keine GF3 Ultra rausbringt.

Com1
2002-02-08, 19:24:27
Im Anandtech Review schneidet die R8500 in der Tat schlecht ab.

http://www.xbitlabs.com/video/geforce4/

hier siehts *komischweise* schon wieder anders aus... IMHO sind in dem Review die Benchs realistischer...

Die runtergetaktete GF4 liegt dort fast überall gleichauf mit der Ti500 und der Radeon...

ow
2002-02-08, 19:24:58
Originally posted by AlfredENeumann


Die dürften auf der GF5 und dem R300 aber besser und schneller laufen.
Warum einen überteurten DX8-Beschleuniger kaufen wenn in 6 monaten eine komplett neuen Chip-Generation kommt.


Warum in 6 Monaten kaufen, wenn in 12 Monaten die nächste Generation kommt?

Legolas
2002-02-08, 19:25:52
Originally posted by Pengo


So macht man viel Geld.

Was auch keine Entschuldigung ist... Nur weil man damit viel, viel Geld machen kann, muss man solchen Praktiken nicht zustimmen... Es werden zwar massenhaft DAUs drauf reinfallen, die halt selber an ihrer Dummheit schuld sind, aber es gibt halt auch noch Menschen, die was gegen eine 100%ige Komerzialisierung haben. Nvidia ist halt ne Amilandfirma, und wenns da ums Geld geht, dann sind alle Mittel recht.

Exxtreme
2002-02-08, 19:31:17
Originally posted by Razor
[b]
Wer 'braucht' PS1.4 ?
(und vor allem: für was ?)
???

Err, so ähnlich haben damals die V3-Fans argumentiert. Wozu 32 Bit?
Weisst du jetzt worauf ich hinaus will?

Gruß
Alex

Unregistered
2002-02-08, 19:38:51
Originally posted by Pengo


Wieso hat 3FX damals eine Voodoo 2 und keine Voodoo Graphics Ultra rausgebracht? Aus dem selben Grund wieso NVIDIA eine GF4 und keine GF3 Ultra rausbringt.

Jo sicher.

Und die GeForce3 Ti Serie waren neue Chips.
Die TI Serie war die Ultra Serie. b.z.w. die 500er

gruss Labberlippe

Quasar
2002-02-08, 19:52:48
@Razor
@Quasar

Full MPEG2 gibt's nur bei der MX... ist richtig.

Falsch ist wohl Deine Bemerkung zum TV-Out, denn diese sollen wohl bei allen gf4-Karten gleich sein (nView)...


Da liegst du leider falsch, Razor. Im Product-Overview PDF wird erwähnt, das die GF4MX einen intergrierten TV-out Encoder hat, ergo keine z.B. Conexant-Bausteine mehr für's TV-out benötigt.

Die Ti hingegen hat diesen integrierten Encoder nicht und benötigt weiterhin einen separaten Baustein für den TV-out.

Dieses ist völlig unabhängig von nView, das ausschließlich erlaubt, zwei Bildschirme anzusteuern...

Razor
2002-02-08, 19:52:54
@Haarmann

RuckelDVD ?
;-)

Du würdest Dir also eine gf4ti in einen PII266 stecken und sagen, daß DVD dann ruckelt ?
???

Kann doch nun wirklich nicht Dein Ernst sein !
Schon bei 'ner gf3 lag die 'sinnvolle' Mindestanforderung bei einem 800MHz-Prozzi, bei der gf4ti würde ich sogar noch ein Stückel höher ansetzen... Und solche Rechner können auch völlig ohne jegliche MPEG2-Unterstützung (also auch ohne das der gf/gf2/gf3) DVD's ruckelfrei darstellen...

Und Du scheinst ganz zu vergessen, daß im Referenzdesign der gf4ti bereits das PersonalCinema von NV vorgesehen ist. Somit dürfen wir uns alle auch eine wirklich interessante gf4ti420'DV' freuen (wann auch immer diese kommen mag ;-).

@Com1

Hmmm...
Xbitlabs hat 'nen Athlon XP 2000+ unter WinXP benutzt...
(ATI 6011-Treiber, Ti500 23.11, gf4ti4600 27.20))
ArnandTech ebenso, nur eben andere Treiber
(ATI 7.66 beta - von ATI, alle gf's 27.30
;-)

Und wenn ich recht entsinne, dann hatten die 'alten' Treiber von ATI auch beim U2 2002 Test einen deutlichen Vorsprung, der durch die 'neuen' Treiber wieder relativert wurde...

Scau doch einfach mal bei www.3dchipset.com vorbei, denn da gibt's in den News die wohl kompletteste Liste an Reviews. Und nahezu alle bestätigen eigentlich das Bild, was Arnand zeichnete.

Schon 'merkwürdig', daß Xbitlabs hier eine Ausnahme macht...
Insofern würde ich vorerst (!) dem allgemeinen Tonus Galuben schenken, als einem 'Ausreißer'...
;-)

Aber vielleicht sollten wir erst nocheinmal die nächsten offiziellen Treiber von ATI und nVidia (mit gf4-Unterstützung) abwarten, um ein 'besseres' Bild zu erhalten, gell ?

@Exxtreme

Du willst die 'ATI-Erfindung' PS1.4 mit der 32-Bit darstellung vergleichen ?
Erkennst Du mein Problem ?
;-)

Aber vielleicht sollte ich es klarer ausdrücken:
Gibt es eine Notwendigkeit auf einen Prä-PS2.0 aufzuspringen ?
Gibt es irgendwelche Entwickler, die (exclusiv) von PS1.4 Gebrauch machen werden ?
(vermute mal, daß selbst PS1.2/1.3 zur zeit schlicht überflüssig sind)

Insofern wage ich ATI's PS1.4 in Frage zu stellen...
;-)

In diesem Sinne

Razor

Razor
2002-02-08, 19:55:54
Originally posted by Quasar
@Razor


Da liegst du leider falsch, Razor. Im Product-Overview PDF wird erwähnt, das die GF4MX einen intergrierten TV-out Encoder hat, ergo keine z.B. Conexant-Bausteine mehr für's TV-out benötigt.

Die Ti hingegen hat diesen integrierten Encoder nicht und benötigt weiterhin einen separaten Baustein für den TV-out.

Dieses ist völlig unabhängig von nView, das ausschließlich erlaubt, zwei Bildschirme anzusteuern...
Und wo ist jetzt der Unterschied, TV-Out im Chip zu integrieren, oder dies über einen externen Chip zu implementieren ?

Insofern war mein Kommentar vielleicht etwas mißverständlich:
Was für einen Sinn hat es, TV-Out auf dem Chip zu integrieren, denn das hat ATI ja nicht einmal mit der R8500 gemacht und nutzt dafür den RageTheater (vie bei NV ja mit dem PersonalCinema möglich) ?
Hmmm...

Razor

Quasar
2002-02-08, 19:56:57
Razor, du schreibst schon wieder dauernd "Arnand", aber Herr Shimpi ist meines Wissens nicht französischer sonderen eher indischer o.ä. Abstammung :)

ow
2002-02-08, 19:57:27
Originally posted by Labberlippe


Also in allen Review und Preview

Hat es geheissen R7500 oder R8500 überall wurde erwähnt das 7 für DX7 und 8 für DX8 Serie steht.
Eindeutiger geht es nicht mehr.

Gruss Labberlippe


Jetzt wäre aber interessant, wofür die xxx=500/200/000 stehen.

Ich hab keine Problem mit der Namensgebung irgendwelcher Graksa, da ich weiss, das man sich darüber informieren kann, was die Dinger denn können.


Ist ja geradezu rührselig, wie hier irgendwelche potentiellen DAUs bemitleidet werden.

Razor
2002-02-08, 19:59:07
Originally posted by Quasar
Razor, du schreibst schon wieder dauernd "Arnand", aber Herr Shimpi ist meines Wissens nicht französischer sonderen eher indischer o.ä. Abstammung :)
Sorry !

Freund 'Shimpi' wird es mir hoffentlich verzeihen...
;-)

Razor

Haarmann
2002-02-08, 20:11:31
@Razor

WinDVD + Scarface Collectors Edition + ESLA GF DDR + AMD Athlon 1.533 GHz = Ruckel

WinDVD + Scarface Collectors Edition + ATI Radeon DDR + Pentium3 500 = Flüssige Wiedergabe.

Abergesehen davon kann sich NVidia ihre GF4 an den Hut stecken, meine ATI reicht mir zZ ganz gut...

Und das Personal Cinema können sich die Leute dort, wenns mal da is , auch in den A... stecken... aber bitte quer ;D

Und ich glaube da ganz ehrlich gesagt THG, der war noch nie gegen NVidia ;-) und doch kamen die flach raus... Und zwar zurecht... ich sag nur Bugfreie Treiber... vor allem mit TV-Out ;D

32Bit erfand IMHO im Consumerbereich PowerVR mit den AddOn Karten ala Matrox M3D...

Da NV offenbar den Mainstream ohne PS lässt, könnte es doch passieren, dass bald mehr PS Karten von ATI, denn von NV rumgeistern... Folge ist dann PS 1.4 is wichtiger denn 1.1-1.3... Nur ne These.

Unregistered
2002-02-08, 20:13:14
Man kann immer auf die neue 3-D Graka warten !

Bei NVIDIA war bisher die GeForce 3 Ti 200 die beste Wahl ! Jetzt hat es sich geändert zum Günsten der zukünftigen GeForce 4 Ti 4200.
Die Preisen d.h.

199 US$ für GE 4 Ti 4200 dieses Preis stimmt !
299 US$ für GE 4 Ti 4400 maximal 250 US$
399 US$ für GE 4 Ti 4600 maximal 300 US$

sind witzig !

Die GeForce 4 MX sind ein totales Flop : lieber eine GE 3 Ti 200 oder GE 3 Ti 500.

Mal sehen was passiert mit der Radeon 8500XT. Der Radeon 8500 bleibt immerhin sehr interessant dank Adaptive Anisotropic Filtering und TruForm.

Exxtreme
2002-02-08, 20:17:16
Originally posted by Razor

Du willst die 'ATI-Erfindung' PS1.4 mit der 32-Bit darstellung vergleichen ?
Erkennst Du mein Problem ?
;-)
Nein, ich vergleiche den PS 1.4 nicht mit 32-Bit Farbtiefe - nur die Argumentation darum.
Originally posted by Razor

Aber vielleicht sollte ich es klarer ausdrücken:
Gibt es eine Notwendigkeit auf einen Prä-PS2.0 aufzuspringen ?
Gibt es irgendwelche Entwickler, die (exclusiv) von PS1.4 Gebrauch machen werden ?
(vermute mal, daß selbst PS1.2/1.3 zur zeit schlicht überflüssig sind)

Hmm, als die V3 rauskam, gab es eine Notwendigkeit auf eine prä-64 Bit Farbtiefe aufzuspringen?
Die GF4 bietet eigentlich nichts Neues - nur mehr Speed, wie die V3 ggü. der V2. Aber damals hat sich jeder darüber aufgeregt. Ehrlich gesagt habe ich nach 1 Jahr Entwicklungszeit mehr erwartet als etwas mehr Speed. Ich sehe es als ein kleines Übel an, daß die GF4 keinen PS 1.4 beherrscht weil damit die Entwicklung deutlich verlangsamt wird. Sorry, aber IMHO die R8500 ist der GF4 technisch weit überlegen, nur beim Speed hat sie das Nachsehen.
Originally posted by Razor

Insofern wage ich ATI's PS1.4 in Frage zu stellen...
;-)

In diesem Sinne

Razor
Tja, und ich stelle die Entscheidung nVidias den PS 1.4 nicht einzubauen in Frage. Sie sind damit irgendwo eine Entwicklungsbremse.


Gruß
Alex

Razor
2002-02-08, 20:23:48
@Haarmann

WinDVD2k + Scarface Collectors Edition + ESLA GF DDR + P3 500 = flüssige Wiedergabe
WinDVD2k + Scarface Collectors Edition + ESLA GF3 + P3 700@900 = flüssige Wiedergabe
;-)

Und auch von mir aus kann sich nVidia ihre gf4(ti) Serie an den hut stecken,
denn meine gf3 (@gf3ti500 ;-) wird's noch bis zur R300/NV30 machen !
;D

Und das mit den PS'ses hatten wir doch nun zur Genüge...
Die gf3's sind bereits Best-Seller, da muß ATI erst noch hin. Und da's für die Entwickler immer nur den kleinsten gemeinsamen Nenner gibt, heißt's für die nächsten Games dann eben PS1.1 und sonst gar nichts (werde PS1.4 noch PS1.2/1.3) !
;-)

Ergo ist ATI's PS1.4 so überflüssig, wie 'nen Loch im Knie !
(wie auch das 'Hardware' PS1.2/3 der gf4 und det Truform, außer bei Half-Life, wenn's mal anstädig gemacht würde ;-)

Bis denne

Razor

Pengo
2002-02-08, 20:25:05
Originally posted by Exxtreme

Err, so ähnlich haben damals die V3-Fans argumentiert. Wozu 32 Bit?
Weisst du jetzt worauf ich hinaus will?

Gruß
Alex

Ich weißes nicht, IMHO bringt PS 1.4 keinen visuellen Vorteil, nur ein wenig mehr Geschwindigkeit, ich halte das für noch viel unwichtiger als HW T&L.

Xmas
2002-02-08, 20:33:27
Originally posted by Pengo
Ich weißes nicht, IMHO bringt PS 1.4 keinen visuellen Vorteil, nur ein wenig mehr Geschwindigkeit, ich halte das für noch viel unwichtiger als HW T&L.
Ich frage mich wie du zu diesem Urteil kommst? Göttliche Eingebung?

Razor
2002-02-08, 20:43:52
@Exxtreme

Tja, Alex, sooooo weit liegen wir doch gar ncht auseinander...
;-)


Nein, ich vergleiche den PS 1.4 nicht mit 32-Bit Farbtiefe - nur die Argumentation darum.
IMHO etwas arg an den Haaren herbei gezogen...
Hmm, als die V3 rauskam, gab es eine Notwendigkeit auf eine prä-64 Bit Farbtiefe aufzuspringen?
Jetzt willst Du aber sagen, daß der PS1.4 mit 32-Bit vergleichbar ist, oder ?
;-)
Die GF4 bietet eigentlich nichts Neues - nur mehr Speed, wie die V3 ggü. der V2.
Seh ich auch so !
Insofern weiß ich gar nicht, was Du hast.
???

Die gf4 ist eine 'verbesserte' gf3, mehr hab' ich auch nie behauptet !
Aber damals hat sich jeder darüber aufgeregt. Ehrlich gesagt habe ich nach 1 Jahr Entwicklungszeit mehr erwartet als etwas mehr Speed.
Also hab' ich Dich doch richtig verstanden...
32-Bit gibt es nun schon seit fast 3 Jahren und Du willst ernsthaft behaupten das gerade dem PS1.4 eine ähnlich lange 'Haltbarkeit' vorbestimmt ist ? DX9 und damit PS2.0 steht vor der Tür und die Radeon8500 wird dies nicht können. Insofern beträgt hier die 'Haltbarkeit' gerade mal 'nen 3/4 Jahr (wenn überhaupt) und ist absolut kein Vergleich zum 32-Bit. Schließlich gibt es noch heute V3-Besitzer (wenn auch nicht mehr sooo viele ;-), die noch immer nicht 32-Bit 'genießen' können, welches spätestens seit der gfddr (also seit ca. 2 3/4 Jahren) nutzbar wurde. Insofern ist es absolut verständlich, daß man sich über das Fehlen von 32-Bit beim V3 beschwerte, da die Entwicklung zu diesem Zeitpunkt nun wirklich abzusehen war. Aber man sollte auch bedenken, daß die V3 der erste 'geglückte' Versuch war, 3D und 2D auf einem Chip zu integrieren...

Für satte 6, maximal 9 Monate auf den PS1.4-Zug zu springen und das, obwohl es bis dahin mit Sicherheit keine Anwendungen geben wird, die das voraus setzen, halt ich nun wirklich für absoluten Blödsinn.

Man sollte eher fragen, was ATI denn nun geritten hat, auf eine solche 'Spezial-Lösung' zu setzen...
Ich sehe es als ein kleines Übel an, daß die GF4 keinen PS 1.4 beherrscht weil damit die Entwicklung deutlich verlangsamt wird.
Siehe oben...
NICHTS wird verlangsamt, oder glaubst Du ernsthaft, daß irgend ein Entwickler die bisherigen gf3-Käufer vor den Kopf schlagen wird ?

Eher nicht...
;-)
Sorry, aber IMHO die R8500 ist der GF4 technisch weit überlegen, nur beim Speed hat sie das Nachsehen.
Wie man an den diversen Artikeln gut erkennen kann, ist die gf4 mit ihrem LMAII dem 'fortschrittlichen' HyperZII von ATI weit überlegen. Schleißlich sollte man auch bedenken, daß die gf4 'lediglich' auf dem Takt der R8500 läuft und trotzdem die Nase vorn hat (selbst in vorherigen ATI-Hoheiten).

Technologisch ist die gf4(ti) zur Zeit die Spitze, was sich wohl bis zum R300 auch nicht ändern wird und dann werden die Karten zusammen mit dem NV30 neu gemischt.

Feature-Mäßig ist die R8500 vorn, da gibt's keine Zweifel. Zweifel darf man aber bei der Sinnigkeit dieser 'Features' haben, denn es wäre ja nicht das erste mal, daß ATI Features anbietet, die keiner benutzt...

Technologisch hat ATI aber leider nicht mehr die Nase vorn...
Tja, und ich stelle die Entscheidung nVidias den PS 1.4 nicht einzubauen in Frage. Sie sind damit irgendwo eine Entwicklungsbremse.
Hatten wir schon...
Kann mal also so, oder so sehen...

Ich allerdings kann keinen Nachteil daran erkennen, eine Konkurrenz-Technologie nicht zu implementieren, der eine so geringe 'Haltbarkeit' zuteil werden wird.

Bis denne und nicht böse sein

Razor

Razor
2002-02-08, 20:47:04
Originally posted by Xmas

Ich frage mich wie du zu diesem Urteil kommst? Göttliche Eingebung?
Mich würde wiklich interessieren, Xmas, was ein Entwickler für einen Grund haben sollte, die PS1.4 zu nutzen...

Aber vielleicht kannst Du uns ja erhellen !

Bitte aber nicht die wirtschaftlichen Hintergründe außer acht lassen, denn daß die PS1.4 'theoretisch' Leistungsfähiger sind, als die 'Vorgänger' ist mir durchaus klar.

Bis dann

Razor

Razor
2002-02-08, 20:48:16
Und noch etwas an alle:

Hat hier schon irgend jemand das "Kreed Alpha-Demo" in Augenschein genommen ?
Und das ist 'nur' mit den PS1.1 realisert...
;-)

In diesem Sinne

Razor

RAL
2002-02-08, 20:57:58
Originally posted by Exxtreme

Ehrlich gesagt habe ich nach 1 Jahr Entwicklungszeit mehr erwartet als etwas mehr Speed. Ich sehe es als ein kleines Übel an, daß die GF4 keinen PS 1.4 beherrscht weil damit die Entwicklung deutlich verlangsamt wird. Sorry, aber IMHO die R8500 ist der GF4 technisch weit überlegen, nur beim Speed hat sie das Nachsehen.


Die GF4-Serie war doch schon letztes Jahr fertig. nVidia hat es aber nicht für nötig befunden, den GF4 sogleich zu launchen, sondern sich den Luxus erlaubt, vorher nochmal mit der GF3Ti-Serie abzusahnen. Die Radeon ist ein gutes Produkt und hat zum 'Opa' GF3 aufgeschlossen, nachdem die Treiberprobleme im Griff waren, und nun gibts halt von nVidia den Konter, sozusagen nach nVidias Belieben. Der Performancegewinn GF3,R8500->GF4 ist schon ziemlich heftig. Daran sieht man deutlich, wer wem überlegen ist. Nun wird sich zeigen, ob ATI diesem Druck mit einer äquivalenten Antwort standhalten kann..let's see.

Haarmann
2002-02-08, 21:06:26
@Razor

Ich hab z.B. ne mögliche Begründung für PS 1.4 ...

Kann ich per PS 1.1 irgendwas machen, was ich mit früheren weiter verbreiteten Varianten nicht tun kann?

Kann ich per PS 1.4 irgendwas machen, was ich mit früheren weiter verbreiteten Varianten nicht tun kann?

Heisst es Ja/Nein, dann schliesst sich PS 1.1 gleich selber aus...

Solange das ja gleich aussieht auf ner GF3/4 und schnell genug läuft, wird sich kein vernünftiger Entwickler mit PS 1.1 abgeben.

Aber eben - abwarten auf interessantere Reviews... ohne Quake3 und Zwiebelsalatbenches.

Und vor allem - Ohne SSAA vs MSAA Benches... das bringt einfach nix.

Razor
2002-02-08, 21:18:56
Originally posted by Haarmann
[B]Kann ich per PS 1.4 irgendwas machen, was ich mit früheren weiter verbreiteten Varianten nicht tun kann?

Heisst es Ja/Nein, dann schliesst sich PS 1.1 gleich selber aus...
Wenn die PS1.4 nur von einem einzigen GraKa-Chip angeboten werden, dann haben diese sich schon von selbst disqualifiziert, fast unabhängig davon, ob damit mehr möglich ist, oser nicht. Dazu kommt noch, daß ATI's DX8-Karte fast ein 3/4 Jahr nach nVidia gekommen ist und damit leider etwas spät war...
Solange das ja gleich aussieht auf ner GF3/4 und schnell genug läuft, wird sich kein vernünftiger Entwickler mit PS 1.1 abgeben.
Theorie in allen Ehren, Haarmann, aber die Entwickler habe die PS1.4 eher als Rückschritt bezeichnet (wg Handhabbarkeit oder ähnlichem... ja, ja die Erinnerung ;-). Und ALLE 'vernünftigen' Entwickler geben sich zur Zeit mit den PS1.1 ab (U2, UT2, Kreed, Doom3). Oder hast Du Beispiele für 'vernünftige' Eintwickler, die bei DX8(.1) Games auf die PS1.4 setzen ?
Aber eben - abwarten auf interessantere Reviews... ohne Quake3 und Zwiebelsalatbenches.
Davon gibt's schon 'ne Menge...
Die verzichten zwar nicht darauf, dafür gibt's aber Aquanox, Dronez, RTCW, MoHAA, MaxPayne, ja selbst Giant's etcppp
;-)
Und vor allem - Ohne SSAA vs MSAA Benches... das bringt einfach nix.
Sehe ich anders, denn beim AA ist die Performance wohl so ziemlich der wichtigste Punkt...

In diesem Sinne

Razor

nggalai
2002-02-08, 21:22:54
Hi Razor,Wenn die PS1.4 nur von einem einzigen GraKa-Chip angeboten werden, dann haben diese sich schon von selbst disqualifiziert, fast unabhängig davon, ob damit mehr möglich ist, oser nicht.Aber alle kommenden PS2.0 Karten werden PS1.4 problemlos laufen lassen können, werden dann überhaupt auch PS2.0-Applikationen geschrieben werden?

Siehst Du, auf was ich hinaus will?

ta,
.rb

Haarmann
2002-02-08, 21:59:12
@Razor

Wer ausser NVidia macht ne Pixelshader 1.1 Graka?

Also gilt ...
Wenn die PS1.4 nur von einem einzigen GraKa-Chip angeboten werden, dann haben diese sich schon von selbst disqualifiziert, fast unabhängig davon, ob damit mehr möglich ist, oser nicht.

Ich wollte schon immer Doom3 in Direct3D sehen... ;D
Und meine Meinung zu Tim Schweiny hab ich hier oft genug gesagt...
Und ich kenne keine Entwickler - irgendwie laufen die Gameentwickler in Bern so selten durch die Strassen :).

Wenn ich FSAA will, dann sicher keines von NV names Accuview... Ich hab mir durchgelesen, was Accuview tun soll, und das könnens behalten, egal wie schnell es is. Das kann ein 14 Zoll Monitor bei 1280*1024 betrieben sogar mit noch weniger Performanceverlust...

Mit einem Lachen auf den Lippen

Richthofen
2002-02-08, 22:17:53
@Haarmann

Dann eben nicht.
Dann spielst halt weiter in 1024 oder höher ohne FSAA.
Zum Glück sehen das viele anders.
Und was PS1.4 betrifft so hat doch Razor völlig Recht.
Warum soll Nvidia den bringen.
Das macht einfach keinen Sinn.
Nvidia hat die größere Marktdurchdringung also muss ATI das bringen was Nvidia bringt.
So leids mir für euch tut Leute aber so ist das Geschäft nunmal.
Deswegen bringt Nvidia auch kein TrueForm.
Das nenn ich eben Geschäftsstrategie.
Man lege sich den Gegner so zurecht, das er sich auf dem eigenen Feld mit mir messen muss.
Da leider versagt ATI völlig sie checkens halt einfach nicht wie der Hase läuft.

Ich brauch jedenfalls den PS1.4 nicht. Die sollen von mir aus beide bei DX9 auf den 2.0er setzen.
Bis dahin kommen hin und wieder Games raus die auf den PS setzen aber dann nur auf den 1.1er allenfalls noch auf 1.3 wobei ich selbst das nicht glaube.

Spiel ruhig ohne FSAA. Kannst gerne machen. Ich lehn mich zufrieden zurück und weis das spätestens seid der GF4 FSAA zum Standartprogramm gehört und zwar nicht mit ruckeligen 20 bis 40fps.
Ist ja geradezu peinlich der Performanceunterschied. Wenn ATI in dem Tempo weitermacht, dann können die Leute mit der GF5 in noch höheren FSAA Stufen spielen während ATI damit beschäftigt ist aus dem SuperSampling mit 4x vernünftige Frameraten zu zaubern.

Wie sagte Borsti von Rivastation so schön:

Unterschied in der Qualität = 0 Leistung dagegen wie Tag und Nacht.

Ich glaub einige werden starke Nerven brauchen für den Fall das ATI zur Cebit mit einer höher getakteten Radeon8500 aufwartet und das werden mit Sicherheit nicht die Leute von Nvidia oda ihre Käufer sein.
Die sonnen sich in bester FSAA Laune :)

Nr. 5
2002-02-08, 22:31:47
Originally posted by Richthofen

Nvidia hat die größere Marktdurchdringung also muss ATI das bringen was Nvidia bringt.

hätte sich nVidia daran gehalten, wären wir noch bei 16Bit farbtiefe... ;)

fakt ist: kann ATI sein truform etablieren (in form ordentlicher und verbreiteter umsetzung in games) muss nVidia nachziehen.
und nur durch das verbreiten von features welche die konkurrenz NICHT hat, kann man entscheidende marktanteile gut machen.
das sich nicht alle features durchsetzen ist klar.
deswegen lieber mehrere (PS1.4, Truform) um beim scheitern eines features nicht erst bei der nächsten generation ein neues, anderes etablieren zu müssen.


cu

aths
2002-02-08, 22:45:13
Reden wir mal über den PixelShader. Der war Teil der "nfiniteFX engine". Nun, wenn schon unendlich viele Effekte darstellbar sind, wozu dann noch eine Verbesserung?

Hehe, ich habe mich mal schlau gemacht und stellte fest, dass PixelShader 1.3 doch einige wichtige Erweiterungen bringt und nicht nur z-korrektes Bumpmapping. Razor, nur weil mit PixelShader 1.1 schon einige gute Sachen machbar sind heißt dass nicht, dass man PixelShader 1.3 oder 1.4 eigentlich nicht braucht.

Im Gegenteil. PixelShader 1.1 kann nur unwesentlich mehr als NSR (womit auch das GF3-Chamälion gerendert wurde.)

Der Verzicht auf PixelShader 1.4 ist jedenfalls eindeutig zu kritisieren. Was sich die angeblich so fortschrittliche Firma nVidia geleistet hat, behindert die Entwicklung.

PixelShader 1.4 bedeutet u.a., 6 Texturen pro pass lesen zu können. GeForce4 schafft weiterhin nur 4 Texturen.


Zur MX: nVidia stellte im Launch-Video das GF3-Chamälion vor, welches auf der GF4MX lief. Und der Typ sprach von "same functionality" - eindeutig eine Desinformations-Strategie, um DX8-Fähigkeit zu assoziieren. Natürlich, ohne das explizit zu behaupten.

Zu AccuView steht etwas in den News (diese Zeilen kamen von mir :)) Es ist ein bisschen schneller und ein klein wenig besser als bei der GeForce3, aber da wird ein riesen Tamtam drum gemacht. Dabei bietet 4x AA noch immer nicht die gute Voodoo5-Qualität. Das finde ich bei einem angeblichen HighEnd-Chip enttäuschend. Ja, das AA ist schneller, aber eben auch hässlicher als bei der Voodoo5, welche vor knapp 2 Jahren erschien... PEINLICH!!

Nach einem Jahr Entwicklungszeit sind die Fortschritte sehr, sehr dünn. Vereinfacht gesagt, gibt es eigentlich nur mehr Speed. Und nun fangen genau die Leute an, die bei der Voodoo die fehlenden 32 Bit und später das fehlende T&L bemängelten, herauszustreichen dass man bei der GF4 eigentlich gar nicht mehr an Features benötige. Das letzte Refresh war ein reines Aufbacken ohne jede Chip-Änderungen (vom Shrink abgesehen) und nun gibts ein paar kleine Goodies mehr. Oder auch weniger, je nach dem, welche Buchstaben hinter der Generations-Ziffer stehen.

Richthofen,

der gute Lars von Rivastation bemüht sich gerade, Durchblick zum Thema AF zu bekommen. Wenn er sich diesen erworben hat, wird ihm vermutlich einiges auffallen, was er vorher noch nicht sah. Bis dahin würde ich vorsichtig sein, ihn in solchen Fragen zu zitieren.

Zum angeblich so tollen Speed der GeForce4: Wenn man 4x SV vs. 4x AccuView bencht, so muss man bei der GeForce auch ein entsprechendes AF-Level zuschalten. Dann relativiert sich der Vorteil. Gelinde gesagt.

Radeon kann jedes Spiel mit 2x FSAA trotz 40% Performance-Verlust noch flüssig bringen, 16x AF gibts obendrauf. Nur 4x AF kostet bei der GF4 ebenfalls rund 40% Leistung... dann noch mal 2x AA und die Leistung ist nicht gerade rosig zu nennen. (Zumindest mit der aktuellen Treiber-Version.)


nggalai,

ich glaube, Razor nahm es bei der Verteidigung seiner GF3 noch nie so genau.

edit: dies und das, für jeden was :)

Unregistered
2002-02-08, 22:51:49
Originally posted by Pengo


Ich weißes nicht, IMHO bringt PS 1.4 keinen visuellen Vorteil, nur ein wenig mehr Geschwindigkeit, ich halte das für noch viel unwichtiger als HW T&L.

Dann zieh dir mal die Tabelle bei XBit Labs rein!

Für dich nochmal:
http://www.xbitlabs.com/video/geforce4/

Damit auch der fanatischte NVidia Anhänger mitbekommt, daß PS1.4 besser sind als PS1.1, 1.1A und 1.1B


Hm, komisch, damals wurde 3DFX kritisiert, daß sie kaum was neues gebracht haben, jetzt wird NV gelobt, daß sie die Entwicklung bremsen??

hakts bei euch allen eigentlich?

Oder meßt ihr immer mit 2erlei Maß?!

PS: Wartet mal, bis ATI ihre R8700/8800 rausbringt!
Mit RAM im BGA Gehäuse!!
Bei gleichem Takt scheint sie nicht soviel schlechter als eine GF4 zu sein...

Außerdem:

Einer von euch schonmal dran gedacht, daß sich die ach so dolle GF4 nicht mehr an die AGP Spezi halten kann???

Also mehr als 30W Verlustleistung!!

Unregistered
2002-02-08, 22:54:08
Originally posted by Quasar
@Razor


Da liegst du leider falsch, Razor. Im Product-Overview PDF wird erwähnt, das die GF4MX einen intergrierten TV-out Encoder hat, ergo keine z.B. Conexant-Bausteine mehr für's TV-out benötigt.

Die Ti hingegen hat diesen integrierten Encoder nicht und benötigt weiterhin einen separaten Baustein für den TV-out.

Dieses ist völlig unabhängig von nView, das ausschließlich erlaubt, zwei Bildschirme anzusteuern...

Nur für die Info:

Bei der Radeon 7500 sind auch 2 RAMDACS und der TV Encoder Integriert

Bei der Radeon 8500 ist nur ein RAMDAC integriert und auch kein TV Encoder (bei beiden aber ein TDMS Transmitter)

ALLERDINGS:

Für den TV Out stellt ATI einen Chip zur Verfügung!!
(RAMDACH ist ein Bauteil von Analog Devices)

Haarmann
2002-02-08, 23:49:14
#Richthofen

Mir ists ein Rätsel, wo ich geschrieben haben soll, dass ich gegen FSAA bin... Aber falls Du mir die betreffende Stelle zeigst, stehe ich auch dazu, nur bin ich mir nicht bewusst etwas gegen FSAA gesagt zu haben. Was ich von Accuview halte, isn anderes Paar Schuhe... Accuveiw ist nichtmals laut NVidia FSAA. Und NVs FSAA soll ja nur Kanten glätten, jedoch kein Texturflimmern unterdrücken -> Ich wills ned haben.
Ich spiele die Games sogar in 2xSV mit 16x Anisotropischem Filter und wage mal zu behaupten, dass ich dabei die Performance jeder GF4 halten kann - alleine deswegen, weil bei Aniso deren Leistung zur Zeit im Keller weilt.

Ich spiele tatsächlich in 1024, weil mein TFT ned höher kommt...
Immerhin ist mein Bild jedoch scharf, eine Eigenschaft wovon ihr bei 1280+ nur träumt (Siehe CT Bericht).

Für die grössere DX8(1) Marktdurchdringung, seitens ATI, hat NVidia mit ihrer PS losen MX schon gesorgt. NoName ATI 8500 werden bei 150€ rumgeistern - eben Mainstream.

Wie sage ich selber immer so schön, abwarten und Tee trinken...

Ich setze derweil mal meinen P4 fertig auf.

Xmas
2002-02-09, 00:02:53
Originally posted by Unregistered
Dann zieh dir mal die Tabelle bei XBit Labs rein!

Für dich nochmal:
http://www.xbitlabs.com/video/geforce4/

Damit auch der fanatischte NVidia Anhänger mitbekommt, daß PS1.4 besser sind als PS1.1, 1.1A und 1.1B
Ich frage mich, was du (bzw. Xbit) mit dieser Tabelle zeigen willst, außer dass PS 1.1 - 1.3 und 1.4 grundlegend anders aufgebaut sind. Das einzige, was sich einem Laien aus dieser Tabelle erschließt, ist dass PS 1.4 sechs Texturen ermöglicht, PS 1.1 - 1.3 aber nur vier.
Die wahren Vorteile von PS 1.4 lassen sich nicht einfach so in Tabellenform darstellen.

Com1
2002-02-09, 00:42:38
Originally posted by Razor
Scau doch einfach mal bei www.3dchipset.com vorbei, denn da gibt's in den News die wohl kompletteste Liste an Reviews. Und nahezu alle bestätigen eigentlich das Bild, was Arnand zeichnete.

Schon 'merkwürdig', daß Xbitlabs hier eine Ausnahme macht...
Insofern würde ich vorerst (!) dem allgemeinen Tonus Galuben schenken, als einem 'Ausreißer'...
;-)

;-)

In diesem Sinne

Razor

Welches Bild wird denn bestätigt? Unreal Pefromance Test? testet sonst noch wer damit ausser Anand? Und nirgends ist die Serious Sam Pefromance so extrem schlecht... in andren Reviews waren die Serious Sam Werte wesentlich besser.

Unregistered
2002-02-09, 01:23:21
Originally posted by Xmas

Ich frage mich, was du (bzw. Xbit) mit dieser Tabelle zeigen willst, außer dass PS 1.1 - 1.3 und 1.4 grundlegend anders aufgebaut sind. Das einzige, was sich einem Laien aus dieser Tabelle erschließt, ist dass PS 1.4 sechs Texturen ermöglicht, PS 1.1 - 1.3 aber nur vier.
Die wahren Vorteile von PS 1.4 lassen sich nicht einfach so in Tabellenform darstellen.

Ist mir auch klar, aber um einigen ignoranten klar zu machen, daß PS1.4 doch 'etwas' besser als PS1.1 und verwandten ist ist sie schonmal nicht soo schlecht...

Aber einige PENNEN wohl mit 'ner NVidia Flagge über'm Bett...

Richthofen
2002-02-09, 01:28:57
@Haarmann

Noname ATIs wird keiner haben wollen.
Meinst du Nvidia lässt den Vertex bzw Pixelshader aus der MX raus, weil ihnen das zu teuer ist?
Irgendwo schmarn, denn dann hätte man ja einfach den GF3 weiterproduzieren können und verkaufen können in dem Preissegment.
Ich glaube eher Nvidia weiss, dass ihr GF4TI alles davonpustet und die Masse die unweigerlich DAUs sind die MX kaufen werden.
Und das wiederum hat zur Folge, das die Masse in den nächsten 12 Monaten keine DX8 Basis haben wird.
Also wird in diesem Punkt auf DX9 das Ganze verlegt.
Ich glaube das machen die ganz bewusst, weil sie keine Lust haben das ATI sich auch nur mit 1 Feature durchsetzt.
Das ist Corporate Strategy. So läuft das nunmal.
Man versucht immer die eigenen Dinge loszuwerden und Konkurenten zu behindern und auszustechen wo es nur geht.
Ich bezweifle ganz stark, das heisst ich bin mir ziemlich sicher, dass mehr Leute eine GF4MX kaufen werden als eine Radeon8500.

Wir werdens ja sehen :)

Dad schöne bei Nvidia ist doch das sie völlig flexibel agieren.
Momentan hat die MX kein DX8 aber die passen sich so schnell den Marktgegebenheiten an, das die auch kurzerhand diese MX Karten wieder ersetzen wenn sie Lust dazu haben.
Hat man doch an der TI500 gesehen.
Die war doch niemals geplant. Laut Anand stand der GF4 November zur Verfügung. ATI ist ran gekommen und die haben überlegt, wie sie noch bissl Geld aus der GF3 Serie ziehen können und ATI den Launch vermasseln können.
Also eben schnell höher getaktete Version.
Dann aber rechtzeitig haben sie die Produktion von Ti500 Teilen zurückfahren lassen. Deswegen auch die Knappheit nach diesen Karten. Der Preis blieb oben und man hat den GF4 Launch nicht durch Unmengen rumiegender GF3Ti500 Modelle gefährdet.
Bei denen weiss man einfach nicht was nächste Woche ist. Die krempeln auch kurzerhand mal alles um und sagen dann die neue GF4MX ist die Ti4200 und die oberen werden wieder durch neue Ultra Versionen ersetzt.
Die Konkurenten scheinen das irgendwie nicht zu kapieren. Naja es gibt nur noch einen. Die machen das Spiel immer fleissig mit brauchen aber selber unheimlich lange bis sie ein neues Produkt bringen.
Evtl lernt ATI langsam und fängt auch an Kunden mit neuen kleinen Schritten zu melken.

Xmas
2002-02-09, 01:36:32
Originally posted by Richthofen
Ich bezweifle ganz stark, das heisst ich bin mir ziemlich sicher,
;D;D

Unregistered
2002-02-09, 01:47:29
Originally posted by Richthofen
@Haarmann

Noname ATIs wird keiner haben wollen.
Meinst du Nvidia lässt den Vertex bzw Pixelshader aus der MX raus, weil ihnen das zu teuer ist?
Irgendwo schmarn, denn dann hätte man ja einfach den GF3 weiterproduzieren können und verkaufen können in dem Preissegment.
Ich glaube eher Nvidia weiss, dass ihr GF4TI alles davonpustet und die Masse die unweigerlich DAUs sind die MX kaufen werden.
Und das wiederum hat zur Folge, das die Masse in den nächsten 12 Monaten keine DX8 Basis haben wird.
Also wird in diesem Punkt auf DX9 das Ganze verlegt.
Ich glaube das machen die ganz bewusst, weil sie keine Lust haben das ATI sich auch nur mit 1 Feature durchsetzt.
Das ist Corporate Strategy. So läuft das nunmal.
Man versucht immer die eigenen Dinge loszuwerden und Konkurenten zu behindern und auszustechen wo es nur geht.
Ich bezweifle ganz stark, das heisst ich bin mir ziemlich sicher, dass mehr Leute eine GF4MX kaufen werden als eine Radeon8500.

Wir werdens ja sehen :)

LOL, ähnlich muß ATI wohl auch mit der 3D Charger gedacht haben...

Sag mal merkst du noch was??
Oder findest du deine NVidia Aktien so geil??

Mit DIESER Strategie hat ATI mal vor JAHRZEHNTEN mal 'einige' Kunden Vergrault, den faden Beigeschmack konnten sie erst mit der Radeon langsam abstreifen!!!

Diese Situation ist SEHR ÄHNLICH!!
Ist das gleiche wie mit den ersten Rage Chips!!
Die umgelabelten Mach64 Chips...

Außerdem bremst NV die Entwicklung neuer Games momentan GEWALTIG, was ihnen sehr zum Nachteil ist.

Nur eins ist sicher: Deine NV Aktien solltest du SO SCHNELL WIE MÖGLICH VERKAUFEN!!

Denn sie werden fallen, TIEF fallen!!

Und soo toll ist die GF4 TI auch nicht, eher Roheste Gewalt, was NV eh immer praktiziert hat.

PowerVR und ATI Partizieren seit neustem 'HIRNSCHMALZ Technologie', aber das kennt NV mit ihrem beschränktem Managment nicht..

Sind wohl viele aus dem 3DFX Managmant zu NV gekommen...

Naja, mir kann's nur Recht sein, denn so sieht auch die breite Masse, daß Nvidia kagge ist.

Was ich immer gewußt hab :P

Aber nicht soo schlimm, viele hat NV schon vergrault!

Unregistered
2002-02-09, 01:52:35
Originally posted by Richthofen
Dad schöne bei Nvidia ist doch das sie völlig flexibel agieren.
Momentan hat die MX kein DX8 aber die passen sich so schnell den Marktgegebenheiten an, das die auch kurzerhand diese MX Karten wieder ersetzen wenn sie Lust dazu haben.
Hat man doch an der TI500 gesehen.
Die war doch niemals geplant. Laut Anand stand der GF4 November zur Verfügung. ATI ist ran gekommen und die haben überlegt, wie sie noch bissl Geld aus der GF3 Serie ziehen können und ATI den Launch vermasseln können.
Also eben schnell höher getaktete Version.
Dann aber rechtzeitig haben sie die Produktion von Ti500 Teilen zurückfahren lassen. Deswegen auch die Knappheit nach diesen Karten. Der Preis blieb oben und man hat den GF4 Launch nicht durch Unmengen rumiegender GF3Ti500 Modelle gefährdet.
Bei denen weiss man einfach nicht was nächste Woche ist. Die krempeln auch kurzerhand mal alles um und sagen dann die neue GF4MX ist die Ti4200 und die oberen werden wieder durch neue Ultra Versionen ersetzt.
Die Konkurenten scheinen das irgendwie nicht zu kapieren. Naja es gibt nur noch einen. Die machen das Spiel immer fleissig mit brauchen aber selber unheimlich lange bis sie ein neues Produkt bringen.
Evtl lernt ATI langsam und fängt auch an Kunden mit neuen kleinen Schritten zu melken.

LOL

geheiligt sei dein Nvidia!!
Dein Reich komme, wie in der Hölle, so auf Erden.


Siehe Voriges Posting!!

Mit ihrer Taktik verärgert NV nur die Kunden und sicher auch die Boardhersteller.

Oder glaubst du, daß die Lust haben alle 4 Wochen die Produktpalette umzustellen?!

Wer das nicht kapiert sind die dämlichen NVidia Anhänger, die nicht über'n Tellerrand hinausblicken können!

Zumindest ist ATI's Produktpalette übersichtlich und gut unterscheidbar!

Und sie Krempeln jetzt die Arme hoch und wollen wieder Marktführer sein.

Legolas
2002-02-09, 01:53:44
Ich sehe schon Richthofen hat als ehemaliger Großaktionär von Nvidia tiefere Einblicke in Nvidias Geschäftsstrategie bekommen

Ich hoffe mal für dich, daß der von Xmas zitierte Satz nicht für deinen Geisteszustand repräsentativ ist :D ?-) ;)

Pengo
2002-02-09, 01:58:40
Originally posted by Xmas

Ich frage mich wie du zu diesem Urteil kommst? Göttliche Eingebung?

Habs öfters im Beyond 3D Forum gelesen und auch nach Aussage eines SS Programmierers kann man jeden Pixel Shader Effekt mit Register Combiners hinbekommen.

Pengo
2002-02-09, 01:59:44
Originally posted by Razor
Und noch etwas an alle:

Hat hier schon irgend jemand das "Kreed Alpha-Demo" in Augenschein genommen ?
Und das ist 'nur' mit den PS1.1 realisert...
;-)

In diesem Sinne

Razor

URL?

Quasar
2002-02-09, 03:24:33
Ist schon lustig, wie sich alle wieder gegenseitig an die Kehle springen. Zwei Wochen Pause und es ist, als würd's ohne Unterbrechung weitergehen.

Die einen kreiden mangelnde Innovation an, die anderen bestreiten das gar nicht und trotzdem streitet man sich....worüber nur?

Was ich viel skandalöser finde, ist, daß aths "Chamälion" geschrieben hat, wo doch jeder weiß, daß es "Chameleon" heißt. ;)

Wo liegt das Problem mit der GeForce4?

Das FSAA ist zu schnell, deswegen kann's nicht gut sein? Oder nein, moment, da war doch noch was mit den Texturen...

Oder ist das wahrhaft verwerfliche nicht doch etwa nVidias Marketing? Diesesmal kein skandalös-rufschädigendes PDF? Schade, aber dafür kann die MX nicht das, was die Ti kann!

Leute, Leute.......wenn das so weitergeht, denkt noch jemand, wir hätten sonst kein Leben.

P.S.: Eine Url zu dieser Kreed-Demo hätte ich auch gern!

Iceman346
2002-02-09, 09:18:27
Die Kreed Demo ist exklusiv auf der PCG DVD drauf. Wenn jemand 164 MB Webspace hat könnte ich sie hochladen.

aths
2002-02-09, 10:37:07
Pengo,

du schreibst: "Habs öfters im Beyond 3D Forum gelesen und auch nach Aussage eines SS Programmierers kann man jeden Pixel Shader Effekt mit Register Combiners hinbekommen."

Das ist, natürlich, Unsinn. Er meinte, dass viele Effekte mit herkömmlichen Multitexturing erreichbar sind (aber nicht alle).

Um eben das das selbst beurteilen zu können, habe ich mir mittels DX8SDK und Reference Rasterizer die PS mal etwas unter die Lupe genommen. Und darf verkünden: Der PS ist flexibler als NSR. (Mittels NSR ist z.B. keine EMBM möglich) (Vielleicht doch so etwas ähnliches, wenn man sehr viele Passes nutzt. Dann wäre das Feature wegen der Performance aber nicht mehr nützlich)

Razor
2002-02-09, 11:15:39
@nggalai

Hi auch, nggalai !
Aber alle kommenden PS2.0 Karten werden PS1.4 problemlos laufen lassen können, werden dann überhaupt auch PS2.0-Applikationen geschrieben werden?

Siehst Du, auf was ich hinaus will?
Ich sehe schon, woaruf Du hinaus willst. Aber bist Du sicher, daß die PS1.4 'problemlos' laufen werden ? Könnte mir das eine Konstruktion vorstellen, wie diese, die ATI mit Ihrer R8500 gewählt hat, um eben die PS1.1-1.3 zu emulieren, was aber wohl zu lasten der Performance geht.

Du wirst mir doch wohl zustimmen, daß man zur Zeit noch mit den PS1.1 bastelt, was zumindest die demnächst (bis Anfang/Mitte nächsten Jahres) erscheinen werden.

Und wer erst Mitte/Ende diesen Jahres mit der Programmierung beginnt, wird wohl gleich auf die PS2.0 setzen, denn was würde die Nutzung von den PS1.4 für einen Sinn machen ? Aber selbst dann wird es immer noch einen Art Fallback geben, damit auch ältere Hardware läuft (war zumindest bisher immer so), nur reden wir hier dann von Games, die dann erst 2004 oder so erscheinen werden...

Verstehst Du, was ich damit meine ?
;-)

@Haarmann

"Wer ausser NVidia macht ne Pixelshader 1.1 Graka?"

ATI !
Und wohl alle, die noch kommen werden, unterstützen (!) wohl ebendalls die PS1.1, denn sonst würde ihnen die DX8(.1)-Compliance abhanden kommen und das werden sich wohl die wenigsten leisten...

Das mit Doom3 war wohl 'nen kleiner Ausrutscher...
;-)

Von dem AccuView der gf4-Serie halte ich auch nicht viel, denn das ist lediglich eine leicht modifizierte Variante der gf3-Implementierung, deren einziger Vorteil die Geschwindigkeit ist. Selbst dieser 4xS-Modus läuft auf einer gf3 (selbst mit den neuesten 27.30-Beta-Treibern ;-), den ich bisher immer als 4x'mix' bezeichnete und nun offiziell bestätigt wurde.

Aber da geb' ich Dir zu 100% recht, denn ich werd meine gf3 sicher nicht mit einer gf4ti tauschen, denn diese Leistung 'brauche' ich zur Zeit einfach nicht, besser: habe keine Lust dafür so viel Geld auszugeben. Da wart' ich lieber auf R300/NV30 und Co und schau mal, was die mir an tatsächlichen Nutzwert bringen...

@Richthofen

Klar, der eindeutige Vorteil der neuen gf4ti-Serie ist die hohe Geschwindigkeit. Ist ähnlich mit dem Erscheinen der gf2-Linie gleich zu setzen, die gegenüber der gfddr auch kaum merkliche Vorteile brachte, außer eben Geschwindigkeit.

Das aber die gf4ti mit zugeschaltetem 2xAA fast auf der Performance einer R8500 oder Ti500 leigt ist an sich schon ein Hammer. Aber gibt für ein einzelnes Feature dann gleich ein paar hundert Märker raus ? Wer allerdings noch keine DX8-Karte hat, sollte sich die gf4ti ernsthaft durch den Kopf gehen lassen !
;-)

@Nr. 5

"hätte sich nVidia daran gehalten, wären wir noch bei 16Bit farbtiefe... "

Versteh ich nicht, war nVidia nicht die erste Firma mit (nicht nutzbaren ;-) 32-Bit ?
???

Ansonsten wird ATI im bald erscheinenen R300 ebenfalls die polynominalen Flächen unterstützen, die bereits in die gf3 implementiert wurden. Erst dann werden sich die Entwickler 'ernsthaft' auf diese Technologie einlassen und diese wird dann nicht n-Patches (Truform) sondern RT-Patches (polyFlächen) heißen...

Zusätzliche Features machen überigens nur dann Sinn, wenn sie auch genutzt werden. So lange der einzige Vorteil bei (Hersteller-Eigenen ;-) Demo's oder halbherzigen Implementierungen hat ein Feature keinen Wert und schon gar keinen Vorteil zur Konkurrenz !

@aths

Ich empfehle Dir dringend, Dich mal weiterhin 'schlau' zu machen und Dir das neue Kreed-Demo anzuschauen (vielleicht hast Du ja jemanden, der eine gf3 sein eigen nennt ;-). Dann erzähl mir noch einmal, daß man PS1.2-1.4 wirklich 'braucht'. Klar werden diese Vorteile bringen, aber wegen mangelnder Hardware-verbreitung von den Entwicklern derzeit wohl noch nicht akzeptiert. Diese müssen sich also erst noch etablieren und dann kommt schon die nächste Generation von GraKa's mit DX9 (PS2.0) und OpenGL2.0.

Wer soll sich ernsthaft auf so etwas einlassen ?

Wenn man Glück hat, wird es vielleicht 1 oder 2 Games geben, die mal PS1.3 oder 1.4 unterstützen werden, was ich persönlich aber in Frage stellen würde, da zumindest die PS1.4 inkompatibel zu den darunter leigenden Versionen sind.

Ich persönlich kann der Verzicht auf PS1.4 sehr gut nachvollziehen und jeder der ein Wenig über unsere Marktwirtschaft bescheid weiß, kann dies ebenso...

Erzähl mir doch bitte, was für einen Vorteil es für nVidia gegeben hätte, die PS1.4 zu unterstützen, denn erst so wird ein Schuh daraus. Was sich ATI davon versprochen haben, ist schon klar, denn sie wollten sich damit von nVidia absetzen, nur leider kamen sie viel zu spät (und doch viel zu früh ;-).

Und hier wird immer von einem Jahr Entwicklungszeit gesprochen...
Der NV2A, der sich kaum von dem NV25 unterscheidet (außer das dem NV25 so einiges fehlt ;-), ist schon seit längerem verfügbar und wenn ich recht entsinne sogar schon kurz nach der gf3 verfügbar. Insofern hat der NV25 KEINE Entwicklungszeit gekostet, denn er war (wie auch der NV20) nur ein Abkömmling bereits bestehender Technologie, die lediglich ein wenig optimiert wurde. Mehr aber auch nicht...

Man bastelt nun mit Hochdruck (mit Sicherheit schon seit 2-3 Jahren !) an dem NV30, der dann - wieder mal - was wirklich neues darstellen wird (wie vorher die gfddr und die gf3).

DARAUF dürfen wir gespannt sein !

Und wer tatsächlich geglubt hat, daß mit dem NV25 was wirklich neues kommt, der hat die letzten Jahre wirklich geschlafen, denn das war schon seit der TNT so und wird sich vorerst wohl auch nicht ändern.

@Com1

"Welches Bild wird denn bestätigt?"

Das die R8500 in etwa auf dem Nivau der Ti500 liegt, teilweise sogar stark zurück fällt. Das die gf4ti ungeheuer (teilweise um 100%) an Geschwindigkeit zulegt und selbst auf Ti500-Takt eine R8500 auf deren Hoheitsgebieten schlägt (wie z.Bsp. 3dMurk2k1). Das AA nun möglich ist, ohne auf die Performance einer Ti500/R8500 zu verzichten...

Braucht's noch mehr ?
;-)

@Unreg.

Hoffentlcih wird PS1.4 besser sein, sont würde das ja überhaupt keinen Sinn machen, denn schließlich ist die R8500 ein halbes Jahr 'neuer' als eine gf3. Tritzdem unterschiedet sich die Architektur der PS1.4 sehr stark von den PS1.1-1.3 und ist somit inkompatibel.

@Richthofen

Seh ich genau so...
Was macht eine gf3-Serie noch für einen Sinn, wenn das günstigste gf4ti-Modell (4200) auf dem Preisnivau einer gf3ti200 liegt ?
Keinen !

Insofern finde ich die neue Produkt-Line durchaus nachvollziehbar.
Ti=DX8 mit neuer Bandbreiten-Technik
MX=DX7 mit neuer Bandbreiten-Technik

Was dann so zeimlich alle vorherigen Prudukte überflüssig macht...
;-)

Im übrigen ist die Ti500 so zu sehen, wie damals die gf2ultra. Sind halt recht kurzweilig, diese 'ultra'-Aufgüsse. Ähnlich wird es wohl auch der R8500XL ergehen...

@Unreg (Stefan ;-)

Richthofen hat doch schon gesagt, daß er keine nVidia-Aktien mehr hat, und nun auf Infinion und Co setzt...
;-)

Mit der gf2 hat sich nVidia auch keine Kunden 'vergrault', ganz im Gegenteil ist diese Produktlinie, owohl nur ein 'Aufguß' zum erfolgreichsten Produkt aller Zeiten avanciert und hat den Aktienwert nVidia's glatt vervierfacht (wenn man schon über Aktioen redet).

Also bitte keine Äpfel mit Birnen vergleichen, denn der '3DCharger' von ATI war ja wohl wirklich nur ein schlechter Witz, der kaum mit dem wirklich guten 'Aufguß' der gf4Ti Linie zu vergleichen ist. Auch dürften die gf4mx um einiges an Performance gegenüber der laten gf2-Linie zulegen (LMA2), insofern dies für den Kunden ebenfalls einen Gewinn darstellt.

Ich weiß echt nicht, was Du hast !

nVidia hat den ersten DX8-Chip gebracht und das lockere 6 Monate VOR der R8500 !
Wer also 'bremst' die Spiele-Entwicklung ?
???

Mit der gf4ti wird lediglich das Produkt geliefert, was auch schon vor nem 3/4 Jahr möglich gewesen wäre, aber offensichtlich hast Du keine Ahnung, wie die Wirtschaft in unserem System vorgeht. Wirtschaftlich ist es nur, jeden Zwischen-Schritt einer Technologie zu vermarkten, um somit auch die extensiven Entwicklungskosten wieder herein zu bekommen. So verhält sich nVidia, so verhalten sich auch alle anderen.

DAS ist Martwirtschaft und nicht nur das 'böse' nVidia !

Und eines muß Du mir noch erklären:

Wie ist es möglich, daß eine gf4ti auf Ti500-Takt beim VillageMark nicht nur die Ti500 übertrifft, sondern selbst die 'HIRNSCHMALZ'-Technologie von ATI weit hinter sich läßt ?

Auf diese Antwort bin ich dann mal gespannt !
;-)

@Pengo

Leider hab' ich für Kreed keine URL...
:-(

Auf deren Seite gibt's leider nur ein Video.
Hab's von der neuesten PCGames-DVD (03/2002), insofern sollte man sich dieses Heft zulegen.
(allein für dieses Demo würd ich das schon tun ;-)

Ist echt ein Hammer !
(und für gf3-Nutzer auch kein Risiko ;-)

@Quasar

"Zwei Wochen Pause und es ist, als würd's ohne Unterbrechung weitergehen."

Es macht doch soooooo viel Spaß !
;-)

Und klar, nVidia's Marketing scheint hier vielen auf zu stoßen.
Komisch nur, daß diese damit so erfolgreich sind...
Hmmm...
;-)

Aber eines hab' ich noch:
Hast Du nicht das 'skandalöse' Dokument von ATI mitbekommen ?
"Die GeForce4 ist nur eine GeForce 3,5 !"
Ein echter Verlust...
:D

In diesem Sinne

Razor

Exxtreme
2002-02-09, 11:52:58
Originally posted by Razor
@Exxtreme

Tja, Alex, sooooo weit liegen wir doch gar ncht auseinander...
;-)

Da bin ich ja beruhigt... ;)
Originally posted by Razor
IMHO etwas arg an den Haaren herbei gezogen...
Wieso denn das? Die Situation ist sehr ähnlich wie beim Voodoo3-Launch.
Originally posted by Razor

Jetzt willst Du aber sagen, daß der PS1.4 mit 32-Bit vergleichbar ist, oder ?
;-)
Nein, nur die Situation ist IMHO vergleichbar. Die TNT(2) konnte damals 32 Bit, es gab damals aber keine Spiele, bei denen man einen Unterschied sah. Die V3 konnte kein 32 Bit und ist deswegen trotzdem verschrieen worden. Und jetzt wird merkwürdigerweise andersrum für die GF4 argumentiert. Sie kann zwar keinen PS 1.4 aber es macht ja nichts, da es eh' keine Spiele gibt, die das Nutzen - also ist es egal.
Originally posted by Razor

Seh ich auch so !
Insofern weiß ich gar nicht, was Du hast.
???

Die gf4 ist eine 'verbesserte' gf3, mehr hab' ich auch nie behauptet !
Tja, genauso wie die V3 eine verbesserte Banshee war.
Originally posted by Razor

Also hab' ich Dich doch richtig verstanden...
32-Bit gibt es nun schon seit fast 3 Jahren und Du willst ernsthaft behaupten das gerade dem PS1.4 eine ähnlich lange 'Haltbarkeit' vorbestimmt ist ? DX9 und damit PS2.0 steht vor der Tür und die Radeon8500 wird dies nicht können. Insofern beträgt hier die 'Haltbarkeit' gerade mal 'nen 3/4 Jahr (wenn überhaupt) und ist absolut kein Vergleich zum 32-Bit. Schließlich gibt es noch heute V3-Besitzer (wenn auch nicht mehr sooo viele ;-), die noch immer nicht 32-Bit 'genießen' können, welches spätestens seit der gfddr (also seit ca. 2 3/4 Jahren) nutzbar wurde. Insofern ist es absolut verständlich, daß man sich über das Fehlen von 32-Bit beim V3 beschwerte, da die Entwicklung zu diesem Zeitpunkt nun wirklich abzusehen war. Aber man sollte auch bedenken, daß die V3 der erste 'geglückte' Versuch war, 3D und 2D auf einem Chip zu integrieren...

Err, AFAIK war beim Launch der V3 die TNT2 aktuell und nicht die GFDDR. Und damals war es egal, ob man in 16 Bit und 32 Bit spielte, nur der Geschwindigkeitsverlust war immens. Und hätte der PS 1.4 der GF4 geschadet? Ich glaube nicht.
Originally posted by Razor

Für satte 6, maximal 9 Monate auf den PS1.4-Zug zu springen und das, obwohl es bis dahin mit Sicherheit keine Anwendungen geben wird, die das voraus setzen, halt ich nun wirklich für absoluten Blödsinn.
Warum sollten die Entwickler auf PS 1.1 setzen, wenn der PS 2.0 vor der Tür steht?
Originally posted by Razor

Man sollte eher fragen, was ATI denn nun geritten hat, auf eine solche 'Spezial-Lösung' zu setzen...
Ist den der PS 1.1-1.3 keine "Speziallösung"? Nur nVidia setzt drauf.
Originally posted by Razor

Siehe oben...
NICHTS wird verlangsamt, oder glaubst Du ernsthaft, daß irgend ein Entwickler die bisherigen gf3-Käufer vor den Kopf schlagen wird ?
Warum nicht? Die Käufer der Voodoo Graphics sind auch vor dem Kopf gestossen worden. Die Entwicklung geht halt weiter.
Originally posted by Razor
Wie man an den diversen Artikeln gut erkennen kann, ist die gf4 mit ihrem LMAII dem 'fortschrittlichen' HyperZII von ATI weit überlegen. Schleißlich sollte man auch bedenken, daß die gf4 'lediglich' auf dem Takt der R8500 läuft und trotzdem die Nase vorn hat (selbst in vorherigen ATI-Hoheiten).
Ich denke da ist der Treiber der R8500 schuld. Die GF4 ist bei VillageMark ohne LMA2 schneller als die R8500 mit HyperZ2 - siehe hier:
http://www.xbitlabs.com/video/geforce4/villagemark.gif
Originally posted by Razor

Technologisch ist die gf4(ti) zur Zeit die Spitze, was sich wohl bis zum R300 auch nicht ändern wird und dann werden die Karten zusammen mit dem NV30 neu gemischt.
Das sehe ich nicht so. Die GF4 ist IMHO nur aufgrund der hohen Taktfrequenzen so schnell.
Originally posted by Razor

Feature-Mäßig ist die R8500 vorn, da gibt's keine Zweifel. Zweifel darf man aber bei der Sinnigkeit dieser 'Features' haben, denn es wäre ja nicht das erste mal, daß ATI Features anbietet, die keiner benutzt...
Ist bei nVidia auch nicht anders, Stichwort RT-Patches.
Originally posted by Razor

Technologisch hat ATI aber leider nicht mehr die Nase vorn...
Das sehe ich anders. Ich halte z.B. SV ggü. AccuView für überlegen. Die Gründe hatten wir schon.
Originally posted by Razor

Ich allerdings kann keinen Nachteil daran erkennen, eine Konkurrenz-Technologie nicht zu implementieren, der eine so geringe 'Haltbarkeit' zuteil werden wird.

Tja, ob der PS 1.4 lange 'haltbar' ist oder nicht wird sich noch zeigen. alles andere ist Spekulation.
Originally posted by Razor

Bis denne und nicht böse sein

Razor
;)


Gruß
Alex

Haarmann
2002-02-09, 12:32:00
@Richthofen,

Wenn die Leute wüssten, was der Unterschied ist zwischen ATI Aufkleber und ner echten ATI wohl ned ja... Aber ich sah in manchen Läden bereits ne Noname als "Rage Fury" getarnt angeboten. Kein Aas hat was gemekt, weil die Karten offensichtlich dem Preis angemessen sind (40€ Retail).
Dazu kommt, dass ich bereits die Einkaufspreise der Hercules 8500LE kenne. Und der is tiefer, als was ne GF4MX von nem Label kostet. Hercules hat seit Jahren nen guten Ruf und der (Also Hurcules') fehlt nun bei NVidia... Dazu fehlt denen in Bälde wohl noch das Label ELSA. Mit ASUS köderst Du nicht jeden Kunden. Gainward steht in CH auch für zig S3 Virge Karten mit tragischer SQ. Zu Deutsch - NVidia gehen die Marken aus. Selbst wenn Gigabyte nicht bei allen nen guten Ruf hat, so doch nen weit besseren als MSI. Das hat nix mit den Boards zu tun, sondern wer diese in der CH verkauft - PC Hai - ein Ramschhändler und Kistenschieber.
Wie gesagt, ich sage einfach mal abwarten ob NVs Strategie aufgeht - aber so wie ichs inzwischen kenne, sind die Kunde langsam entweder für oder gegen NV.

Ich glaube schon, dass es GF4 im November gab... aber ev waren das 0.13 Prototypen... Die Umstellung auf 0.15 jedenfalls frass ziemlich Zeit.

Die GF3 musste sterben, denn wenn man ne GF3 gleich taktet, bleibt von der GF4 sehr wenig übrig. Wenn mans genau nimmt sogar nix Relevantes. Ein 2er VS braucht zZ nämlich noch kein Game und das Quincunx FSAA wollen auch ned alle Leute... Die neuen "Features" der LMA2 sind auch ned gross... als ich den AutoPrecharge las, musste ich lachen, denn ich dachte nicht, dass es noch Chips gibt die das nicht drin haben...

Das Dumme für NVidia ist zZ, dass man sich wohl Toms Wohlwollen verspielt hat. Bisher waren seine Reviews sehr NV Biased (Weise Worte eines Benchers, zeig mir 2 Produkte und das gewünschte Ergebnis, ich mache die Benches).
Besonders in den USA soll dessen Meinung noch hoch im Kurs sein, während z.B. DR Tresh nur als Witzfigur gilt.

Anand wiederum ist seit seiner RAMBUS Empfehlung zu i820er Zeiten mir irgendwie suspekt - und das wurde er in den USA auch noch ned los. Oder die 2 Benches mit Serious Sam und Kyro2 die Pengo und ich gefunden haben... Die schnellere Kiste war halb so schnell - beim gleichen Game und gleichen Reviewer... wers glaubt...

Nun kommen mal erst die 128MB XT Karten von ATI, danach wohl die R300 und dann wieder die NV30er. Und mein Tip ist, dass ATI vor NV nen 256Bit Interface machen kann.

Es gibt gar keine Ti500... es gibt nur GF3 Chips.

Du vergisst bei Deinen Umkrempeleien einfach immer jemanden, den NVidia braucht... die Graka Hersteller. Wenn die kein Geld mehr machen können, sieht NVidia alt aus. ELSA ist nun futsch und deren Finanzen ruinierten sich durch die Graka Sparte, wie einst Commodore durch die PC Sparte in den Ruin gelangte. Beides Managementfehler.

ATI ist in dem Spiel im Gegenteil NVidia um Meilen voraus. Oder was isn der Unterschied, wenn ned der Takt zwischen Rage128 und Rage128pro? Dazu ne Rage128VL ähm M64. Radeon SDR, LE, DDR , Retail DDR. Du meinst ned wirklich, dass NVidia dies erfunden hat? ;D

Haarmann
2002-02-09, 13:01:55
@Razor,

Nein NVidia war nicht die erste Firma mit 32Bit... Oder soll ich Dir mal nen paar 32Bit Screens einer hochmodernen Matrox M3D schicken? ;-)

ATI macht keine PS 1.1. Grakas, die emulieren das nur mit PS 1.4 . Emulation ist nie gleich wie das Original.

Und die Vorteile von MSAA ala NV ohne Anisotropischem Filter interessieren Dich ja auch nen Dreck ;D. Erst mit Aniso Filter sieht man wieder scharfe Texturen, aber dann kannste die FPS Zahlen im Keller suchen gehen bei ner GF4. Das sieht man natürlich erst, wenn die CPU nicht limitiert ;) Daher nahm Anand auch UT... das limitiert da so schön ... Anderswo sieht der Einbruch grauenhaft aus und liegt dann nicht mehr im Bereich einer Radeon8500. NV behauptet nun, dies sei ein Bug - aber den sollens erst fixen, dann reden wir wieder drüber. Behaupten kann jeder.

Benchte man mal alle Benches mit vollem Aniso durch (was ja eh nur die Radeon8500 per Treiber kann), dann sieht NVidia mit GF3 und GF4 auch alt aus. Es tuts nur keiner, aber spielen tut jeder mit...

NV hat eben nix mehr Razor, nur deren alte ewig verfeinerte Brute Force Variante. Da is nix mehr da.

Hmm also wenn ich an die GF2 meines Kollegen an der Wand denke... mit Nagel durch den Chip? War dieses Kunstwerk wohl aus Ärger entstanden?

Die Entwickler bremsen die Entwicklung der Spiele ;D - der Grund sind die verschiedenen Features der KArten, die man kaum unter nen Hut kriegt, was letztendlich MS' Fehler is.

Villagemark...
Tja das is einfach, wenn ich ne Labor Karte antreten lasse (Ti4600), dies gar ned gibt, wird se gewinnen. Die XT Version wird Zeitgleich mit der Ti4600 am Markt eintreffen. Und dann werden beide gleichauf liegen. Es sei denn, man schaltet mal den Aniso Filter ein ;D
Auch sollte man mal Final vs Final Treiber abwarten und ev mal den Villagemark ver-Willagemarken...

Tjo Razor, also was stimmt denn nicht in ATIs Dokument? Liefer doch da mal nen Gegenbeweis... da bin ich gespannt drauf.

aths
2002-02-09, 13:08:40
Razor,

dein Tonfall mir gegenüber halte ich für... unangemessen. Falls du bestimmte Fragen sachlich stellen kannst bin ich gerne bereit, darauf einzugehen.


Exxtreme,

ich stimme dir zu, dass GF4 aktuell seine Mehrleistung vor allem durch den Takt hat. Aber ich nehme an, dass neue Treiber die Situation ein wenig ändern werden.

edit: Rechtschreibung

Quasar
2002-02-09, 14:14:01
@Razor
Basiert diese Geschichte mit Doom3 nicht auf dem Satz, auf einer ATi könne Carmack alles, wofür man auf einer GF3 3 oder 4 Passes brauchen würde, in einem einzigen Durchgang erledigen? Das ist nämlich so ziemlich das einzige Statement, daß mir in diesem Zusammenhang einfällt. Wenn dem so ist, dann spielt PS1.4 höchstens für die Leistungsfähigkeit eine Rolle, nicht aber für den Funktionsumfang in der Praxis. Das ATi sich bei der TreasureChest Demo nicht sonderlich ins Zeug legt, die PS1.4-Effekte auch mit PS1.1-3 nutzbar zu machen erwartet doch wohl niemand ernsthaft,oder?

Was die bald erscheinenden HOS-unterstützenden Karten auch von ATi angeht, so haben glaube ich viele Leute eines übersehen: In den neuen Produktbeschreibungen der GF4 wird HOS in welcher Form auch immer mit keinem Wort erwähnt. Entweder das Feature ist so unbrauchbar implementiert worden, daß es außer im nV-Effects-Browser nicht praktisch nutzbar ist, oder man will es auf der nV30 erneut als Innovation anpreisen.

Von dem skandalösen ATI-Dokument hab ich noch nichts mitbekommen...URL plz?


@Exxtreme:
Die Situation im Vergleich zum Voodoo3 Launch ist insofern anders, als das damals nicht schon 64Bit-Rendering für die nächsten Monate angekündigt war. Insofern wird Ende des Jahres der PS1.4 ziemlich genau das darstellen, was heute dem PS1.3 vorgeworfen wird: Eine minderwertige Untermenge darzustellen, mit einem Unterschied: PS1.4 wird nicht einen kleinsten gemeinsamen Nenner darstellen.
Du sagst ja selber, warum sollten Entwickler auf PS1.1 setzen,wenn PS2.0 vor der Tür steht? Gleiches gilt für PS1.4.

Inwiefern wurden Käufer Voodoo Graphics vor den Kopf gestossen? Sogar Quake3 kann man flüssig auf einer Voodoo Graphics spielen.

Wie kommst du darauf, daß der Treiber der R8500 schuld an seinem Abschneiden sein soll? Früher hieß es doch immer "das wesentlich effizientere HyperZ-II" blablabla. Solange man vorne lag, war der Treiber offenbar noch an nichts schuld, seltsam oder?

Daß die GF4 "nur" aufgrund ihrer hohen Taktfrequenzen so schnell sein soll, halt ich für nicht allzu verwerflich, schließlich hat sich früher auch kaum ein Test darauf eingelassen, die R8500 mal mit GF3 oder GF3ti500 Takten gegen diese zu vergleichen.

RT-Patches bietet nVidia nicht an, also schwarzen Peter zurück an ATi. Und fangt jetzt nicht an zu meckern, nVidia böte das ja nichtmal an. Da machen die das, was ihr immer fordertet und dann isses auch nicht recht ;) .

@Haarmann:
Wenn man ne GF4 auf GF3-Niveau taktet, bleibt immer noch einiges übrig, zumal sich wohl der Preis in sehr ähnlichen Regionen bewegen wird. Außerdem kann man statt 2xAA dann auf Quincunx gehen (wenn man es ertragen kan, gell? ;) ), ohne an Geschwindigkeit zu verlieren, man hat brauchbares DualMonitoring (was früher immer kritisiert wurde, ob man es nun brauchte, oder nicht), usw.

Wer wann ein 256Bit Interface machen kann hängt stark davon ab, wer seine Boardhersteller soweit unter Druck setzten kann, dieses deutlich kostenaufwendigere Verfahren auch einzusetzen. Kosten sind halt immer wieder der springende Punkt.

ATI macht keine PS 1.1. Grakas, die emulieren das nur mit PS 1.4 . Emulation ist nie gleich wie das Original.

Na dann wollen wir mal hoffen, daß sich das nicht auf die Grafikqualität auswirkt, was?

Was den Villagemark angeht: Du meinst, ATi hat es immer noch nicht geschafft, einen Final-Treiber rauszubringen, der auch auf den VM optimiert ist?

Der Test von AnandTech ist imho auf einer anderen Ebene interessant, als die puren Leistungsunterschiede zwischen GF4 und R8500. Daß der neuere Chip schneller ist, dürfte sowieso klar sein, also wozu die Aufregung?
Interessanter finde ich vielmehr, daß ATI aufgrund von Darstellungsproblemen beim U2PT einen neuen Treiber nachschieben musste. Leider entfielen dadurch offenbar Optimierungen (Tricksereien?) an anderer Stelle, so daß andere Spiele wiederum an Leistung verloren. Seltsamerweise sieht ATi anscheindend hauptsächlich bei Spielen/Benchmarks gut aus, die häufig benutzt werden, wohingegen weniger genutzte Games nicht immer so optimal zu laufen scheinen....REINE SPEKULATION! da ich keine Radeon8500 habe, um das zu prüfen.

nggalai
2002-02-09, 14:24:07
Hi Razor,Ich sehe schon, woaruf Du hinaus willst. Aber bist Du sicher, daß die PS1.4 'problemlos' laufen werden ? Könnte mir das eine Konstruktion vorstellen, wie diese, die ATI mit Ihrer R8500 gewählt hat, um eben die PS1.1-1.3 zu emulieren, was aber wohl zu lasten der Performance geht.Eigentlich wollte ich nicht darauf hinaus, sondern auf das, was Exxtreme so schön mit der rhetorischen Frage "und weshalb sollen Entwickler auf PS1.1 setzen, wenn PS2.0 kommt?" anspielte. Mit PS1.4 kann man einiges machen, was mit PS1.1 nicht oder nur sehr kostspielig geht . . . Zu deiner Frage, ob PS1.4 "problemlos" laufen werden kann ich nur sagen: hängt von der Implementation des IHV ab. Andererseits ist zu sagen, dass die formalen Unterschiede zwischen PS1.4 und PS2.0 bedeutend geringer als zwischen PS1.1 und PS1.4 sind.

Du wirst mir doch wohl zustimmen, daß man zur Zeit noch mit den PS1.1 bastelt, was zumindest die demnächst (bis Anfang/Mitte nächsten Jahres) erscheinen werden.Nö--ich denke, dass die grösste Zahl der Mainstream-Entwickler JETZT an DOT3/EMBM und Cube Mapping Implementationen arbeitet und einen grossen Bogen um Pixel Shader machen wird. Ich wäre sehr erstaunt, wenn wir bis Ende Jahr mehr als eine Handvoll auf exzessiven PS-Gebrauch ausgelegte Applikationen hätten. Weshalb auch? Erst ab etwa 40% Marktanteil wird ein Feature für einen Produzenten interessant genug, an grosse Unterstützung zu denken. Pixelshader lassen sich wenigstens recht einfach an- und ausschalten, und ja, Fall-backs braucht's eh immer, weil sich sonst das Spiel kaum verkaufen wird. Also werden Pixelshader im Mainstream kaum mehr Bedeutung erhalten als z.B. TRUFORM-Unterstützung--nettes Extra, aber mehr nicht.

Und wer erst Mitte/Ende diesen Jahres mit der Programmierung beginnt, wird wohl gleich auf die PS2.0 setzen, denn was würde die Nutzung von den PS1.4 für einen Sinn machen ?Sinn z.B. dass der Marktanteil von Karten, welche dann die Programme abspielen können, bis das Spiel fertig ist bedeutend grösser wäre als wenn man ausschliesslich für PS2.0 codet?Verstehst Du, was ich damit meine ?
;-) Ja. Leider. (*scnr*)

ta,
-Sascha.rb

StefanV
2002-02-09, 16:36:46
Originally posted by Quasar
Wer wann ein 256Bit Interface machen kann hängt stark davon ab, wer seine Boardhersteller soweit unter Druck setzten kann, dieses deutlich kostenaufwendigere Verfahren auch einzusetzen. Kosten sind halt immer wieder der springende Punkt.

Interessanter finde ich vielmehr, daß ATI aufgrund von Darstellungsproblemen beim U2PT einen neuen Treiber nachschieben musste. Leider entfielen dadurch offenbar Optimierungen (Tricksereien?) an anderer Stelle, so daß andere Spiele wiederum an Leistung verloren. Seltsamerweise sieht ATi anscheindend hauptsächlich bei Spielen/Benchmarks gut aus, die häufig benutzt werden, wohingegen weniger genutzte Games nicht immer so optimal zu laufen scheinen....REINE SPEKULATION! da ich keine Radeon8500 habe, um das zu prüfen. [/B]

1. ATI braucht niemanden unter Druck zu setzen!!
WARUM??
Im Gegensatz zu NVidia hat man selbst noch fertigungsanlagen, die auch noch auf hochtouren laufen.
Oder glaubst du wirklich, daß ATI nur die Chips anbietet und nicht sagt 'hier hast du eine Karte, verkauf die mal'
Da eh kaum ein 'Hersteller' noch eigene Fertigungsanlagen hat ist das ein DICKER Vorteil...
Sogesehen muß ATI niemanden zwingen ein 256bit Interface zu verbauen, man liefert halt einfach Karten mit 256bit Interface aus, dann müssen wohl alle, die außer ATI noch ATI Karten Produzieren wohl mitziehen, oder?

Sogesehen ist ATI Strategie irgendwie genial ;)
Zumindest muß sich keine Sorgen zu machen, daß ihre Fertigungsanlagen vergammeln *eg*

2. Hm, kommt mir irgendwie bekannt vor...
Wie war's damals mit der Riva128/TNT?
Ach nee, stimmt ja, die Spiele, die kaum einen interessiert haben die liefen damals erst garnicht auf NV HW...
Sogesehen kann man einige Argument gegen ATI auch auf NV Anwenden ;D

trooper
2002-02-09, 16:41:04
@Exxtreme:

wo hast du das radeon bild her?

Haarmann
2002-02-09, 17:06:44
@Quasar

Ich hab leider nie ne GF3 zum nachprüfen ;) ... Aber wenn mal Benches willst, kannste gerne nachfragen. Ich hab mir mal SerSam 2 georgt und schau mal nach wies aussieht. Ev finde ich da ja nene paar FPS rumliegen ;). Bei SerSam (Schade, dass ich das ned mit SS abkürzen kann, weil das Forum in DE is) fand ich damals bei RAM jedenfalls ne Menge FPS rumliegen auf meiner Kyro - man könnte glatt von ner Verdoppelung reden ;-). Bei gleichen SerSam Settings natürlich.

Es ist eben die Frage, ob PS1.4 viel mehr kann als PS1.1 und dann zusätzlich noch, was kann das bisher Ungenutzte (von nggalai angetönt)?

Hyper-Z II is doch effizienter denn LMA2! Effizienz is fps mit/fps ohne, je grösser je besser und nix Anderes.

Wie gesagt, Quincunx Emulator mit altem Monitor is biliger ;) und schneller sowieso.

Fast brauchbar is leider das Multimonitoring, würdest Du es nutzen, wüsstest wieso diese MPEG2 Decodereinheit so nützlich ist...

Naja Auswirkungen auf die Qualität muss bei ner Emulation nicht immer negativ sein... 300*300 dbi Emulationen auf 600*600 dpi Druckern sehen wohl besser aus, denn das Original (nur so als Idee).

Der VM zeigt eigentlich gut, wie stark die LMA resp Hyper-Z Features sich auswirken - aber wo wirkts sich LMA2 aus? Wenn man da nicht gleich von Messtoleranz reden will...

Xmas
2002-02-09, 17:07:25
Originally posted by Pengo
Habs öfters im Beyond 3D Forum gelesen und auch nach Aussage eines SS Programmierers kann man jeden Pixel Shader Effekt mit Register Combiners hinbekommen.
In gewisser Weise ist da sogar ein Funken Wahrheit dran...
Das was unter DirectX Pixel Shader heißt, hat NVidia in OpenGL auf zwei Extensions verteilt. Die eine heißt NV_texture_shader(2/3), die andere erstaunlicherweise NV_register_combiners(2)...
(Bei ATI heißt das übrigens ATI_fragment_shader.)

NV_Register_Combiners ist auch auf GF2 verfügbar, das heißt allerdings noch lange nicht, dass man damit auch dieselbe Funktionalität hat!

In DX gibt es für Nicht-PS-Karten sogenannte "Texture Operations". Sie entsprechen in vielen Fällen den PS-Instruktionen. Damit lässt sich einiges machen, was mit PS möglich ist, aber nicht alles.

Ich habe es schon mehrmals erwähnt: der Pixel Shader ist (bisher) lediglich eine sehr flexible Combiner-Pipeline. Und dank der PS-Sprache auch sehr einfach zu nutzen.

Exxtreme
2002-02-09, 18:49:47
Originally posted by Quasar
@Exxtreme:
Die Situation im Vergleich zum Voodoo3 Launch ist insofern anders, als das damals nicht schon 64Bit-Rendering für die nächsten Monate angekündigt war. Insofern wird Ende des Jahres der PS1.4 ziemlich genau das darstellen, was heute dem PS1.3 vorgeworfen wird: Eine minderwertige Untermenge darzustellen, mit einem Unterschied: PS1.4 wird nicht einen kleinsten gemeinsamen Nenner darstellen.

Wieso eine minderwertige Untermenge? AFAIK ist der Unterschied zw. PS 1.3 und 1.4 grösser als der zw. PS 1.4 und PS 2.0. Und der PS 2.0 wird anfangs auch nicht ein gemeinsamer Nenner sein. Die Frage ist auch ob er überhaupt ein gemeinsamer Nenner wird.
Originally posted by Quasar
Du sagst ja selber, warum sollten Entwickler auf PS1.1 setzen,wenn PS2.0 vor der Tür steht? Gleiches gilt für PS1.4.
Weil er anscheinend den PS 1.1 deutlich überlegen ist? Wie Xmas schon schrieb, man kann die meisten PS 1.1-Effekte auch mit sog. "Texture-Operations" erzeugen, deswegen ist der PS 1.1 IMHO ziemlich überflüssig, da er kaum Neues bietet.
Originally posted by Quasar
Inwiefern wurden Käufer Voodoo Graphics vor den Kopf gestossen? Sogar Quake3 kann man flüssig auf einer Voodoo Graphics spielen.
Err, Q3A ist über 2,5 Jahre alt. Versuch mal Max Payne oder RtcW mit der Voodoo Graphics zu spielen ;)
Originally posted by Quasar

Wie kommst du darauf, daß der Treiber der R8500 schuld an seinem Abschneiden sein soll? Früher hieß es doch immer "das wesentlich effizientere HyperZ-II" blablabla. Solange man vorne lag, war der Treiber offenbar noch an nichts schuld, seltsam oder?
Eigentlich war es eine Vermutung, daß es am Treiber liegt. Würdest du den Link, den ich gepostet habe mal anklicken, würdest du sehen, daß die R8500 sehr viel Leistung durch das deaktivierte HyperZ2 verliert.
http://www.xbitlabs.com/video/geforce4/villagemark.gif
Und wieviel verliert die GF4, wenn man LMA2 deaktiviert? Ich würde fast sagen, daß es im Bereich der Messgenauigkeit liegt.
Originally posted by Quasar
Daß die GF4 "nur" aufgrund ihrer hohen Taktfrequenzen so schnell sein soll, halt ich für nicht allzu verwerflich, schließlich hat sich früher auch kaum ein Test darauf eingelassen, die R8500 mal mit GF3 oder GF3ti500 Takten gegen diese zu vergleichen.
Ich halte es auch nicht für verwerflich, nur ging es in meinem früheren Posting um technische Überlegenheit. Razor war der Meinung, daß die GF4 technisch überlegen ist und deswegen schneller ist, ich bin der Meinung, daß es an den Taktfrequenzen liegt - was ich nicht als schlimm empfinde.
Originally posted by Quasar

RT-Patches bietet nVidia nicht an, also schwarzen Peter zurück an ATi. Und fangt jetzt nicht an zu meckern, nVidia böte das ja nichtmal an. Da machen die das, was ihr immer fordertet und dann isses auch nicht recht ;) .
Ich meckere nicht. In meinen früheren Posting ging es um ATI's ungenutzte Features. Razor hat den PS 1.4 zu Sprache gebracht, ich die RT-Patches, welche nur nVidia in der GF3/4-Serie anbietet.


Hoffe, daß es jetzt geklärt ist.

Gruß
Alex

KiBa
2002-02-09, 19:50:05
Originally posted by Xmas

Ich habe es schon mehrmals erwähnt: der Pixel Shader ist (bisher) lediglich eine sehr flexible Combiner-Pipeline. Und dank der PS-Sprache auch sehr einfach zu nutzen.
Nicht ganz, ansonsten wäre Phong-Shading mittels Pixel-Shader nicht möglich. Oder wie stellst du dir Normalen-Interpolation mittels Combiner vor?
PixelShader erleichtern die Programmierung nicht nur, sie bieten auch einige Möglichkeiten, die mit Combinern nicht zu realisieren wären.
Natürlich sind die bisherigen Shader-Versionen noch viel zu eingeschränkt, aber das werden sie in 5 Jahren imme noch sein, außer man baut nen vollwertigen Prozessor in die GPU ;) (GeForce8 mit integriertem Pentium4?)
;)

StefanV
2002-02-09, 20:54:45
Ohne Worte:
http://www.hartware.net/press.html?id=328

RAL
2002-02-09, 22:54:52
Auweia eine Pressemitteilung.

Quasar
2002-02-10, 03:02:00
Originally posted by Haarmann
Hyper-Z II is doch effizienter denn LMA2! Effizienz is fps mit/fps ohne, je grösser je besser und nix Anderes.
[snip]
Fast brauchbar is leider das Multimonitoring, würdest Du es nutzen, wüsstest wieso diese MPEG2 Decodereinheit so nützlich ist...
[snip]
Der VM zeigt eigentlich gut, wie stark die LMA resp Hyper-Z Features sich auswirken - aber wo wirkts sich LMA2 aus? Wenn man da nicht gleich von Messtoleranz reden will...

ad1&3: siehe dazu bitte den Thread von aths, GF4-Performance.

ad2:
Was Multimonitoring mit MPEG2-Decoding zu tun? Afaik läuft das auch auf einem Monitor ganz gut. Ebenso auf der Matrox G400, die ebenfalls "nur" Motion Compensation bietet.

@Exxtreme:
Villagemark, siehe Haarmann, siehe Thread von aths "GF4-Performance".

@Stefan Payne:
Schrecklich! Mein ganzes Mitgefühl in dieser schmerzvollen Stunde ist mit dir.

edit:
Da ich weiss, wie faul ihr alle seid, quote ich mich dreisterweise mal selbst:Der Eingangs vermeldete nicht vorhanden Performancegewinn bei Aktivierung der LMA2 liegt IMHO im seit dem 27.20er Detonator nicht mehr treiberseitig abschaltbaren early Z-Occlusion Culling. Belegt wird dies einerseits durch meine Beobachtung in den Optionen des Rivatuners, andererseits durch die unterschiedlichen verwendeten Treiberrevisionen bei X-Bit Labs. Der marginale Unterschied stammt vom nach wie vor switchbaren Lossless Z-Compression.

aths
2002-02-10, 05:31:20
Exxtreme,

wenn man LMA2 deaktiviert und sich keine großen Unterschiede ergeben, denke ich es liegt entweder an

a) die Deaktivierung klappt aus irgendwelchen Gründen nicht, oder

b) LMA2 ist im aktuellen Treiber gar nicht richtig aktiv.

StefanV
2002-02-10, 12:50:50
Sagt mal, was haltet ihr eigentlich von mir??

Glaubt ihr im Ernst, daß ich mir Pressemitteilungen reinziehe??

Das tu ich natürlich nicht, aber die Bilder der PR Mitteilung sind höchst interessant *eg*

Insbesondere der 'niedliche' Kühler der Leadtek GF4 TI ;D

Quasar
2002-02-10, 12:56:05
Tja, Stefan, sorry!

Gestern Abend ging dein Link net, Hartware war wohl ein wenig nicht erreichbar, und da hab ich RALs Statement mal als bare Münze genommen.

Der Kühler sieht in der Tat beeindruckend aus und ist auch durch die Redundanz zweier Propeller einigermaßen ausfallsicher, allerdings sieht er stark danach aus, als ginge ein PCI-Slot mit drauf... :)

Sorry, aber so ein Monstrum lasse ich nicht in meinen zarten kleinen pc.....dann schon lieber eine Karte nach dem Refenrenzdesign des Kühlers....der ruled irgendwie :lol:

StefanV
2002-02-10, 12:56:59
Um's euch mal vorzukaun:

Nummero 1
http://www.hartware.net/media/presse/328/a250utd_front.jpg

Nummero 2:
http://www.hartware.net/media/presse/328/a250utd_back.jpg

Nummero 3:
http://www.hartware.net/media/presse/328/a170t.jpg

DAS meinte ich, der TEXT interessiert eh niemanden, oder??

Frank
2002-02-10, 13:33:26
Also wenn ich so'n Kühler auf meine Trident pappe läuft die auch schneller
:eyes: :eyes:

Xmas
2002-02-10, 15:19:15
Originally posted by Exxtreme
Weil er anscheinend den PS 1.1 deutlich überlegen ist? Wie Xmas schon schrieb, man kann die meisten PS 1.1-Effekte auch mit sog. "Texture-Operations" erzeugen, deswegen ist der PS 1.1 IMHO ziemlich überflüssig, da er kaum Neues bietet.
So war das jetzt aber absolut nicht gemeint. Die ganz wichtige Sache ist die, PS ist eine standardisierte Funktionalität, also auch mit einer vorgegebenen Anzahl an Registern und Instruktionen. Eine Grafikkarte kann jede beliebige Kombination der Texture Ops unterstützen, aber selbst wenn sie alle unterstützt, heißt das noch nicht dass damit PS 1.1 Funktionalität erreicht wird. Man kann mit den Texture Ops oftmals das erreichen, was man mit PS erreichen kann - aber nur wenn die Karte sowieso schon (fast) PS-Funktionalität hat! Und dann ist PS die einfachere Variante.

Xmas
2002-02-10, 15:37:21
Originally posted by KiBa
Nicht ganz, ansonsten wäre Phong-Shading mittels Pixel-Shader nicht möglich. Oder wie stellst du dir Normalen-Interpolation mittels Combiner vor?
Öhm...LERP? Normal Maps? Ich weiß jetzt nicht genau ob du renormalisierte Normalen meinst, aber die Tatsache dass NVidia die PS-Funktionalität als NV_register_combiners Extension unter OpenGL zugänglich macht, spricht schon Bände.

PixelShader erleichtern die Programmierung nicht nur, sie bieten auch einige Möglichkeiten, die mit Combinern nicht zu realisieren wären.
Natürlich sind die bisherigen Shader-Versionen noch viel zu eingeschränkt, aber das werden sie in 5 Jahren imme noch sein, außer man baut nen vollwertigen Prozessor in die GPU ;) (GeForce8 mit integriertem Pentium4?)
;)
AFAIK führen die Combiner der GF3 immer dieselbe Operation durch, nämlich (a+b)*c+d. Inklusive vor/nachgeschaltetem Inverter und Barrel Shifter sowie einem Component Adder für dot3 lässt sich damit jede PS-Instruktion (außer den Texturadress-Ops, die ja die TMUs erfordern) ausführen.
OpenGL 2.0 wird vielleicht eine "echte Pixel-ALU" erfordern...

aths
2007-02-08, 08:17:36
Nicht ganz, ansonsten wäre Phong-Shading mittels Pixel-Shader nicht möglich. Oder wie stellst du dir Normalen-Interpolation mittels Combiner vor?
PixelShader erleichtern die Programmierung nicht nur, sie bieten auch einige Möglichkeiten, die mit Combinern nicht zu realisieren wären.
Natürlich sind die bisherigen Shader-Versionen noch viel zu eingeschränkt, aber das werden sie in 5 Jahren imme noch sein, außer man baut nen vollwertigen Prozessor in die GPU ;) (GeForce8 mit integriertem Pentium4?)
;)Die 5 Jahre sind rum, und die GeForce 8 ist raus – und tatsächlich ist die Shader-Flexibilität schon ungefähr im CPU-Bereich.

iDiot
2007-02-08, 08:26:24
Jo, nur der P4 ist tot ;)

Im Nachhinein stellte sich heraus das die Geforce 4 Ti4200 wohl mit das beste war, was NVidia je gemacht hat.
Gute Leistung zum guten Preis!

Gast
2007-02-08, 17:38:47
Durchaus amüsanter Thread. Ist mal ganz interessant die Hardwarediskussionen von vor fünf Jahren zu lesen. Kann ich nur weiterempfehlen. ;)

Gast
2007-02-08, 17:52:14
und die geforce 3 reicht noch immer... für office :P solange man kein vista drauf hat hihi

allein die vorstellung das man mit so einer grafikkarte nicht mal mehr alle effekte in windows nutzen kann sind schon krass

Corny
2007-02-08, 18:05:51
und die geforce 3 reicht noch immer... für office :P solange man kein vista drauf hat hihi

allein die vorstellung das man mit so einer grafikkarte nicht mal mehr alle effekte in windows nutzen kann sind schon krass

Ich denke das alle Vista Effekte auch von der Geforce 3 bzw. 4 berechnet werden könnten, sicher auch in brauchbarer Geschwindigkeit. nur wäre die Programmierung höchstwahrscheinlich komplizierter als mit DX9.

deekey777
2007-02-08, 18:18:05
Lasst die Toten ruhen.
Nach kurzem Gespräch mit aths wird der Thread wieder geöffnet. Bleibt bitte sachlich und nehmt Beispiel an der Diskussionskultur von 2001. ;)

aths
2007-02-09, 10:50:24
Ich denke das alle Vista Effekte auch von der Geforce 3 bzw. 4 berechnet werden könnten, sicher auch in brauchbarer Geschwindigkeit. nur wäre die Programmierung höchstwahrscheinlich komplizierter als mit DX9.Das denke ich nicht. Die GeForce 8 rechnet zum Beispiel mit nur 9 Bit pro Farbkanal. Das kann schon zu ungenau sein.

Die GeForce 4 war zwar eine erfolgreiche Karte, aber bot auch vieles nicht:

- Keine Verbesserung gegenüber der GeForce 256, was interne Farbgenauigkeit angeht (FX12 mit optionalem 10-10-10-2-Framebuffer wäre ein echter Fortschritt gewesen. Quake 3 hätte davon schon deutlich profitieren können.)
- Keine 2D-Features à la NV17 (zwar war Nview drin, aber keine über die GF3 hinausgehende DVD-Beschleunigung.)
- Keine vernünftige Performance bei bilinearem AF (mein Hauptkritikpunkt, dies hätte nicht sein dürfnen.)
- Kein sparse grid beim 4x-MSAA-Modus (damit wäre die Karte zum BQ-Monster geworden.)

Zwei weitere Sachen, die bei der GF4 Ti nervten:

- Weiterhin nur mäßige Qualität bei DXT1.

- Kein PS 1.4.

Doch das DXT1-Problem liegt letzlich beim Texture-Cache, es zu fixen hätte tiefergehende Änderungen nachsichgezogen. Und auf Pixelshader 1.4 hätte man die Karte auch nicht aufbohren können, dafür wären massive interne Änderungen notwendig gewesen. Allerdings wäre es überlegenwert gewesen, den Texturshader auf 8 Instruktionen zu erweitern und die ALU vielleicht auf 16 Instruktionen. Dann wiederum ist zu sehen, dass die NV30-Verzögerung ja nicht eingeplant war.


Was die weitere Entwicklung angeht, wurden wir sicher alle überrascht. Dass es schon 2007 beinahe IEEE-konforme FP-Rechnungen gibt, zum Beispiel.

Gast
2007-02-09, 11:12:43
Was hat Vista denn für tolle Effekte?
HDR Wallpapers, Steep Parallax Mapped Icons, N4S Carbon MotionBlur bei Fensterbewegung, MS Detailtexturen, Heathaze bei hoher Last ROFLOL?
Für XGL reicht jedenfalls schon ne DX7 Karte wie Geforce1

Gast
2007-02-09, 12:18:06
Lasst die Toten ruhen.
Nach kurzem Gespräch mit aths wird der Thread wieder geöffnet.

Frechheit! Meine Gf4200ti erfreut sich nach wie vor bester Gesundheit.

Mal zum Thema: Ohne jetzt mit Fachbegriffen um mich zu werfen fand ich das Balancing von Rohpower/Features sehr gelungen. Was bringen Features, wenn nicht genug Leistung in der Hinterhand vorhanden ist, diese auszunutzen (kleine GF5xxxFX) oder Rohpower, die mangels Feature nicht nutzbar ist (X800)? Daher muß man sich für die GF4ti-Modellen tief vor Nvidia verneigen. Das einzige, was der Karte mMn wirklich fehlt ist der ps 1.4.
Für mich ist und bleibt sie die beste DX8-Karte, die auch bei DX9-Spielen (mit optionelen DX8-Pfad) sehr lange eine gute Figur gemacht hat. Zwar kann man BF2, F.E.A.R oder Q4 vergessen, aber dafür werden Farcry, HL2 oder auch CoH immernoch so gut dargestellt, dass der Spielspass (zumindest bei mir) nicht auf der Strecke bleibt!

Coda
2007-02-09, 17:04:33
- Weiterhin nur mäßige Qualität bei DXT1.
Das wurde mit der GF4 gefixt.

TWIMTBP
2007-02-09, 17:21:23
Ja die fehlbenannte 5200-64bit (tatsächlich ne 5mx200 oder 5000, nicht wahr nVidia, 5 für Features und 3x0 für Leistung) war schlimmer

Corny
2007-02-11, 01:32:25
Das denke ich nicht. Die GeForce 8 rechnet zum Beispiel mit nur 9 Bit pro Farbkanal. Das kann schon zu ungenau sein.


Was zeigt Vista an was eine GF4 (oder überhaupt eine DX8 Karte) nicht auch könnte?

meiner Meinung nach setzt Vista nur aus Bequemlichkeit der Entwickler eine DX9 Karte voraus. So nach dem Motto: "Die Karten sind weiter verbreitet und mit DX9 sicher einfacher zu programmieren - warum also Rücksicht auf ältere Karten nehmen?"

Coda
2007-02-11, 02:14:55
Was zeigt Vista an was eine GF4 (oder überhaupt eine DX8 Karte) nicht auch könnte?
Die Fensterrahmen haben einen Filterkernel der bestimmt dependant Texture-Fetches braucht, zudem würde es wohl ohne FP-Shader ziemlich beschissen aussehen.

Wer noch eine DX8-Karte hat kommt sicher auch ganz gut ohne Aero, bzw. Vista an sich aus.

DaBrain
2007-02-11, 12:04:09
- Kein PS 1.4.


Die GF4 TI war (ist?) eine der langlebisten Karten überhaupt. Mit PS 1.4 hätte sich das sogar noch ein bisschen gesteigert.
Leistung genug vür viele Spiele die PS 1.4 vorraussetzen hat sie nämlich locker.

Meine 4200 8x hat sich sehr gut in Doom 3 geschlagen. ;)


Ist schon komisch, dass einige Leute die GF4 Reihe als überflüssig angesehen haben... ;D

Noch komischer ist es, dass das Hauptargument gegen die Reihe gar nicht mal schlecht war.
Warum eine DX8 Karte kaufen, wenn es bald DX9 Karten gibt?

Dimon
2007-02-11, 12:43:32
Die GF4 TI war (ist?) eine der langlebisten Karten überhaupt. Mit PS 1.4 hätte sich das sogar noch ein bisschen gesteigert.
Leistung genug vür viele Spiele die PS 1.4 vorraussetzen hat sie nämlich locker.

Meine 4200 8x hat sich sehr gut in Doom 3 geschlagen. ;)


Ist schon komisch, dass einige Leute die GF4 Reihe als überflüssig angesehen haben... ;D

Noch komischer ist es, dass das Hauptargument gegen die Reihe gar nicht mal schlecht war.
Warum eine DX8 Karte kaufen, wenn es bald DX9 Karten gibt?

Der meinung bin ich auch, ich kann z.B. COD2 in 1024x768 und vollen details locker zocken (DX 7 modus) es läuft problemlos......

Auch Farcry läuft auf der Graka in 1280x1024 mit mittleren Details mehr als genug flüssig ;)

Für mich is die GF4 kein so schlechtes Produkt, nur der Anisotrope filter könnte etwas besser sein :)


mfg

mfg

Gast
2007-02-11, 13:02:55
nur der Anisotrope filter könnte etwas besser sein :)Was gibt es denn am AF der Geforce 4 auszusetzen?

BUG
2007-02-11, 13:10:22
Was gibt es denn am AF der Geforce 4 auszusetzen?..eigentlich nix, aber es ging dabei eben gut Leistung drauf bzw. hatte die GF4 Teilweise einfach nicht genug Rohleistung um überall 4 oder 8xAF einsetzen zu können. Imho hätte der GF4TI ein ein- und aus-schaltbares Winkelabhängiges AF auch gut getan und NV hätte die BRI Filtertricks weg lassen können. Aber irgendetwas ist ja immer. ;)

cu
BUG

aths
2007-02-15, 12:37:56
Das wurde mit der GF4 gefixt.Nein, erst mit der GeForce FX. Die GeForce4 Ti bietet an, das in ein 16-Bit-Format entpackte DXT1 noch zu dithern. Das würde ich nicht „Fix“ nennen. Erst die FX entpackt es in ein 24-Bit-Farbformat.

..eigentlich nix, aber es ging dabei eben gut Leistung drauf bzw. hatte die GF4 Teilweise einfach nicht genug Rohleistung um überall 4 oder 8xAF einsetzen zu können. Imho hätte der GF4TI ein ein- und aus-schaltbares Winkelabhängiges AF auch gut getan und NV hätte die BRI Filtertricks weg lassen können. Aber irgendetwas ist ja immer. ;)Die GeForce4 Ti hatte keine „brilineare“ Filterung.

Winkelabhängiges AF liefert entweder keine Geschwindigkeitssteigerung, oder nur zum Preis des Bildqualitätsverlustes. Man braucht kein stark winkelabhängiges AF.

Endorphine
2007-02-15, 14:03:20
Man braucht kein stark winkelabhängiges AF. Man braucht überhaupt kein winkelabhängiges AF.

Mal was anderes: da ja langsam aber sicher der Trend zu Leistung im Überfluss geht: wann kommt bikubische Interpolation in Hardware? Zumindest für Vergrößerung müsste das doch imho einiges bringen. Beispielsweise Wandtexturen oder Rennspiele könnten da deutlich profitieren.

aths
2007-02-15, 14:17:01
Man braucht überhaupt kein winkelabhängiges AF.

Mal was anderes: da ja langsam aber sicher der Trend zu Leistung im Überfluss geht: wann kommt bikubische Interpolation in Hardware? Zumindest für Vergrößerung müsste das doch imho einiges bringen. Beispielsweise Wandtexturen oder Rennspiele könnten da deutlich profitieren.Vollständig winkelunabhängiges AF wird derzeit von keiner Karte geboten. Der Rechenaufwand wäre sehr hoch. Schwach winkelabhängiges AF ist wesentlich einfacher zu realisieren und bietet ein optisch fast gleichwertiges Ergebnis.

Bikubische Filterung hat so seine Probleme. Dazu zählen "Überschwinger", dazu zählt aber auch, dass sich die Flächenhelligkeit von skalierten Texturen ändern kann. Außerdem gibt es beim Textur-Repeat bzw. Textur-Spiegerlung größere Probleme, da der Filterkernel größer ist.

Gast
2007-02-15, 15:23:21
Die GF4 TI war (ist?) eine der langlebisten Karten überhaupt. Mit PS 1.4 hätte sich das sogar noch ein bisschen gesteigert.
Leistung genug vür viele Spiele die PS 1.4 vorraussetzen hat sie nämlich locker.


Aber nur weil die FX-Reihe so lahm war und damals niemand ne 9700p haben wollt.

Corny
2007-02-15, 15:51:41
Aber nur weil die FX-Reihe so lahm war und damals niemand ne 9700p haben wollt.

Die Geforce 4 kam lange vor der Radeon 9700 auf den Markt. Daher KONNTE niemand die Radeon 9700 kaufen.
Abgesehen davon wollte damals natürlich jeder eine Radeon 9700 bzw. die damals auch sehr beliebte Radeon 9500

Gast
2007-02-15, 16:22:47
Die Geforce 4 kam lange vor der Radeon 9700 auf den Markt. Daher KONNTE niemand die Radeon 9700 kaufen.
Abgesehen davon wollte damals natürlich jeder eine Radeon 9700 bzw. die damals auch sehr beliebte Radeon 9500

Lol. So verklären sich die Erinnerungen. Die Ti4200 kam im April 2002. Die 9700 pro gabs schon 3 Monate später...

Super Grobi
2007-02-15, 16:28:05
Lol. So verklären sich die Erinnerungen. Die Ti4200 kam im April 2002. Die 9700 pro gabs schon 3 Monate später...

*ggg* Und die 4400 und 4600 gabs schon länger VOR der 4200.

SG

Gast
2007-02-15, 16:31:36
*ggg* Und die 4400 und 4600 gabs schon länger VOR der 4200.

SG

Die waren aber kein Schnäppchen sondern kosteten AFAIK tw. (Ti4600) zur Einführung mehr als eine 9700 Pro ;)

der_roadrunner
2007-02-16, 09:46:21
Ich war mit meiner TI 4200 bis zum erscheinen von Oblivion sehr zufrieden. Jetzt werkelt sie in meinem Zweitrechner und langweilt sich bei Wing Commander 3 oder System Shock 2. :biggrin:

der roadrunner

Gast
2007-02-16, 15:07:15
Da langweilt sich auch ne Voodoo1

Kommandofrosch
2007-02-18, 14:08:56
Die Geforce 4 war zur Zeit des Erscheinens ein technisches Meisterwerk. Performance für einen guten Preis. Bei Direct3D und OpemGL war die Serie Stehts tonangebend. (Auf DX8.1 bezogen)
Bei mir ist es eine Geforce4 TI 4200 mit 64MB VRAM (@ 512Mhz DDR Effektivtakt, 250Mhz GPU-Takt).
AA und AF habe ich sogut wie nie genutzt. Hin und wieder mal Quincunx FSAA verwendet.
Fazit: Die GF4 Serie also NV 25 nicht der minderwertige NV17 Chipsatz waren das beste was Nvidia entwickelt hat.
Meine Geforce4 Ti 4200 lebt noch heute, nur der Original Kühler (Xelo Platine) gab den geist auf. Jetzt ist ein Kühler von Revoltec drauf.

Mr. Lolman
2007-02-18, 14:27:57
Die Geforce 4 war zur Zeit des Erscheinens ein technisches Meisterwerk. Performance für einen guten Preis. Bei Direct3D und OpemGL war die Serie Stehts tonangebend. (Auf DX8.1 bezogen)
Bei mir ist es eine Geforce4 TI 4200 mit 64MB VRAM (@ 512Mhz DDR Effektivtakt, 250Mhz GPU-Takt).
AA und AF habe ich sogut wie nie genutzt. Hin und wieder mal Quincunx FSAA verwendet.
Fazit: Die GF4 Serie also NV 25 nicht der minderwertige NV17 Chipsatz waren das beste was Nvidia entwickelt hat.
Meine Geforce4 Ti 4200 lebt noch heute, nur der Original Kühler (Xelo Platine) gab den geist auf. Jetzt ist ein Kühler von Revoltec drauf.

Ok, Ti4200 mag zwar das Beste von NV gewesen sein. Eine 9700 Pro steckt (auf den möglichen Nutzungszeitraum bezogen) trotzdem trotzdem jede GF4 locker in die Tasche.

Black-Scorpion
2007-02-18, 14:44:53
PS1.4 sind DX8.1 und da hatte die GF4 nichts.
Wie kann man also in etwas tonangebend sein was man gar nicht hat?
Außerdem wurde die GF4 selbst von einer 9500Pro zersägt, spätestens wenn AA/AF ins Spiel kam.

Heimatloser
2007-02-18, 15:17:49
Ob man sie nun mag oder nicht.

Eines muß man der GF4 lassen:

Es gab bisher kaum eine andere Grafikkarte, die mit so wenig Neuerungen so erfolgreich war.

Vielleicht ist wenig Evolution zusammen mit gutem Marketing (und einigen toll anzuschauenden Kühlkörpern) ja der richtige Schlüssel für einen Verkaufserfolg !?!

DerHeimatlose

Mr. Lolman
2007-02-18, 15:22:17
Vielleicht ist wenig Evolution zusammen mit gutem Marketing (und einigen toll anzuschauenden Kühlkörpern) ja der richtige Schlüssel für einen Verkaufserfolg !?!

DerHeimatlose

Imo ist das Marketing viel wichtiger als das Techlevel. NV ist/war zumindest bei ersterem immer ganz vorn dabei. Aber hinsichtlich BQ und Performance hatten sie immer wieder schwer zu kämpfen. Ganz besonders die GF4 mit der 9700p: http://www.anandtech.com/video/showdoc.aspx?i=1683&p=20

iDiot
2007-02-18, 15:37:14
Naja die Geforce 4 war auch nicht die selbe Generation wie die 9700Pro.
Wobei die FX karten ja auch nicht so der Renner waren ;)

Scud
2007-02-18, 16:01:37
Ich war super zufrieden mit meiner Ti4200. Die lief bis Oblivion in meinem Rechner, das waren dann schon 3 Jahre die sie da drin war.
ich denke daran lag der Schlüssel zum Erfolg.
Sie war recht günstig, ein Übertaktungswunder und hatte die Leistung die zu der Zeit gefordert wurde.

Klar ist die 9700pro besser, kam aber auch erst später raus und war teurer.

aths
2007-02-19, 12:35:50
Imo ist das Marketing viel wichtiger als das Techlevel. NV ist/war zumindest bei ersterem immer ganz vorn dabei. Aber hinsichtlich BQ und Performance hatten sie immer wieder schwer zu kämpfen. Ganz besonders die GF4 mit der 9700p: http://www.anandtech.com/video/showdoc.aspx?i=1683&p=20Zwar musste sich die GF4 der 9700 stellen, weil es zu dieser Zeit nichts anderes von Nvidia gab. Klar ist aber auch, dass die GF4 nicht der 9700-Konkurrent ist. Das war die FX. Dass die in Dingen BQ nicht besser, „dank“ Treiber-Cheats und Texturfilter-„Optimierungen“ höchstens schlechter war, stimmt zwar auch. Trotzdem sollte man imo den NV25 nicht gegen den R300 setzen. Beim G80 warten wir ja auch auf den R600 als den wahren Konkurrenten.

aths
2007-02-19, 12:36:53
Ob man sie nun mag oder nicht.

Eines muß man der GF4 lassen:

Es gab bisher kaum eine andere Grafikkarte, die mit so wenig Neuerungen so erfolgreich war.GeForce 2 brachte technisch prakisch gar keine Neuerung und war zu ihrer Zeit noch deutlich erfolgreicher. Die Neuerungen in der GF4 Ti sind für sich genommen jeweils geringfügig, aber zahlreich.

StefanV
2007-02-19, 17:16:00
Trotzdem sollte man imo den NV35 nicht gegen den R300 setzen.
Warum das denn?!
Erklär mal, warum man Refresh gegen 'Original' setzen sollte?! :|

nV30 <-> R300
nV35 <-> R350

SO ists richtig und NICHT anders!

stav0815
2007-02-19, 17:18:57
Warum das denn?!
Erklär mal, warum man Refresh gegen 'Original' setzen sollte?! :|

nV30 <-> R300
nV35 <-> R350

SO ists richtig und NICHT anders!
wahrscheinlich ein schreibfehler :) denn er meinte den NV25

Gast
2007-02-20, 10:01:40
eben sonst macht der ganze satzbau keinen sinn
aber wenn stefan mal was findet wo er jemanden diffamieren kann, schlachtet er das natürlich schön aus

aths
2007-02-20, 13:16:13
wahrscheinlich ein schreibfehler :) denn er meinte den NV25Japp, ich meinte den NV25.

Dimon
2007-02-20, 13:37:01
Zwar hatte der NV25 gegen den R300 keine chance, aber nachhinein war er doch erfolgreicher oder?
Ich finde das die Rohleistung dieser Karte mehr als ausreichend ist um verbünftig zu Spielen, zwar ohne AA+AF, aber trotzdem bei guter quali.....


Wie nennt man doch gleich die Gf4? ein refresh der Gf3? Was hat sich eig. da verändert bei dem Sprung von Gf3 auf Gf4?


mfg

Noebbie
2007-02-21, 18:46:16
Hatte mir damals direkt die Geforce 4 Ti 4600, nen Golden Sample von Gainward, zugelegt und die war ewig lang in meinem Rechner. Eine GF6600 lößte die erst ab, aber nur wegen den DX9 Features. Glaube das war die beste Grafikkarte, die ich je hatte.