PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce FX =3DFX


Unregistered
2003-01-26, 23:08:23
Ist mir grand so eingefallen als Parodie

Jetzt weis ich welche Features die GF FX übernommen hatt von 3DFX is ist die unmenschliche (untowerliche)größe der Grafikkarte die gigantische Stromverbrach und die hohe Wärmentwicklung erinnert mich irgendwie alles ein wenig an die gute alte Voodoo5500...

Danke Nvidea 3dfx lebt wieder bzw weiter...

PS: ich denk mal nicht das die grafikkarte schlechter is wie viele meinen sie hatt zwar nicht den erhoften großen vorsprung aber geht dafür auch eine etwas anderen weg als ati 256 zu 128 bandbreite zB.
Und dann muss sich halt Nvidia mit den Preisen etwas anpassen und schon geht die Fx wieder weg wie warme semmeln (erst recht wegen den guten treibern; ati lässt grüßen)aber das einzige warum die leute die grafikkarte so doll abwerten (wie ich finde unbegründet= sonst war halt immer ati der nachzügler siehe radeon 8500) ist doch eigentlich nur der zu hohe Preis...

Kai
2003-01-26, 23:20:03
Originally posted by Unregistered

Danke Nvidea ...


nVidia ;)

Labberlippe
2003-01-26, 23:22:16
Originally posted by Kai


nVidia ;)

ich glaube bei einigen heist das Motto jetzt. nivida.

Gruss Labberlippe

betasilie
2003-01-26, 23:25:27
Originally posted by Labberlippe


ich glaube bei einigen heist das Motto jetzt. nivida.

Gruss Labberlippe
:lol: :embara: :lol:

Kai
2003-01-26, 23:28:57
Originally posted by Labberlippe


ich glaube bei einigen heist das Motto jetzt. nivida.

Gruss Labberlippe

Tja, so wird's wohl ausgehen wenn die nicht wenigstens fett mit'm Preis runterfahrn. Hab eben meinen Geldbeutel angesehen, den Bildschirm mit den Benches zu ihm rübergedreht - und da hat er mir nen Vogel gezeigt.

Labberlippe
2003-01-26, 23:32:53
Originally posted by Kai


Tja, so wird's wohl ausgehen wenn die nicht wenigstens fett mit'm Preis runterfahrn. Hab eben meinen Geldbeutel angesehen, den Bildschirm mit den Benches zu ihm rübergedreht - und da hat er mir nen Vogel gezeigt.

:lol:

Du hättest Deinen Börserl erklären müssen, das eine Turbine inkludiert ist.

Gruss Labberlippe

La Junta
2003-01-26, 23:43:39
Originally posted by Kai


Hab eben meinen Geldbeutel angesehen, den Bildschirm mit den Benches zu ihm rübergedreht - und da hat er mir nen Vogel gezeigt.
;D :D :rofl:
Ich find den Spruch echt Geil Kai , störts dich wenn ich es in meiner Sig aufnehme ?

ernesto.che
2003-01-27, 14:23:35
Originally posted by Kai


Tja, so wird's wohl ausgehen wenn die nicht wenigstens fett mit'm Preis runterfahrn. Hab eben meinen Geldbeutel angesehen, den Bildschirm mit den Benches zu ihm rübergedreht - und da hat er mir nen Vogel gezeigt.

Sollte dies die Konsequenz sein?

http://www.voodooalert.de/wbb2/images/avatars/avatar-61.gif

seahawk
2003-01-27, 14:29:47
Zumindest für diese Runde werde ich diesem Rat folgen.

In 2 Wochen wird ne Radeon 9700 pro bestellt.

Mad-Marty
2003-01-28, 22:47:27
Originally posted by Unregistered
Ist mir grand so eingefallen als Parodie

Jetzt weis ich welche Features die GF FX übernommen hatt von 3DFX is ist die unmenschliche (untowerliche)größe der Grafikkarte die gigantische Stromverbrach und die hohe Wärmentwicklung erinnert mich irgendwie alles ein wenig an die gute alte Voodoo5500...

Danke Nvidea 3dfx lebt wieder bzw weiter...

PS: ich denk mal nicht das die grafikkarte schlechter is wie viele meinen sie hatt zwar nicht den erhoften großen vorsprung aber geht dafür auch eine etwas anderen weg als ati 256 zu 128 bandbreite zB.
Und dann muss sich halt Nvidia mit den Preisen etwas anpassen und schon geht die Fx wieder weg wie warme semmeln (erst recht wegen den guten treibern; ati lässt grüßen)aber das einzige warum die leute die grafikkarte so doll abwerten (wie ich finde unbegründet= sonst war halt immer ati der nachzügler siehe radeon 8500) ist doch eigentlich nur der zu hohe Preis...


Flamer ?
nV bezahlt ?

Ich selbst würde mir die Karte für nen Fairen preis holen, mit der Leistung, schon weil mich Dawn irgendwie beeindruckt.

ABER: bei 50-60 dbA kann ich leider weder zocken noch Arbeiten.

somit - pech gehabt.

und die "kleine" lohnt ne, die 9700PRO putzt die weg auf standard takt ... @ 400 OCed ist dann wirklich Game Over für die fx

Unregistered
2003-01-29, 18:53:11
ihr redet immer so leicht von Preisen anpassen, ... das dauert seine Zeit. nVidia muss für die Karten ja auch saftig hinlegen, und die Verspätung durch Probleme an der 0,13 mü technologie kosten auch weit mehr als gedacht....

Die RADEON 9700 Pro von Hercules war 2 Wochen nach der Einführung bei www.funcomputer.de für 419,99 € erhältlich,.. wegen der starken Nachfrage und der geringen Anzahl die die Hersteller liefern konnten ist der preis gestiegen und nicht gefallen!!

Schade eigentlich!

3Dfx wäre mir jetzt am liebsten *gg*


Aber das Lüftergeräusch von der FX is ja eine Zumutung,... will mal wissen wie die das drosseln wollen...

[eTP]AiRwAvE
www.etrance.de

Aragorn2k3
2003-01-29, 23:07:50
Originally posted by Unregistered
ihr redet immer so leicht von Preisen anpassen, ...


Hehe - bevor hier von "Preisen anpassen" gesprochen wird sollte man bedenken, dass es die FX noch nicht mal zu kaufen gibt !!!
Ich hatte ja eigentlich vor, mir als nächste Graka eine von nVidia zu holen, weil ich mit deren Treibern wesentlich bessere Erfahrungen hab als mit denen von ATI.
Aber mal ganz vom Preis abgesehen ist natürlich das FX-Flow DER Grund, doch bei ATI zu bleiben (was diese Graka-Generation) betrifft. Immerhin gehts bei den ATI-Treibern zusehends Berg auf. Gibt kaum noch ein Spiel, wo meine Radeon8500 zickt. Wenn eine Radeon 9700Pro noch schlappe 150 Eier kostet, werd ich wohl zuschlagen... Bis dahin wird's meine 8500 auch so tun ;)

HiddenGhost
2003-01-29, 23:10:52
NV ist nicht 3dfx... 3dfx war innovativ!!! FSAA, Motionblur waren Schritte, die viel früher in Richtung DX9like gingen als das,was wir heute mit sturen Schriten über DX7 TnL zu VS2.0 erreicht haben...

3dfx war innovativ... all das würde ich nicht mehr von NV behaupten, IMO !

Außerdem hat das 3dfxFSAA gefunzt ;), viel shcöner sogar und ohne postfilternachbearbeitung (AFAIK) !

Radeonator
2003-01-30, 11:53:20
Wenn man im grafik bereich arbeitet, dann ist die GF FX aufgrund ihres Lärmpegels wohl eher die letzte Wahl...

Das Teil ist nur wegen dem Preis sh1c3 ??? Also dann haben ein paar Leute hier die letzten Tage wohl durchgehend geschlafen...


Das Preis/Leistungs Verhältnis ist ein Witz, der Lärmpegel ist ein witz, der Stromverbrauch ist ein Witz und die Abmessungen sind ein Witz...aber es gibt ja immer Trotzkäufer, NV wirds freuen ;)

ow
2003-01-30, 17:37:24
Originally posted by HiddenGhost
NV ist nicht 3dfx... 3dfx war innovativ!!! FSAA, Motionblur waren Schritte, die viel früher in Richtung DX9like gingen als das,was wir heute mit sturen Schriten über DX7 TnL zu VS2.0 erreicht haben...

3dfx war innovativ... all das würde ich nicht mehr von NV behaupten, IMO !

Außerdem hat das 3dfxFSAA gefunzt ;), viel shcöner sogar und ohne postfilternachbearbeitung (AFAIK) !

An 3dfx war rein garnichts innovativ. Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like? :lol:

Ein grosser Teil der Innovationen ging hingegen von NV aus. Auch derzeit sind sie mit dem GFFX technologisch allen anderen einen Schritt voraus (das soll nicht heissen, dass er GFFX keine Mängel hat!).

mapel110
2003-01-30, 17:41:23
Originally posted by ow


An 3dfx war rein garnichts innovativ. Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like? :lol:

Ein grosser Teil der Innovationen ging hingegen von NV aus. Auch derzeit sind sie mit dem GFFX technologisch allen anderen einen Schritt voraus (das soll nicht heissen, dass er GFFX keine Mängel hat!).

ja, hat was vorraus, aber auch nur für 6 wochen :D

Pirx
2003-01-30, 17:44:37
Originally posted by ow
An 3dfx war rein garnichts innovativ. Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like? :lol:


Sie hatte auch nicht mehr die Chance, Ihre innovativen Chips auf den Markt zu bringen. (Wurde eigentlich DX7 HW-T&L jemals benötigt?)

ernesto.che
2003-01-30, 18:05:49
Originally posted by Pirx


Sie hatte auch nicht mehr die Chance, Ihre innovativen Chips auf den Markt zu bringen. (Wurde eigentlich DX7 HW-T&L jemals benötigt?)

Nie in den Endkundenmarkt - DX7 HW-T&L ist aber auch schwachsinnig.
3dfx war nicht weniger oder mehr innovativ als nVidia oder ATi.

ow
2003-01-30, 18:22:29
Originally posted by Pirx


Sie hatte auch nicht mehr die Chance, Ihre innovativen Chips auf den Markt zu bringen. (Wurde eigentlich DX7 HW-T&L jemals benötigt?)


ALLE DX7 Games und ALLE OpenGL Titel nutzen HWT&L bzw. zumindest HWT (ohne L;)).

Kannst ja mal HWTL unter UT2003 abschalten (.ini) und dann benchen.

BlackBirdSR
2003-01-30, 18:24:27
Originally posted by ernesto.che


Nie in den Endkundenmarkt - DX7 HW-T&L ist aber auch schwachsinnig.
3dfx war nicht weniger oder mehr innovativ als nVidia oder ATi.

Die zeiten ändern sich..
pünkltich zum übernächsten DX (DX9) Generation hat sich DX7 einen festen Platz erarbeitet.

ow
2003-01-30, 18:25:04
Originally posted by ernesto.che


Nie in den Endkundenmarkt - DX7 HW-T&L ist aber auch schwachsinnig.
3dfx war nicht weniger oder mehr innovativ als nVidia oder ATi.


DX7HWTL ist die Vorstufe zu den VS aus DX8/9.
Also was ist daran schwachsinnig, zig tausend Polygone flüssig transformieren und beleuchten zu können?

von 3dfx kam keinerlei innovation. deren Stand der Technik war bis zuletzt auf dem Voodoo1 graphics core (+evolution)stehen geblieben.

Pirx
2003-01-30, 18:25:51
Originally posted by ow
ALLE DX7 Games und ALLE OpenGL Titel nutzen HWT&L bzw. zumindest HWT (ohne L;)).

Kannst ja mal HWTL unter UT2003 abschalten (.ini) und dann benchen.

Ich hatte vor der Radeon ne Kyro2, es geht auch ohne;)

ow
2003-01-30, 18:27:11
Originally posted by mapel110


ja, hat was vorraus, aber auch nur für 6 wochen :D

Ich rede hier nicht von fps, sondern Chiparchitektur.
Demirugs Ausführungen in verschiedenen Threads dazu kennst du ja.

NVs Technologie-Vorsprung wird imo länger als 6 Monate anhalten.

Ikon
2003-01-30, 18:28:22
Mal abseits vom Geflame: Was bitte soll daran toll sein, wenn NV die schlechten Eigenschaften (Monster-PCBs, extremer Stromverbrauch) von 3Dfx übernimmt ???

ow
2003-01-30, 18:29:17
Originally posted by Pirx


Ich hatte vor der Radeon ne Kyro2, es geht auch ohne;)

Ich hab hier auch ne Kyro(1). Und deine Kyro2 kommt knapp auf das Niveau meiner Gf2MX.
Nicht seht überzeugend dafür, was die Kyro sonst zu leisten imstande ist.

In anderen Apps. macht´s aber weniger aus, ob SW- oder HW-TL genutzt wird.

Exxtreme
2003-01-30, 18:39:11
Originally posted by ow
von 3dfx kam keinerlei innovation. deren Stand der Technik war bis zuletzt auf dem Voodoo1 graphics core (+evolution)stehen geblieben.
Naja, AFAIK hatte 3dfx als allererste Firma das Triangle-Setup in den Chips. Auch das erste gut 3D-API kam von denen. Vom MS-Buffer in den Consumer-karten ganz zu schweigen.

Unregistered
2003-01-30, 18:42:15
Originally posted by ow


An 3dfx war rein garnichts innovativ. Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like? :lol:

Ein grosser Teil der Innovationen ging hingegen von NV aus. Auch derzeit sind sie mit dem GFFX technologisch allen anderen einen Schritt voraus (das soll nicht heissen, dass er GFFX keine Mängel hat!).
Du liebst es zu provozieren. Ich persönlich erinnere mich an 3Dfx als eine Firma, die erstmals beschleunigte Grafik auf (m)einen PC brachte, die diesen Namen auch verdiente. Erinnerst Du dich noch an GL Quake? Ich konnet es nicht glauben, als ich das des erste mal sah!
Solche smoothen Texturen kannte ich von meiner Mystic nicht.
In 3DFx bester Zeit sahen die Spiele nicht nur am besten auf ihren Karten aus, sie waren auch noch mit Abstand am schnellsten damit.
Ich glaube, 3Dfx ging an der 16 Bit Farbtiefe zugrunde. nVidia bot es irgendwann in spielbarer Leistung, und man sah immer öfter auch Shots davon in Spielezeitschriften. Dann wollten es bald auch jeder, doch 3dfx konnete es nicht liefern. Sie waren mit ihren Stärken, wie zB. AA zu früh auf dem Markt. Damals wußte ich garnicht was das ist, und es hätte mich sicher auch nicht interessiert. Oder zB. Unreal, lief eine zeitlang nur auf 3dfx Karten beschleunigt, 3dfx war der Standard, damals hatte das normale direct3d noch kaum Bedeutung. Hatte man eine 3dfx Karte, war klar, jedes vernünftige Spiel lief auf dem Rechner, selbst mit nVidia nicht zu vergleichen. Das war die Zeit, wo ich noch wirklich über Grafik staunen konnte.

ow
2003-01-30, 18:57:56
Originally posted by Exxtreme

Naja, AFAIK hatte 3dfx als allererste Firma das Triangle-Setup in den Chips. Auch das erste gut 3D-API kam von denen. Vom MS-Buffer in den Consumer-karten ganz zu schweigen.


Die Leistungen zu Beginn des HW-3D-Zeitalters wollen wir mal aussen wor lassen, da hat 3dfx wirklich was geleistet. Sie waren nämlich die ersten, die brauchbare Chips und das API gleich mit dazu auf die Beine gestelt haben.
Aber danach kam praktisch nix mehr.

ow
2003-01-30, 18:59:35
Originally posted by Unregistered

Du liebst es zu provozieren. Ich persönlich erinnere mich an 3Dfx als eine Firma, die erstmals beschleunigte Grafik auf (m)einen PC brachte, die diesen Namen auch verdiente. Erinnerst Du dich noch an GL Quake? Ich konnet es nicht glauben, als ich das des erste mal sah!
Solche smoothen Texturen kannte ich von meiner Mystic nicht.
In 3DFx bester Zeit sahen die Spiele nicht nur am besten auf ihren Karten aus, sie waren auch noch mit Abstand am schnellsten damit.
Ich glaube, 3Dfx ging an der 16 Bit Farbtiefe zugrunde. nVidia bot es irgendwann in spielbarer Leistung, und man sah immer öfter auch Shots davon in Spielezeitschriften. Dann wollten es bald auch jeder, doch 3dfx konnete es nicht liefern. Sie waren mit ihren Stärken, wie zB. AA zu früh auf dem Markt. Damals wußte ich garnicht was das ist, und es hätte mich sicher auch nicht interessiert. Oder zB. Unreal, lief eine zeitlang nur auf 3dfx Karten beschleunigt, 3dfx war der Standard, damals hatte das normale direct3d noch kaum Bedeutung. Hatte man eine 3dfx Karte, war klar, jedes vernünftige Spiel lief auf dem Rechner, selbst mit nVidia nicht zu vergleichen. Das war die Zeit, wo ich noch wirklich über Grafik staunen konnte.

S.o. Posting.

Und nein, ich provoziere nicht.
Ich sage nur, wie ich denke, dass die Dinge zu sehen sind.

StefanV
2003-01-30, 19:00:34
Originally posted by ow


An 3dfx war rein garnichts innovativ. Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like?

Ja, ow, NV ist die innovativste Firma des Martkes...
Deshalb hinken sie im FSAA und bei der DVD Wiedergabe ATI hinterher...
Auch die PS bei der Radeon 8500 waren besser...

btw:

War es nicht 3DFX, die als erste FSAA angekündigt haben, womit NV hastig FSAA in den Treibern für die Geforce implementiert hat ??
Was allerdings völlig unbrauchbar war, im Gegensatz zum 3DFX FSAA...

StefanV
2003-01-30, 19:02:58
Originally posted by ow
Die Leistungen zu Beginn des HW-3D-Zeitalters wollen wir mal aussen wor lassen, da hat 3dfx wirklich was geleistet. Sie waren nämlich die ersten, die brauchbare Chips und das API gleich mit dazu auf die Beine gestelt haben.
Aber danach kam praktisch nix mehr.

Öhm, war es nicht 3DFX, die gesagt haben, daß DX7 TnL für Spiele nicht wirklich sinnig ist ??

Wollten sie nicht gleich Vertex Shader ??

Pirx
2003-01-30, 19:03:56
Originally posted by ow
Ich hab hier auch ne Kyro(1). Und deine Kyro2 kommt knapp auf das Niveau meiner Gf2MX.
Nicht seht überzeugend dafür, was die Kyro sonst zu leisten imstande ist.

In anderen Apps. macht´s aber weniger aus, ob SW- oder HW-TL genutzt wird.
Ich sehe das DX7 HwT&L auch eher als notwendigen ersten Schritt in Richtung der komplexeren T&L Einheiten. Zur Zeit der V4-5 war es auf jeden Fall noch nicht notwendig und heute sind diese DX7-Karten schon fast wieder zu langsam zum gamen. Es war schon innovativ von nV, aber auch die V5 hatte einige Neuerungen.

Die Techniker von 3dfx waren wohl schon innovativ, das Management eher weniger (oder zu viel:))
Aber ist dieser ganze alte Quark nicht OT?

ow
2003-01-30, 19:17:11
Originally posted by Stefan Payne


Öhm, war es nicht 3DFX, die gesagt haben, daß DX7 TnL für Spiele nicht wirklich sinnig ist ??

Wollten sie nicht gleich Vertex Shader ??


Wo sind denn die VS-fähigen Chips von 3dfx?
Das mit VS HWTL möglich ist, ist dir aber bekannt?

ow
2003-01-30, 19:18:37
Originally posted by Pirx

Ich sehe das DX7 HwT&L auch eher als notwendigen ersten Schritt in Richtung der komplexeren T&L Einheiten. Zur Zeit der V4-5 war es auf jeden Fall noch nicht notwendig und heute sind diese DX7-Karten schon fast wieder zu langsam zum gamen. Es war schon innovativ von nV, aber auch die V5 hatte einige Neuerungen.

Die Techniker von 3dfx waren wohl schon innovativ, das Management eher weniger (oder zu viel:))
Aber ist dieser ganze alte Quark nicht OT?


Die VSA100 könnewn kein trilineares Filtern bei Multitexturing, kein AF, kein EMBM, kein DOT3.....ich sehe da nicht viel an Innovation.

ice cool69
2003-01-30, 19:18:46
am innovativsten ist zur zeit ati. ich sag nur fsaa, truform, 256bitspeicher, dx9.
dx9 funzt ja anscheinend nichtmal auf der gffx bis jetzt. abgesehn mal davon ist das vs/ps+ sowas fürn hugo.

nivida wäre besser dran gewesen die entwicklung in normales dx9 zu stecken +256bit speicherbus und dafür leistungsmäßig ati deutlicher zu überholen.

wie es aussieht wird ati schon in kürzester zeit die performancekrone an sich reißen können (r350) und das ist alles was zählt. bis wir auch nur irgendein spiel sehen welches von dem + der gffx sinnvollen gebrauch macht (wenn wir überhaupt jemals eins sehen), bis dahin haben sich die r300-käufer mit dem gesparten geld schon die r400 mit dx10 etc. gekauft :D

ich hoffe allerdings dass nivida irgendwann mal wieder nachziehen kann, ATI wäre kein besserer marktführer...

StefanV
2003-01-30, 19:28:02
Originally posted by ow
Die VSA100 könnewn kein trilineares Filtern bei Multitexturing, kein AF, kein EMBM, kein DOT3.....ich sehe da nicht viel an Innovation.

Stimmt, damals war Matrox am innovativsten.

Nur 'dank' den Technologiebremsern von NV hat sich EMBM nicht durchgesetzt, für 2 Display Controller haben sie 4 Generationen gebraucht und es dennoch nicht wirklich gut hinbekommen...

ATI hat nur 2 Generationen gebraucht.

PS: 'Value' Chips (NV11, RV100) mal außen vor gelassen...

ernesto.che
2003-01-30, 19:33:42
Originally posted by ow



Die VSA100 könnewn kein trilineares Filtern bei Multitexturing, kein AF, kein EMBM, kein DOT3.....ich sehe da nicht viel an Innovation.

AF kann der VSA-100 dank T-Buffer.
Ja ich weiß (bla bla bla), es war nie in einem extrem offiziellen Treiber integriert. Machbar ist, das ist unbestritten.
DOT3 wird meines wissens nicht mal von Unreal 2 genutzt - warum hätte es 3dfx schon vor über 2 Jahren bringen sollen?

ow
2003-01-30, 19:39:13
Originally posted by ernesto.che


DOT3 wird meines wissens nicht mal von Unreal 2 genutzt - warum hätte es 3dfx schon vor über 2 Jahren bringen sollen?


Damit es genutzt wird;)

Praktisch alle anderen Chips zu VSA100 Zeiten konnten das (Radeon, 3dlabs Permedia3, GF, Kyro). Ausnahmen sind nur der Savage2000 & Matrox.

btw. AFAIk nutzen Giants und Evolva DOT3 BM.

Pirx
2003-01-30, 19:43:56
Originally posted by ow
Die VSA100 könnewn kein trilineares Filtern bei Multitexturing, kein AF, kein EMBM, kein DOT3.....ich sehe da nicht viel an Innovation.

Aber immerhin das erste nutzbare und bis heute qualitativ überzeugende FSAA, das reicht doch schon aus um zu widerlegen, daß von 3dfx "keinerlei Innovation" kam oder?.
(Außerdem hatte die V5 als erste die zusätzliche Stromversorgung direkt übers Netzteil, die heutzutage ein solch überwältigendes Revival feiert, sollte das der Anteil an 3dfx-Technologie in der FX sein:lol: )

ow
2003-01-30, 19:44:19
Originally posted by ice cool69
am innovativsten ist zur zeit ati. ich sag nur fsaa, truform, 256bitspeicher, dx9.
dx9 funzt ja anscheinend nichtmal auf der gffx bis jetzt. abgesehn mal davon ist das vs/ps+ sowas fürn hugo.

nivida wäre besser dran gewesen die entwicklung in normales dx9 zu stecken +256bit speicherbus und dafür leistungsmäßig ati deutlicher zu überholen.

wie es aussieht wird ati schon in kürzester zeit die performancekrone an sich reißen können (r350) und das ist alles was zählt. bis wir auch nur irgendein spiel sehen welches von dem + der gffx sinnvollen gebrauch macht (wenn wir überhaupt jemals eins sehen), bis dahin haben sich die r300-käufer mit dem gesparten geld schon die r400 mit dx10 etc. gekauft :D

ich hoffe allerdings dass nivida irgendwann mal wieder nachziehen kann, ATI wäre kein besserer marktführer...


jaja, fps sind alles was zählt:bonk:

wurde nicht von vielen früher NV vorgeworfen, sie hätten ausser Leistung nix zu bieten?

Jetzt versuchen sie´s mal mit Innovation und nicht reiner fps-Protzerei, aber das scheint einigen ja auch nicht recht zu sein. Ich frage mich, was denn da von Nv erwartet wird?

Der GFFX hat sicher einige Mängel, die NV hoffentlich in den nächsten Chip-Derivaten dieser Architektur ausmerzen wird.

mapel110
2003-01-30, 19:47:53
Originally posted by ow


Ich rede hier nicht von fps, sondern Chiparchitektur.
Demirugs Ausführungen in verschiedenen Threads dazu kennst du ja.

NVs Technologie-Vorsprung wird imo länger als 6 Monate anhalten.

nichts anderes hab ich gemeint.imo wird der r350 mindestens aufschliessen mit dem nv30 :)

ow
2003-01-30, 19:49:30
Originally posted by Pirx


Aber immerhin das erste nutzbare und bis heute qualitativ überzeugende FSAA, das reicht doch schon aus um zu widerlegen, daß von 3dfx "keinerlei Innovation" kam oder?.


ok, das lass ich gelten;)
Aber das AA wurde auch mit zusätzlichem HW-Aufwand erkauft und ist auch nicht so sehr schnell (da SSAA).
Mit besseren Texturfilter-Fähigkeiten und evtl. als Bonus noch EMBM und/oder DOT3 wäre der VSA100 seiner Zeit angepasster gewesen.


(Außerdem hatte die V5 als erste die zusätzliche Stromversorgung direkt übers Netzteil, die heutzutage ein solch überwältigendes Revival feiert, sollte das der Anteil an 3dfx-Technologie in der FX sein:lol: )

:D
Aber 3dfx hat dafür noch 2 Chips gebraucht um soviel Leistung zu verbraten, ATi&NV schaffen das mit einem;);)

ernesto.che
2003-01-30, 19:52:48
Originally posted by ow



Damit es genutzt wird;)

Praktisch alle anderen Chips zu VSA100 Zeiten konnten das (Radeon, 3dlabs Permedia3, GF, Kyro). Ausnahmen sind nur der Savage2000 & Matrox.

btw. AFAIk nutzen Giants und Evolva DOT3 BM.

Sagenhaft - 2 Spiele! Ist zwar vielleicht ganz schick, ich denke aber, es wird das durchgedrückt, was den Spieleprogrammieren am geeignetesten erscheint. Jeder Chiphersteller dürfte Kontakte zu wichtigen Programmieren haben, da wird es dann Absprachen geben.

Im übrigens steht es 4 zu 3 bei den Herstellern, man kann also nicht von einem Vorteil oder Nachteil reden.

ernesto.che
2003-01-30, 19:54:08
Originally posted by ow


ok, das lass ich gelten;)
Aber das AA wurde auch mit zusätzlichem HW-Aufwand erkauft und ist auch nicht so sehr schnell (da SSAA).
Mit besseren Texturfilter-Fähigkeiten und evtl. als Bonus noch EMBM und/oder DOT3 wäre der VSA100 seiner Zeit angepasster gewesen.




Wofür? Damit es ungenutzt rumgammelt?

ow
2003-01-30, 19:54:38
Originally posted by mapel110


nichts anderes hab ich gemeint.imo wird der r350 mindestens aufschliessen mit dem nv30 :)

Ich glaube nicht, dass die Architektur zum R350 gross verändert wurde. Das Rennen NV40 gegen R400 wird erst wieder richtig spannend denke ich.

mapel110
2003-01-30, 19:56:02
Originally posted by ow


Ich hab hier auch ne Kyro(1). Und deine Kyro2 kommt knapp auf das Niveau meiner Gf2MX.
Nicht seht überzeugend dafür, was die Kyro sonst zu leisten imstande ist.

In anderen Apps. macht´s aber weniger aus, ob SW- oder HW-TL genutzt wird.

nur weil es jetzt endlich einige games gibt, die von T&L profitieren, solltest du die kyro2 hier nicht auf das niveau einer g2mx runterziehen.

beide karten waren zu einer zeit aktuell (hab kyro2 im mai 2001 gekauft), als es keine spiel gab, die nicht auch problemlos ohne hardware T&L (sehr gut) spielbar waren.

das mittlerweile die kyro2 nicht mehr viel zum gamen taugt, sollte man wissen. allerdings versägt sie bei ut2003 immernoch jede geforce2 mx. auch deine. ;)

/edit eventuell hab ich dich falsch interpretiert, sorry :sulkoff: man sollte halt voher den ganzen thread lesen :(

ow
2003-01-30, 19:56:55
Originally posted by ernesto.che



Wofür? Damit es ungenutzt rumgammelt?

Damit es Unterstützung in Spielen findet!

Zuerst muss die HW da sein, damit man auf ihr überhaupt solche Sachen programmieren kann.
Oder denkst du, die Entwickler würden alle auf dem SW-Referenz-Rasterzer von M$ proggen, um neue Effekte zu nutzen.;)

ernesto.che
2003-01-30, 19:57:59
Originally posted by ow


Ich glaube nicht, dass die Architektur zum R350 gross verändert wurde. Das Rennen NV40 gegen R400 wird erst wieder richtig spannend denke ich.

Der R350 wird höher als der R300 getaktet sein - das sollte schon reichen, um die FX abzuziehen.

Demirug
2003-01-30, 19:58:26
Originally posted by mapel110


nichts anderes hab ich gemeint.imo wird der r350 mindestens aufschliessen mit dem nv30 :)

Das wiederum glaube ich nicht. IMO wird ATI für den R350 ein paar minimale Änderungen einführen damit man sich auch im Kreis der 2.0+ Chips befindet. Den NV30 werden sie aber wohl nicht ganz erreichen weil der Schritt für den Refresh eigentlich zu gross ist. So wie es für NVIDIA damals nicht möglich war PS 1.4 im NV25 einzubauen. Mit den R400 könnten sie aber dann durchaus schon auf 3.0 hochgehen.

ow
2003-01-30, 20:01:16
Originally posted by mapel110


nur weil es jetzt endlich einige games gibt, die von T&L profitieren, solltest du die kyro2 hier nicht auf das niveau einer g2mx runterziehen.

beide karten waren zu einer zeit aktuell (hab kyro2 im mai 2001 gekauft), als es keine spiel gab, die nicht auch problemlos ohne hardware T&L (sehr gut) spielbar waren.

das mittlerweile die kyro2 nicht mehr viel zum gamen taugt, sollte man wissen. allerdings versägt sie bei ut2003 immernoch jede geforce2 mx. auch deine. ;)


Ich weiss, was die Kyro leistet, da ich selber ein habe (1er, 115/115). Die Kyro2 (benches hochgerechnet, da lineare Skalierung) ist der MX meistens weit überlegen. Aber in moderneren Games einer GF2MX höchstens gleichwertig, wenn nicht sogar leicht unterlegen.

In UT2003 sieht deine K2 nicht gut gegen meine MX aus, von AF reden wir mal lieber erst gar nicht;).

ernesto.che
2003-01-30, 20:02:56
Originally posted by ow


Damit es Unterstützung in Spielen findet!

Zuerst muss die HW da sein, damit man auf ihr überhaupt solche Sachen programmieren kann.
Oder denkst du, die Entwickler würden alle auf dem SW-Referenz-Rasterzer von M$ proggen, um neue Effekte zu nutzen.;)

Ist also nicht so, dass Ballmer und Gates über alles entscheiden ???
Ich sehe es bei 3dfx so, das sie wussten, wann ein Feature wirklich Sinn gemacht hat. Gerade das war aber auch ihr Problem: Irgendwer behauptet, das sei gut für gamen, egal ob 32bit mit 0,68 fps oder unsinniges AGP 4x.
Als 32 bit Sinn anfing Sinn zu machen, hatte es 3dfx. AGP 2-8 ist auch heute noch zu vernachlässigen. Das trifft auf noch weitere zu.

Demirug
2003-01-30, 20:11:00
Originally posted by ernesto.che
Ist also nicht so, dass Ballmer und Gates über alles entscheiden ???

Nein das ist alles viel komplizierter. Da reden eine ganze Menge Leute mit. Vertreter von der Hardwarehersteller, Softwareentwickler. Zudem können die Beta-tester ebenfalls noch Vorschläge mache .

Ich sehe es bei 3dfx so, das sie wussten, wann ein Feature wirklich Sinn gemacht hat. Gerade das war aber auch ihr Problem: Irgendwer behauptet, das sei gut für gamen, egal ob 32bit mit 0,68 fps oder unsinniges AGP 4x.
Als 32 bit Sinn anfing Sinn zu machen, hatte es 3dfx. AGP 2-8 ist auch heute noch zu vernachlässigen. Das trifft auf noch weitere zu.

3dfx hatte am Anfang einen entscheidenen Vorteil. Sie waren defekto aleine. Wenn man Glide benutzte programmierte man nur für eine Karte und musste keine Rücksicht nehmen. Als dann aber neue Karten und Glide 2 und 3 kammen wurden die neuen Features immer zögerlicher angenommen weil man wollte ja zu den Karten die nur Gliede 1 konnten kompatibel bleiben um keine Kunden zu verkraulen.

Inzwischen ist dieser "Kompatibel bleiben" Effekt immer schlimmer geworden.

ernesto.che
2003-01-30, 20:17:48
Originally posted by Demirug


Nein das ist alles viel komplizierter. Da reden eine ganze Menge Leute mit. Vertreter von der Hardwarehersteller, Softwareentwickler. Zudem können die Beta-tester ebenfalls noch Vorschläge mache .

Sorry, ich habe es nicht so ganz ernst gemeint, aber danke ;)

Originally posted by Demirug
3dfx hatte am Anfang einen entscheidenen Vorteil. Sie waren defekto aleine. Wenn man Glide benutzte programmierte man nur für eine Karte und musste keine Rücksicht nehmen. Als dann aber neue Karten und Glide 2 und 3 kammen wurden die neuen Features immer zögerlicher angenommen weil man wollte ja zu den Karten die nur Gliede 1 konnten kompatibel bleiben um keine Kunden zu verkraulen.

Inzwischen ist dieser "Kompatibel bleiben" Effekt immer schlimmer geworden.

Kompatibel mag zwar hinderlich sein, der Kunde sichert aber nunmal den Unterhalt der Branche. Den sollte man deshalb nicht zu schnell zwingen.

Rampage 2
2003-01-30, 20:20:03
Originally posted by ow


Die haben noch nichtmal ne DX7 Chip zustande gebracht. DX9like? :lol:



Aha, und warum nicht? Voodoo4/5-Karten waren doch DX7-Karten.
Da musst du mich aufklären.

aths
2003-01-30, 20:21:03
Originally posted by Demirug
Inzwischen ist dieser "Kompatibel bleiben" Effekt immer schlimmer geworden. D.h., mit einer GF4 Ti sollte man featuremäßig noch lange auskommen? :)

aths
2003-01-30, 20:22:05
Originally posted by ow
In UT2003 sieht deine K2 nicht gut gegen meine MX aus, von AF reden wir mal lieber erst gar nicht;). Hast du mal die "AF-Blume" der MX mit Xmas' AF-Tunnel mit der GF4 Ti verglichen? Sind diese Bilder gleich?

Pirx
2003-01-30, 20:23:46
Originally posted by aths
D.h., mit einer GF4 Ti sollte man featuremäßig noch lange auskommen? :)

Rein featuremäßig ja:) Wie lange hattest du nochmal gedacht sie zu behalten, als du sie gekauft hast?

Unregistered
2003-01-30, 20:29:11
Originally posted by Demirug

Inzwischen ist dieser "Kompatibel bleiben" Effekt immer schlimmer geworden.

und das ist meiner meinung nach der grösste schwachpunkt/kritikpunkt bei der FX. je featurereicher / schneller die highend karten werden, desto grösser wird doch der spagat der spielehersteller werden müssen, zwischen neuen features einbauen und auch noch auf alter hardware lauffähig zu sein (btw, bei lowend sehe ich NV mit seiner MX serie ala DX7 als technologie bremse an!)

Jetzt nehm ich mal die R300:
erfüllt DX9, nicht mehr und nicht weniger.ok <-- wird also so auch "irgendwann" mal verwendung finden
AA/AF was ich jetzt einsetzten kann egal wie das game aussieht.

Dagegen die FX: "überfüllt" DX9 ,klasse, wird doch aber im endeffekt wieder brachliegen (argumente siehe oben, is genauso zum scheitern verurteilt wie ps1.4,für games auf jedenfall)
Statt dessen nicht grade tolles AA,bei ogl nur bis 4mal usw.

Klar ohne solche sachen wie NV PS/VS2.0+ gäbe es keine innovation, aber warum wieder etwas bringen was kränkelt wie z.b. ps1.4 und alles nur wieder komplizierter macht für die spielehersteller?
wie gesagt, innovation muss sein ,aber dann doch lieber einfach nen standart einfach voll erfüllen VS/PS2.0 und dafür features die ich immer einsetzten kann (AA/AF) besser machen.(sage hier nicht, daß das AF der FX schlecht ist, aber ist auc kein Fortschritt sondern durch die optimierung wieder nen rückschritt in der quali)

HiddenGhost
2003-01-30, 20:35:41
Also aus sicht des Chipdesigns war die Vooddoo 5 sicher keine innovation, aus Sicht des Endverbrauchers alle mal ow.

Das FSAA war bis zum R300 ungeschlagen und Motion Blur hätte ich zu gerne in vielen SPielen u sehen gewünscht, allen voran Adventures aka GOthic, bei denen es sowieso nicht auf HiPerformance ankam.

Das hätte IMO deutlich mehr bewirkt als DX7 T&L, dass eh nur minimalst genutzt wurde...

Also das 32bit so viel besser aussahen als 16bit auf ner Voodoo kann ich nicht bestätigen. Ich kontne vor eingier Zeit mal bei einem Kumpel verleichen, der noch eine Voddoo 5 5500 hatte.
NV brauchte 32 bit , 3dfx kam für den Laine auf gleiche Qualität it 22bit Filter und das mit Evolutionsschritten aus einem Voodoo2 Design!!!

Aus sicht der Endkunden war die Voodoo das ausgereiftere Produkt. Dass sie gescheitert sind, lag eher an ihrer katastrophalen Verkausstrategie und NVs "Hetze" als an Featuremangel.

Das ist meine Sicht zu der Lage... mag sein dass sie nciht 100% korrekt ist, aber ich sehe 3dfx immer noch innovativer an als NV es jemals war!

Ikon
2003-01-30, 20:41:27
Originally posted by aths
Hast du mal die "AF-Blume" der MX mit Xmas' AF-Tunnel mit der GF4 Ti verglichen? Sind diese Bilder gleich?

Könnte mich jemand über diesen Sachverhalt aufklären, das klingt interessant ...

Demirug
2003-01-30, 21:19:36
Originally posted by Unregistered
und das ist meiner meinung nach der grösste schwachpunkt/kritikpunkt bei der FX. je featurereicher / schneller die highend karten werden, desto grösser wird doch der spagat der spielehersteller werden müssen, zwischen neuen features einbauen und auch noch auf alter hardware lauffähig zu sein (btw, bei lowend sehe ich NV mit seiner MX serie ala DX7 als technologie bremse an!)

Ja die MX ist eine Technologiebremse und ich hoffe wirklich das die meisten die davon verkauft wurden/werden in irgendwelchen Bürorechner gelandet sind.

Schneller ist im Prinzip nie ein Problem. Das Hauptproblem sind eher die langsamen Karten auf die dann runterskaliert werden muss. Was nun den steigenden Featurereichtum der Karten angeht so wird das mit den neuen Engines auch weniger ein Problem. Auch die Spieleentwickler haben aus den Fehlern der Vergangeheit gelernt und gehen dazu über die Effekte zu parametrien und nicht mehr länger zu programmieren.

Jetzt nehm ich mal die R300:
erfüllt DX9, nicht mehr und nicht weniger.ok <-- wird also so auch "irgendwann" mal verwendung finden
AA/AF was ich jetzt einsetzten kann egal wie das game aussieht.

Ja der R300 ist ein guter Mix geworden

Dagegen die FX: "überfüllt" DX9 ,klasse, wird doch aber im endeffekt wieder brachliegen (argumente siehe oben, is genauso zum scheitern verurteilt wie ps1.4,für games auf jedenfall)
Statt dessen nicht grade tolles AA,bei ogl nur bis 4mal usw.

ja das AA hat man beim Entwickeln wohl irgendwie vergessen.

Die Gründe warum die PS 1.4 nicht richtig angenommen wurden sind vielfälltig und nicht direkt auf die VS und PS 2.0+ Situation übertragbar. Man wird sicherlich auf einer NV30 keine anderen Effekte als auf einer R300 Karte zu sehen bekommen. Trotzdem wird wohl der eine oder andere Effekt einen NV30 Shader bekommen weil man damit ein Problem effektiver lösen kann. Dank Shaderhochsprachen ist es ja keine Mehrarbeit mehr.

Klar ohne solche sachen wie NV PS/VS2.0+ gäbe es keine innovation, aber warum wieder etwas bringen was kränkelt wie z.b. ps1.4 und alles nur wieder komplizierter macht für die spielehersteller?

Die PS 1.4 scheinen ja immer das Beispiel für ein sinnlosses Feature zu sein und gewisser Weise ist das ja auch richtig.

Bei den VS und PS des NV30 ist die Situation aber etwas anders. Aufgrund der Tatsache das die 3.0 Versionen der Shader schon spezifiziert sind hat man die Planungssicherheit das man seinen Shadercode leicht auf 3.0 erweitern kann. Bei den PS 1.4 war diese Sicherheit nie vorhanden was abschreckend wirkte.

wie gesagt, innovation muss sein ,aber dann doch lieber einfach nen standart einfach voll erfüllen VS/PS2.0 und dafür features die ich immer einsetzten kann (AA/AF) besser machen.(sage hier nicht, daß das AF der FX schlecht ist, aber ist auc kein Fortschritt sondern durch die optimierung wieder nen rückschritt in der quali)

Das Problem mit den Standarts ist das sich die Hersteller scheinbar immer erst abstimmen wenn sie mit dem Grunddesign schon recht weit sind. Ja die Zeiten als es nur VGA und VESA für Grafikkarten gab waren noch schön ;)

Beim AF ist mit dem derzeitigem Verfahren eigentlich nichts mehr zu verbessern. Man kann nur noch die Anzahl der Samples erhöhen wobei dabei das Kosten/Nutzen verhältniss immer schlechter wird. Hier bleibt wirklich mal abzuwarten wer sich als erster traut ein nues Verfahren einzusetzen.

Über das AA braucht man eigentlich auch nicht mehr viel zu sagen da IMO alles gesagt wurde. Hier hat NVIDIA einfach gepennt. Möglicherweise nahm mann an das ATI das gleiche MS Verfahren nachbaut und man deshalb dort nicht tun müsste. Aber das wird man möglciherweise nie erfahren was NVIDIA da geritten hat.

Crazytype
2003-01-30, 21:51:21
Ich schätze dich sehr als erfahrenden Programmieren, aber wie kommst du darauf, dass die r350 nicht schneller als die GF FX sein wird? Die Unterschiede sind jetzt schon gering, ganz zu schweigen von AA und AF.
ATI hat nochnie einen billigen aufguss gemacht und war immer inovativer als Nvidia,meiner Meinung nach.(DVD,Multimonitoring,ps 1.4,dx9, 256 bit Speicherinterface)

Außerdem glaub ich, dass die geschmack bekommen haben erster zu sein.

Demirug
2003-01-30, 22:12:17
Originally posted by Crazytype
Ich schätze dich sehr als erfahrenden Programmieren, aber wie kommst du darauf, dass die r350 nicht schneller als die GF FX sein wird? Die Unterschiede sind jetzt schon gering, ganz zu schweigen von AA und AF.
ATI hat nochnie einen billigen aufguss gemacht und war immer inovativer als Nvidia,meiner Meinung nach.(DVD,Multimonitoring,ps 1.4,dx9, 256 bit Speicherinterface)

Außerdem glaub ich, dass die geschmack bekommen haben erster zu sein.

Crazytype, die Geschwindigekeit ist für meine Bedürfnisse sekundär. Genauso spielt für mich die Qualität des AA und AF kaum eine Rolle.

Die Karte ist für mich nun mal zum Entwickeln und nicht zum Spielen. Deshalb habe ich andere Prioritäten.

Wenn der R350 chip schneller sein sollte ist das schön nur hilft mir das nicht weiter. Wenn er im DX9 Support mehr wichtige Features unterstützt als ein NV30 chip dann wird er interessant.

Ùnregistered
2003-01-31, 13:44:28
Ich glaub nicht das in der GeforceFX irgentwas von 3dfx steckt...
und was die innovation von 3dfx angeht lest euch mal das hir durch!!!
http://www.hardoverclock.de/html/articles/3dfxtribute/3dfxtribute_0.htm

BlackBirdSR
2003-01-31, 14:40:28
Originally posted by Ùnregistered
Ich glaub nicht das in der GeforceFX irgentwas von 3dfx steckt...
und was die innovation von 3dfx angeht lest euch mal das hir durch!!!
http://www.hardoverclock.de/html/articles/3dfxtribute/3dfxtribute_0.htm

man kanns mit seinem 3dfx (man hab ich das Wort lange nicht mehr geschrieben :( ) fantismus auch etwas übertreiben.
Mach dem Artikel hatte 3dfx die überlegenere Hardware, die schnelleren Chips und hätte sich niemals sorgen brauchen wäre da nicht MS und diese doofen DX Version gewesen.

Ob das FSAA heute noch das beste ist weiss ich nicht, ich glaube es aber nicht so recht; dazu kommen die Spekulationen über Rampage Fusion und Sage, die gleichmal Leistungsregionen hätten erreichen sollen die sogar heute astronomisch wären.
DIe SPecs sind ja ganz schön, aber wir wissen wie es mit denen momentan aussieht, sie enthalten nur die halbe Wahrheit.

Was 3dfx technik in Nvidia chips geht halte ich das eh für reines Wunschdenken von 3dfx fans.
Spätestens mit der FX hat Nvidia so ziemlich alles überschritten was 3dfx für ihre Chips geplant hatte, und wenn dann sind 3dfx techniker beteiligt, aber Nvidia chips werden deswegen genausowenig zu Hybriden wie es Intel Alphanium CPUs geben wird.

Unregistered
2003-01-31, 14:50:44
Originally posted by BlackBirdSR


Was 3dfx technik in Nvidia chips geht halte ich das eh für reines Wunschdenken von 3dfx fans.


Mir fallen nur 2 Sachen ein.

Stromverbrauch und Heizleistung ;-)

betasilie
2003-01-31, 15:24:49
Originally posted by BlackBirdSR Spätestens mit der FX hat Nvidia so ziemlich alles überschritten was 3dfx für ihre Chips geplant hatte, und wenn dann sind 3dfx techniker beteiligt, aber Nvidia chips werden deswegen genausowenig zu Hybriden wie es Intel Alphanium CPUs geben wird.

Schönes Bild. ?-) :embara:

Byteschlumpf
2003-01-31, 15:25:16
Vielleicht ist der FX ja die "Rache" des ehemaligen 3dfx-Teams, das von nVidia übernommen worden ist?

Eine Rache, die nVidia als größte Blamage seit Bestehens der Grafikschmiede empfinden muß!



Byteschlumpf

ernesto.che
2003-01-31, 15:52:39
Originally posted by Byteschlumpf
Vielleicht ist der FX ja die "Rache" des ehemaligen 3dfx-Teams, das von nVidia übernommen worden ist?

Eine Rache, die nVidia als größte Blamage seit Bestehens der Grafikschmiede empfinden muß!



Byteschlumpf

Vielleicht. Ich bin aber mal gespannt, was passiert, falls es die FX echt als silent Variante gibt :D

Na egal, REVENGE IS COMING :D

ice cool69
2003-01-31, 16:00:12
@ ow

die gffx hat nicht "ein paar mängel", hier ist ein großer haufen mist zusammengeschustert worden.

1. sie ist zu heiß

2. deshalb ist sie zu laut

3. sie ist zu langsam (für den hohen preis und dafür dass sie so lange nach der r300 rauskam)

4. das AA ist mies (8x etwas schöner als 4x dafür unverhältnismäßig langsam, im vergleich zu atis 6x lächerlich)

5. AF müsste in deinen augen auch mieser geworden sein (in meinen augen isses sinnvoller geworden)

6. PS/VS 2.0+ bietet soweit ich weiß keine neuen effekte die der r300 nicht auch schon kann, vielmehr werden ein paar sachen etwas beschleunigt. das kann ati aber egal sein weil der r350 auch ohne VS/PS 2.0+ die gffx in allen belangen in den boden stampfen wird

7. die treiber, eine der bisherigen stärken von nvidia, scheinen ja richtig mies zu sein was man hört

8. die karte ist zu groß

9. die karte verbraucht zu viel strom

10. die karte wird wegen ihres späten erscheinens eine verdammt kurze lebensdauer haben (man kann das geld auch zum fenster rauswerfen, ist im vergleich sogar origineller als ne gffx zu kaufen und vor allem deutlich leiser wenn man sich stattdessen ne r300 holt :D)

meine empfehlung an alle nvidioten:
schön brav bis zur nächsten generation zurückziehen und hoffen dass es nivida besser machen wird als dieses mal. diese runde geht ganz klar an ATI. sogar der pvrS5 traue ich mehr zu als der gffx.

Byteschlumpf
2003-01-31, 16:15:54
Da der R350 den FX mit Leichtigkeit wird "besiegen" können, ist der FX bereits veraltet - obwohl es noch keinen zu kaufen gibt!

Jetzt liegt es an den Treibern, ob der FX sich halbwegs gut verkaufen lassen wird oder nicht!


Byteschlumpf

Gohan
2003-01-31, 16:23:12
Problem der GFFX:
Die Inovation die sie bietet, ist eine Inovation die nur für Zukünftige Titel gillt.

3dfx's AA verschönerte alle Spiele, die eine 3D Engiene hatten, da lag der Vorteil ;)

nVdias ichweinichtwielange shader müssen erst mal in zukünftigen Titeln Auftauchen. Und da jetzt erst einmal die ersten DX8 Titel auftauchen, bezweifle ich, dass Das demnächst seien wird.

ice cool69
2003-01-31, 16:27:56
PS/VS2.0+ ist wärend der lebenszeit der gffx (welche imo extrem kurz sein wird :D) sowas fürn hugo. da würde ich mich eher mit ner dazugelegten tafel schokolade vom kauf überzeugen lassen...

Kubalibre
2003-02-01, 18:39:09
Die ganzen Features welche nur unter DX9 nutzbar sind, werden für den Otto-Normal-Gamer ziemlich für den A..... sein.
Erst recht für den High-End-Graka-Käufer.
Dies deshalb weil er DX9-Spiele auf der Karte nicht mehr spielen wird (Ausgenommen ein paar Demos und Benchmark-Programme).
Bis dahin sind entsprechend neue Karten erschienen die er auch gekauft hat.

Interessant sind nur die Features die sofort nutzbar sind (z.B. AA + AF) und die Geschwindigkeit in aktuellen Games (DX7 + DX8).

Das neue Features enthalten sein müssen um später genutzt werden zu können ist klar. Die Leistung darin spielt aber momentan nicht die Bohne an Rolle.
Bis diese Features wirkklich genutzt werden gehen 2-3 Chip-Generationen ins Land

Was bringts DX9-Features zu benchen wenn diese erst in 2-3 Jahren in Spielen zwingend vorausgesetzt werden????
Das erste Spiel welches ich kenne, das ohne Hardwar T&L gar nicht mehr anläuft ist Battlefield 1942.
Wie lange nach der Einführung der Geforce256 ???????

Bis DX9 in Spielen kommt sind die Geforce FX und die Radeon 9700 Pro lahme Enten an die kein Mensch mehr einen Gedanken verschwendet.

Unregistered
2003-02-02, 01:06:58
Ich versteh net was das alles soll#???
NV konnte dot3 embm hatte hw t&l blablabla aber 3dfx hatte das alles nicht
32 Bit konnten unsere T&T Karten 3DFX aber nicht
2024x1024 texturen konnten unsere T&T Karten ne Voodoo aber nicht
Hat da mals keine sau interessiert das man kein Spiel in guter geschwindigkeit spielen konnte wen 32bit aktiviert war
2024x1024 große Texturen wo bitte schön gab es so was???

V5 Zeiten, 3DFX sachte da mals sie brauchen das nicht weil es eh keine spiele gibt die es unterstützen
Erst die näcshte Generation von ihn wird das alles können
Fakt ist doch das bis heute die ganze Sch.ei.ße von den neusten spielen nicht benüzt wird

Wieso soll eine Karte was können was eh nie gebraucht wird bis auf in manchen benchmarks die von nv rausgebracht wurden ;)
FSAA was selbst eine auflösung wie 640x480 schön gemacht hat das konnte man gleich bentzern ohne das man drauf warten mußte bis 3 jahre später mal ein hersteller die funktion eingebaut hat
FSAA konnte perr schalter aktiviert werden und funktionierte eigentlich nur bei 3DFX karten schön und schnel !
Die Qualität wird selbst heute meienr meinung nach nicht wirklich ereicht

Was war mit Glide
Als ich bei Need For Speed (war es teil 1 oder 2?) das erste mal Glide aktiviert habe dachte ich das wehre ein neues spiel
Glide war nicht einfach nur ne Schnitstelle nein es war ein neues Spielgefühl ^^

Naja ich scheiß auf nv hoch lebe ATI auf das sie mit nv das amchen was sie mit 3DFX gemacht haben
SIE RICHTIG FERTIG GEMACHT ^^