PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ich komme mir irgendwie, na ja, von Nvidia verarscht vor


ernesto.che
2002-11-21, 23:49:45
Habe ich doch heute zu der Adresse webmaster@VoodooAlert.de folgende E-Mail:

Das Warten hat ein Ende - die Ära des Computing in Kinoqualität ist da!
NVIDIA stellt vor: die GeForce FX

Adrenalin pur
Die GeForce FX, ein wahres Kraftpaket von einem Grafikprozessor, verfügt über den modernsten Hochgeschwindigkeits-DDR2-Speicher, eine expansive AGP 8X-Pipeline und die unglaubliche Intellisample-Technologie für Szenerien von absoluter Perfektion in konkurrenzloser Geschwindigkeit. So viel Leistung gab's noch nie!

Perfektes Design
Die GeForce FX enthält fast doppelt so viele Transistoren auf gleichem Raum wie frühere Modelle. Wie ist das möglich? Mit dem hochmodernen 0,13-Mikron-Verfahren, dem Besten, was die Industrie zurzeit zu bieten hat. Dazu das neue Kartendesign, spezielle Kühlkörper und Kühllüfter aus reinem Kupfer - und man ahnt, welche Revolution diese Power-GPU für den Spielemarkt bedeutet!

Kinoeffekte jenseits der Vorstellungskraft
Die GeForce FX und NVIDIAs neue CineFX-Engine sind in ihrem Architekturkonzept perfekt auf höhere Programmiersprachen wie Cg abgestimmt und erlauben Spiele-Effekte, die den aufwändigsten Spielfilmen in nichts nachstehen. Dazu noch die erste echte 128-Bit-Farbverarbeitungstechnologie der Branche in Studioqualität - und Sie erleben 3D-Welten und Charaktere, so lebendig und realitätsnah wie noch nie. So werden Hollywood-Träume auf dem Desktop wahr!

Spielerparadies
Zur brillanten Hardware der GeForce FX gehören natürlich auch die passenden Treiber, grundsolide und haarfein einstellbar. Genau das Richtige, um maximale Frame-Raten aus einer Spieleumgebung herauszukitzeln! Ganz klar, dass sich immer mehr Entwickler bei der Arbeit an brandheißen Spielen der nächsten Generation für die GeForce FX entscheiden. Und dass immer mehr Spielefans auf die GeForce FX setzen. Die GeForce FX: The way it's meant to be played!

Sind Sie bereit? Dann klicken Sie hier!



Wollen die mich verarschen, bekehren oder mir nen Testsample schicken?????? :|

morfeus
2002-11-21, 23:56:02
Scheint dass nVidia auf einen Schnellzug fährt dass in die falsche Richtung geht.
Oder zumindest so ziemlich alleine.

ernesto.che
2002-11-21, 23:57:59
Originally posted by morfeus
Scheint dass nVidia auf einen Schnellzug fährt dass in die falsche Richtung geht.
Oder zumindest so ziemlich alleine.

Öhm:| Sorry, ich kann deinen zwei Sätzen nicht ganz folgen.

Demirug
2002-11-22, 00:10:27
Das ganze ist die Mail die jeder bekommt der sich bei dieser "Are you ready?" Seite eingetragen hat. Da ich mal annehme das du das nicht selbst gemacht hast war wohl jemand so "nett" und hat das für dich erledigt. Einfach löschen und vergessen.

ernesto.che
2002-11-22, 00:21:38
Originally posted by Demirug
Das ganze ist die Mail die jeder bekommt der sich bei dieser "Are you ready?" Seite eingetragen hat. Da ich mal annehme das du das nicht selbst gemacht hast war wohl jemand so "nett" und hat das für dich erledigt. Einfach löschen und vergessen.

Öhm, ist wohl das beste. Ich habe mich dort in der Tat nicht angemeldet, würde mir auch mehr als schwer fallen.
Das einzige was mich an dem Vich reizen würde, ist die Lüftersteuerung. Das ist mal eine echte Innovation, die irgendwie auf extravagant zielt. Ein Marantz Feature.

Ficus
2002-11-22, 07:23:45
Originally posted by ernesto.che Das Warten hat ein Ende
AHA! :D

Unregistered
2002-11-22, 08:34:42
Kannst Du mir nicht folgen?
Warum muss nVidia immer einen Extrazug fahren, und sich nicht wie die anderen
sich an DX 9 oder Open GL 2 anpassen?
Nein sie müssen ein eigenes Süppchen brauen. Und das lediglich zum Versuch ATi aufzuholen und übertrumpen.

Wenn nVidia keine Gegner hätte, würde die Grafikgeneration so aussehen:
GeForce 1 : 120 Mhz .....
GeForce 2 : 125 Mhz ....
GeForce 3 : 130 Mhz ....
GeForce 4 : 135 Mhz ....
usw.

ernesto.che
2002-11-22, 08:45:52
Originally posted by Unregistered


Wenn nVidia keine Gegner hätte, würde die Grafikgeneration so aussehen:
GeForce 1 : 120 Mhz .....
GeForce 2 : 125 Mhz ....
GeForce 3 : 130 Mhz ....
GeForce 4 : 135 Mhz ....
usw.


Das könnte man Nvidia aber nicht wirklich vorwerfen, jeder andere Hersteller würde es doch genauso machen.´
Es scheint mir auch relativ normal, das derjenige mit dem größten Marktanteil auch den Markt (mit-)bestimmen kann.

Demirug
2002-11-22, 08:55:56
Originally posted by Unregistered
Kannst Du mir nicht folgen?
Warum muss nVidia immer einen Extrazug fahren, und sich nicht wie die anderen
sich an DX 9 oder Open GL 2 anpassen?


OpenGL 2.0 ist nicht mal fertig und wenn man es genau nimmt in den köpfen von 3dlabs entstanden. Aufgrund des Zeitpunktes an dem die ersten Specvorschläge veröffentlicht wurden konnte sowohl NVIDIA wie auch ATI kaum noch was unternehmen um ihrer neuen Chips besser OpenGL 2.0 tauglich zu machen. Ergo wenn es geht gut wenn nicht da eben nicht.

Bei Direct X läuft der Prozess etwas anders ab. Die Hersteller machen Vorschläge was sie gerne in der neuen Version unterstützt sehen würde und MS versucht einen für alle Seiten guten kompromiss zu finden.

Die neuen Shadermöglichkeiten die ATI implementiert hat sind nun mal nicht ganz so flexibel wie die von NVIDIA. Sollte man NVIDIA jetzt deshalb bestrafen und sagen das die erweiterten Möglichkeiten ihrer Shader nicht in DX9 aufgenommen werden? Ich finde nicht.

Auch ATI hat sich damals mit den PS 1.4 einen eigenen Weg ausgesucht der in DX 8.1 auch unterstützung fand. Also was extrazüge der Hersteller angeht geben sich ATI und NVIDIA nicht viel.

seahawk
2002-11-22, 09:56:58
Originally posted by Unregistered

Wenn nVidia keine Gegner hätte, würde die Grafikgeneration so aussehen:
GeForce 1 : 120 Mhz .....
GeForce 2 : 125 Mhz ....
GeForce 3 : 130 Mhz ....
GeForce 4 : 135 Mhz ....
usw.

Wenn ATI keine Gegner hätte sähe es so aus :

Rage: 120 Mhz .....
Radeon 7xxx : 125 Mhz ....
Radeon 8xxx : 130 Mhz ....
Radeon 9xxx : 135 Mhz ....

Keine Firma gibt Geld aus um den Kunden eine Freunde zu machen, sondern nur weil es der Wettbewerb verlangt. (Deswegen verstehe ich dieses ganze ATI vs NV Gestreite ja auch nicht. Ich hoffe die FX schlägt die Radeon 9700, wie die 9700 die GeForce 4 schlug und wie der R350 hoffentlich den FX schlägt und der NV35 den R350 und der R400 den NV35 und der NV40 den R400 .....)
Für den Kunden gibt es doch nichts besseres als so einen Konkurenzkampf. Momentan drücke ich also NV die Daumen, dass sie die R300 schlagen, genauso werde ich hoffen dass ATI mit dem R350 wieder den NV30 schlägt. Was ich letzlich kaufe hängt von dem Zeitpunkt des Aufrüstens ab und von meinen persönlichen Erfahrungen. Ich will im Feb Aufrüsten (Feb wegen Preise und Verfügbarkeit SIS655) und werde wahrscheinlich ne FX kaufen. Würde ich heute Aufrüsten, würde ich ne 9700pro holen und wenn ich erst im Juli aufrüste ne R350. Die Firma ist mir egal so lange die Qualität stimmt. Und wenn beide Firmen gute Qualität bauen ist das doch umso besser.

Unregistered
2002-11-22, 10:28:58
Ich will im Feb Aufrüsten (Feb wegen Preise und Verfügbarkeit SIS655) und werde wahrscheinlich ne FX kaufen. Würde ich heute Aufrüsten, würde ich ne 9700pro holen und wenn ich erst im Juli aufrüste ne R350. Die Firma ist mir egal so lange die Qualität stimmt. Und wenn beide Firmen gute Qualität bauen ist das doch umso besser.



1 : 0 für dich.

nur die Sympatie zu nVidia habe ich verloren als nVidia 3 Dfx aufgekauft hat.
Sie ist mir ein bisschen zu Agressiv.

__________________

seahawk
2002-11-22, 10:54:07
Ich habe eigentlich keine Sympathie für NV und ATI. Ich meine letzendlich wollen die beide doch nur mein Geld. Wichtig ist doch nur das es mindestens 2 Firmen gibt, die sich Konkurrenz machen. 3 oder mehr wäre eigentlich besser.

Ich hole mir immer die KArte die zu der Zeit, wenn ich die CPU aufrüste die beste ist. Das könnte auch ne Matrox und ne PowerVR sein - ist mir egal. (Natürlich immer nur wenn die Treiber und so was taugen)

Als erstes hatte ich ne PoweVR Generation 1 von Videologic in einem Pentium MMX200. (war gut)

Dann ne Rage als ich mir eine PII 350 holte - die war Scheisse !! und ist deshalb schnell gegen ne TNT 2 Ultra ersetzt worden.

Die blieb drin als der PIII 550 kam. Erst als immer mehr Spiele Hardware T&L wollten habe ich mir übergangsweise ne billige GeForce2 MX geholt.

Als ich mir meinen jetzigen Athlon 1400 geholt habe gabs ne GeForce 3, weil die Radeon 8500 damals einfach zu viele Treiberprobleme hatte.

Jetzt gibt es im Feb. wieder was neues und dann wahrscheinlich ne FX. (Kann aber auch ne R300 werden, wenn die FX nix taugt oder ne R350 wenn die schon da ist oder kurz danach kommt)

Brillus
2002-11-24, 01:03:13
Mir ist der Hersteller eigentlich egal ich schau immer nach dem Zukunftsicherheits/Preisverhältnis bedeutet welche Hardware ist die günstigste die auch noch in runde 2 Jahren(ist mein aufrüstzyklus für Graka und Prozessor wobei um ein Jahr versetzt(im dem einen Jahr graka im andern Prozessor(+Motherboard,Ram))ich bin noch schüler)letzte Weihnachten war es ne Radeon8500 und im moment bin den Prozessor aufrüstung am Plannen wobei ich aber AMD wohl den vortitt gebe in hinsicht auf die besseren Preistleitungsverhältnis und auch wegen den La Grande von Intel.