PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3dcenter nvidia lastig?


Unregistered
2001-08-16, 08:26:22
also die meldung das die neuen detos 4 von einem geniales treiberteam stammen und die treiber über sieg und niederlage entscheiden ist wohl etwas oberflächlich.

genau so eine blinde berichterstattung hat nvidia zu dem gemacht was es heute ist: eine over hypte firma die es nicht schafft gscheite grakas zu baun

und alle die nicht so am laufenden sind und die massigen seiten im i-net lesen wo die nvidia karten in die luft gehypt werden, glauben das dann auch noch...

wenn man die tests ein bischen zwischen den zeilen liest, merkt man das die detos 4 nicht wirklich das wahre sind sondern nur in den 3 haupt-benchmarks (3dmark, quake, aquanox) zulegten und sonst gleich schnell bis langsamer geworden sind

aber das kennen wir ja schon von 3dfx zeiten her, alles was zählt ist q3 und 3dmark und wer dort gewinnt, gewinnt alle tests, und somit die ahnungslosen käufer

das eine ati oder eine 3dfx bessere bildqualität hat und in vielen nicht getesteten spielen gleich auf liegen mit den jeweiligen graka- generationen interessiert ja niemanden, ganz zu schweigen von den "beschissenen treibern" von nvidia welche jetzt plötzlich seit je-her die besten gesein sein sollen???(also ich für meinen teil hab mich immer am boden gewutzelt vor lachen wenn ich mir die treiber probleme bei nvidia anschaute)

sätze wie "Interessanterweise schafft es die [...] Radeon 8500 (R200) nicht, die GeForce3 [...] zu schlagen" machen den eindruck als ob die karte schlechter währe, besonders für jemanden der sich die tests nicht selber, oder blind den ausführungen der autoren folgend, gelesen hat

aber das die karte sogar im betta stadium mit betta treibern gegen eine ausgereifte mit schwindel treibern ausgestattete gayforce (welche, wie sich alle erinnern, in jedem spiel langsamer war als ne g2u, als da noch betta drauf stand) und noch 1. billiger sein wird als die g3 bei erscheinen und noch mehr goodies hat ist so finde ich doch eine hoffnung für die nvidia verseuchte welt

cya
hotbubble

ps: das ich n bissi anti nvidia bin merkt hoffendlich eh keiner :)
pps: eine ati radeon 64 ddr, oder ne g2 hinken meiner V5 auf nem athlon 1300 schon hinterher, somit zeigt sich nur das der hype pro nvidia und gegen V5 wegen schlechterer 3dmarks schlichtweg falsch war

Tigershark
2001-08-16, 09:21:30
Hi there. Also zunächst mal : Ich habe selbst keine nVidia Karte (mehr), sondern eine Kyro2, nicht dass es heisst ich sei Fan oder so. Völlig unparteiisch also. Dann nehme ich mal Stellung, lieber Unreg. :



Originally posted by Unregistered
also die meldung das die neuen detos 4 von einem geniales treiberteam stammen und die treiber über sieg und niederlage entscheiden ist wohl etwas oberflächlich.

genau so eine blinde berichterstattung hat nvidia zu dem gemacht was es heute ist: eine over hypte firma die es nicht schafft gscheite grakas zu baun


Overhyped ist richtig, aber keine gescheiten GraKas ? Dass nVidia den Brute-Force Weg geht, ist zwar nicht sonderlich "fortschrittlich", aber momentan einfach noch ziemlich effizient. ST Micro ist die EINZIGE Firma, die einen anderen Weg geht ( TBR . Und momentan hat nVidia mit der GF3 einfach nunmal die SCHNELLSTE Karte.

und alle die nicht so am laufenden sind und die massigen seiten im i-net lesen wo die nvidia karten in die luft gehypt werden, glauben das dann auch noch...

wenn man die tests ein bischen zwischen den zeilen liest, merkt man das die detos 4 nicht wirklich das wahre sind sondern nur in den 3 haupt-benchmarks (3dmark, quake, aquanox) zulegten und sonst gleich schnell bis langsamer geworden sind

Quatsch. Ich glaube einfach Du hast die ATI Reviews nicht richtig gelesen. Natürlich hat die GF3 hauptsächlich in den Benches zugelegt, die meistens getestet werden. Das ist zwar nicht sonderlich "ehrenvoll" aber eben marketingtechnisch ziemlich gerissen. Ausserdem legen die GF3 Karten fast überall in hohen Auflösungen zu, sind HÖCHSTENS nur gleichschnell, aber nirgends LANGSAMER als mit den alten Detonator 3 Treibern.


aber das kennen wir ja schon von 3dfx zeiten her, alles was zählt ist q3 und 3dmark und wer dort gewinnt, gewinnt alle tests, und somit die ahnungslosen käufer

das eine ati oder eine 3dfx bessere bildqualität hat und in vielen nicht getesteten spielen gleich auf liegen mit den jeweiligen graka- generationen interessiert ja niemanden, ganz zu schweigen von den "beschissenen treibern" von nvidia welche jetzt plötzlich seit je-her die besten gesein sein sollen???(also ich für meinen teil hab mich immer am boden gewutzelt vor lachen wenn ich mir die treiber probleme bei nvidia anschaute)

Tut mir leid, aber das erinnert mich an gute alte 3DConcept-Forum Zeiten "NVIDIA FANS vs. 3DFX-FANS". Darauf lief es meistens hinaus :D
nVidias Treiber waren vielleicht zu Detonator 1 Zeiten schlecht, aber spätestens seit den 3.xx bzw. 6.xx Treibern sind sie richtungsweisend. Beispiel ATI - GUTE Produkte, wie z.B. die Fury MAXX sind u.A. wegen beschissenem Treibersupport gescheitert. Keine bzw. grottenschlechte Treiber für Win2k - das kann sich heute keine Firma mehr leisten. Dass es so viele geleakte Detos gibt, hat mit nVidia selbst eigentlich wenig zu tun, und die "offiziell releasten" Treiber gibt es nur ca. jedes halbe Jahr, und da MERKT man dann auch einen echten Unterschied.
Was die Bildqualität angeht - da hast Du recht ;)

sätze wie "Interessanterweise schafft es die [...] Radeon 8500 (R200) nicht, die GeForce3 [...] zu schlagen" machen den eindruck als ob die karte schlechter währe, besonders für jemanden der sich die tests nicht selber, oder blind den ausführungen der autoren folgend, gelesen hat

aber das die karte sogar im betta stadium mit betta treibern gegen eine ausgereifte mit schwindel treibern ausgestattete gayforce (welche, wie sich alle erinnern, in jedem spiel langsamer war als ne g2u, als da noch betta drauf stand) und noch 1. billiger sein wird als die g3 bei erscheinen und noch mehr goodies hat ist so finde ich doch eine hoffnung für die nvidia verseuchte welt

Ich hoffe auch, dass die Radeon 8500 der GF3 den Arsch versohlt, nicht weil ich nVidia nicht mag, sondern einfach weil momentan die Luft raus ist im GraKa Segment. Konkurrenz belebt das Geschäft, und für uns User kann es IMMER nur gut sein, sprich die Teile werden billiger oder besser oder beides.


ps: das ich n bissi anti nvidia bin merkt hoffendlich eh keiner :)
pps: eine ati radeon 64 ddr, oder ne g2 hinken meiner V5 auf nem athlon 1300 schon hinterher, somit zeigt sich nur das der hype pro nvidia und gegen V5 wegen schlechterer 3dmarks schlichtweg falsch war.


NEIN, das merkt keiner !!!
Und die GF2 musst Du mir mal zeigen, die in irgendeinem Spiel ( ausser vielleicht UT in GLIDE :D ) langsamer ist als `ne Voodoo 5. Ich meine jetzt nicht (!) mit 4x AA oder so. Dass das die Voodoo immer noch am besten kann, wissen wir. warten wir also gespannt auf das echte Release vom Radeon und sehen dann weiter.


Gruß, Tiger.

P.S. : Wenn die Kyro3 kommt, dann können sowohl ATI als auch nVidia erstmal einpacken ;)

Kai
2001-08-16, 09:24:49
Originally posted by Unregistered
aber das kennen wir ja schon von 3dfx zeiten her, alles was zählt ist q3 und 3dmark und wer dort gewinnt, gewinnt alle tests, und somit die ahnungslosen käufer

Zu deinem anderen Quatsch schreib ich später noch was ... bin momentan in Zeitdruck. Nur so viel - ich hab mir meine Geforce3 fast völlig auf Risiko gekauft - und bin beeindruckt wie nie zuvor. Die Karte IST schnell - die Karte PERFORMT genauso schnell in hohen Auflösungen - die Karte ist genau das was ich mir von einer Grafikkarte im Endeffekt vorstelle.

Kannst Du das von deiner GraKa auch behaupten? Sei froh wenn's so ist! Nix ist besser als ein User der mit seinem System zufrieden ist - und wenn Du das wärst, würdest Du nicht so nen Kram hier reinposten ...

ow
2001-08-16, 09:26:10
Kein Lust, den Schwachsinn von Unreg. zu kommentieren.

StefanV
2001-08-16, 10:12:39
Ich hab jetzt auch keine Lust...

Nur soviel:

Nahezu alle GraKa Tests sind FALSCH...

Thowe
2001-08-16, 10:59:42
@unreg

lies die ct, was da steht beruht wenigsten auf beweisbare Grundlagen.

Pro Nvidia ohne jede Weit- oder Einsicht ist hier sicher niemand.

Korak
2001-08-16, 11:22:06
Originally posted by Tigershark
Ausserdem legen die GF3 Karten fast überall in hohen Auflösungen zu, sind HÖCHSTENS nur gleichschnell, aber nirgends LANGSAMER als mit den alten Detonator 3 Treibern.


Doch in Giants wird sie um ca. 30% langsamer. Warum? Keinen Schimmer.


Ati hat noch en Weilchen Zeit um an den Treibern zu basteln. Die R200 wird da schon noch schneller. Die Radeon1 wird mit dem aktuellen Beta im Vergleich mit dem letzten Ofiziellen Treiber auch einiges Schneller. Sicher nich überall aber in ein paar Progs halt schon.

Kai
2001-08-16, 12:37:43
Originally posted by Korak


Doch in Giants wird sie um ca. 30% langsamer. Warum? Keinen Schimmer.

OH GOTT! Ich kann mit meinen geliebten Dummschwätzern keine lebenden Pflanzen mehr killen ... Der Treiber wurde sowieso zu früh released ... der Detonator4 war noch nicht fertig und wurde gelauncht wegen der neuen ATI-Karte.

Wirst doch nicht glauben das Nvidia das nich fixen werden wenn sie davon hören.

Korak
2001-08-16, 12:42:43
Oh die Fixen das schon :)
Aber is im Moment halt so. Ich wollte damit auch nur mal weider zeigen, dass man nicht sagen kann der Deto is schneller und der is langsamer. Das is halt meistens von Prog. zu Prog. unterschiedlich. Und jetzt hab ich keinen Bock mehr darüber zu diskutieren ob Nividia nur Scheiße baut oder nicht. (Tun sie nicht :p ;))

Unregistered
2001-08-16, 13:19:01
Also Leute,

ich weiß wirklich nicht, was ihr habt' !

In allen Tests wurde der Radeon 8500 ein sehr gutes Feature-Set und eine sehr gute Performance bescheinigt. Lediglich die Aussage von ATI, daß diese Karte locker 33% schneller ist, als alles was auf dem Markt ist (resp. GeForce3) ist schlicht falsch. Ich vermute auch mal, daß dies eine theoretische Überlegung war, da ja die beiden Kontrahenten unterschiedliche Wege gehen, um das letzte Qentchen Geschwindigkeit heraus zu holen...

Wie dem auch sei, die Radeon scheint ein sehr guter Performer zu sein, der aber das Ziel (zum jetzigen Zeitpunkt !) Geschwindigkeit ein wenig verfehlt hat. Die gf3 hingegen hat nochmal durch einen besseren Treiber ordentlich zugelegt. Und schon wird gesagt, daß dies von nVidia beabsichtigt sei, damit das neue Produkt mißkreditiert wird. Was für ein Schwachsinn !

Ich vermute eher, daß das Release des Treibers schon lange auf dem Plan stand und vermutlich noch gar nicht das Licht der Welt erblicken sollte, man dieses aber vorzog, damit man dem Markt zeigt, daß auch in der gf3 noch einiges an Potential steckt, was der Radeon 8500 ja auch bescheinigt wird. Was ist daran falsch ?

Auch die Probleme mit Giants würden in dieses Bild passen, aber die wirklich guten Treiber-Programmierer von nVidia (wer was anderes behauptet hat wirklich keine Ahnung) werden das schon hin bekommen. Hat sich eigentlich noch keiner Gedanken darüber gemacht, wie es zu einem so gewaltigen Release-Sprung (12.x -> 20.x) kommt ? Daß man die 13.x ausgelassen hat, kann man so, oder so werten ;-)...

Während die Treiber bei ATI mit das größte Demanko darstellen, sind diese einer der größten Vorteile nVidia's. Das wird hoffentlich noch jeder in Erinnerung haben...

Wie dem auch sei.
Ich kann Kai nur recht geben, die gf3 hält ihr Versprechen, was die Praxis- und Alltagstauglichkeit angeht. Denn bisher war JEDER, der eine solche Karte sein eigen nennt, sehr damit zufrieden. Was die 2D Darstellungsqualität angeht, gibt es sicher geteilte Aussagen, aber ich kann noch immer nicht verstehen, wie es Leute fertig bringen, einen Desktop bei 1600x1200 zu haben und sich dann darüber beschweren, daß es auf einem 17- oder 19-Zoller nicht sonderlich dolle aussieht. Leute ich bitte euch ! ELSA hat gerade für meine Gladiac 920 ein neues Bios heraus gebracht, was die Darstellungsqualität sowohl in 2D als auch mittels FSAA nochmal ein weinig verbessert hat. Was sagt Ihr dazu ? Auch hier schien noch einiges an Potential zu liegen... Tatsache ist, aß es wohl keine Hardware am Markt gibt, die voll und fehlerfrei von der Software unterstützt wird und das wird sich auch wohl nicht ändern... Warum auch ? Schließlich ist es doch schön, daß die angeschaffte Hardware auch in Nachherein noch verbessert werden kann, obwohl sie ja eigentlich schon bei Anschaffung das Geld wert war.

Wie schon gesagt, die Readeon ist ebenfalls ein sehr guter Performer, aber eben nicht der 'ersehnte' gf3-Killer... Warum auch ? Schließlich stellt die Leistung beider Karten das zur zeit optimale dar. Somit bleibt es den Leuten überlassen, eben den eineb oder anderen Hersteller zu bevorzugen.

Noch eine kleine Anmerkung zu ATI's Feature-Set: Erst die Zukunft wird zeigen, ob man es tatsächlich auf die Reihe bekommt, die Entwickler auch davon zu überzeugen, diese zu nutzen. Oder wie ist es zu erklären, daß Hobbyprogrammierer sich an den Rechner zu setzen, um diese Features teilweise zu implementieren ? Glauben hier tatsächlich alle, daß nVidia aller Entwickler dieser Welt schmiert ? Oh mann...

Wir werden sehen ...
(wir sind ja nicht blind)

Warten wir das Realese der fertigen Hard- und Software ATI's ab, um ev. ein anderes Bild zu erhalten. Aber einen Monat vor dem Regal-Release, wird ATI nicht mehr sonderlich viel ändern können, oder ?

Das mit dem Preis sollten sie sich wirklich noch überlegen !

Ach ja, wer tatsächlich sofort ins Regal greift, ohne die Praxistauglichkeit der Karte abzuwarten, dem ist wirklich nicht zu helfen !

In diesem Sinne...

Razor

hotbubble
2001-08-17, 04:30:56
so jetzt hab ich mich auch reg...

ich hab den ersten treat geschrieben, und steh dazu, war nur zu schnell beim schreiben und wollt das nicht mehr nach der registration wieder schreiben (ja ich weiß, mit n bischen erfindungsreichtum wärs gegangen)

nun zu den antworten, auf welche ich hier nicht im einzelnen eingehen will, weil die meisten am thema vorbei sind
schon der titel meines "romans" ist nicht auf nen flame war zwischen ati und nvidia oder sonst wem ausgelegt sondern gegen eine vorschnelle undgenaue berichterstattung

schon mal wer die tests auf sharky gelesen? dort hams mit den älteren treibern (gf3) getesten, und was kam dort raus?
genau umgekehrte ergebnisse

das die karten im endeffekt gleich auf liegen werden (je nach spiel mal die oder die andere die nase vorn haben wird) sieht doch oder sollte jeder sehen, also sollte das ergebniss der tests sein das mindestens (weil noch betta) eine ebenbürtige karte auf den markt kommt und man nach goodies und ausstattung, preis und persöhnlichen vorlieben/anforderungen entscheiden sollte

keiner kann sagen die r2 is schlechter, langsamer oder sonst was

ABER genau das wird in den meisten tests in rübergebracht...
UND hunderte "HARDWARE-Seiten" schreibens ab...
das find ich scheisse, echt

dadurch, und ich muss mich wiederholen, wird die g3 in den himmel "gehypt", und das passiert nicht zum ersten mal (tnt2 is schneller als v3 haha)

bezüglich kryo muss ich sagen, super technik, inovative firma (sympatischer als nvidia sowiso :=) ), hoffendlich schaffens die "MEGA" karte, somit währe wieder n bisschen schwung und vorallem auswahl da

cya and have a nice day

hotbubble

hotbubble
2001-08-17, 04:43:34
und zu allen g3 inhabern:

ihr habt ne gute karte, zur zeit sogar die einzige die diese leistung bringt. keiner sagt im ERNST das sie schlecht ist :), allerdings ist sie die zur zeit einzige nicht nur aber sicher auch wegen der oben genannten gründe bezüglich der berichterstattung

und nvidia ist jetzt nicht die über-trüber firma nur weil sie den normalen weg der evolution der grakas gegangen sind
andere fimaen haben/hatten ähnliche entwichlungen (rampage, radeon 1,...) die durch marktlage, gunst von microsoft oder dummheit des managements nicht zur geltung kamen

cya
hotbubble

StefanV
2001-08-17, 04:45:07
@hotbubble

Jep...

Leider machen sich die wenigsten die mühe sich eine eigene Meinung zu holen...

und schneller=besser trifft bei den irrsinnigen Frameraten heute nunmal nicht mehr zu...

PS: Sobald die GF4 kommt wird der Treibersupport der geliebten GF3 eingestellt, bei ATI gibt es jetzt noc neue Treiber für die R128...

Andre
2001-08-17, 09:17:53
Originally posted by Stefan Payne

PS: Sobald die GF4 kommt wird der Treibersupport der geliebten GF3 eingestellt, bei ATI gibt es jetzt noc neue Treiber für die R128...

Quatsch !!!
Bis auf die Riva hat NV für keine Karte den Treibersupport eingestellt.
Frag mal ow (ich sage nur TNT PCI).
Verbreite nicht so einen Quatsch, Stefan, dass der Support für die Geforce 3 eingestellt wird.

StefanV
2001-08-17, 09:23:54
Dennoch gibt es keine Verbesserungen für die älteren Karten mehr...

Andre
2001-08-17, 09:27:49
Originally posted by Stefan Payne
Dennoch gibt es keine Verbesserungen für die älteren Karten mehr...

Nochmal Quatsch !
Sag mal Stefan, Du hast noch keine der aktuellen NV-Karten gehabt, woher weisst Du das alles eigentlich ?

ow
2001-08-17, 10:10:20
Originally posted by Stefan Payne
Dennoch gibt es keine Verbesserungen für die älteren Karten mehr...


Und die DX8 Unterstützung?? Ist das keine Verbesserung?

Leistungsmässig tut sich eignetlich nix mehr, da ist der TNT wohl ausgereizt.

Bin auch mal gespannt, ob der Det.4 auf der TNT noch läuft.

Andre
2001-08-17, 10:13:04
Originally posted by ow

Wie laufen den überhaupt die Radeons und Kyros unter Linux??
Schon irgendwelche brauchbaren Treiber in Sicht??

Hihi, erwischt *g*

Thowe
2001-08-17, 10:21:39
Was die Treiber angeht kann sich eigentlich bei Nvidia niemand beklagen.

Aber für meine NV1 bekomme ich keine mehr :...(

Andre
2001-08-17, 10:23:47
Originally posted by Thowe
Was die Treiber angeht kann sich eigentlich bei Nvidia niemand beklagen.

Aber für meine NV1 bekomme ich keine mehr :...(

Und soll wir wetten, dass Stefan genau auf dieser Tatsache wieder rumreitet...

Thowe
2001-08-17, 10:30:09
Kann er ruhig, die Treiber müssten ja dann eigentlich von Diamond kommen (Edge).

Ist aber auch fies, Karte ist gerade 5 Jahre alt und keine DX8 Treiber mehr dafür. PS: 3DMARK2001 läuft gar nicht auf der. Aber dafür hatte sie ja auch Sound und 2x Joypad von wegen keine Innovation.

ow
2001-08-17, 10:44:45
Originally posted by Thowe
Kann er ruhig, die Treiber müssten ja dann eigentlich von Diamond kommen (Edge).

Ist aber auch fies, Karte ist gerade 5 Jahre alt und keine DX8 Treiber mehr dafür. PS: 3DMARK2001 läuft gar nicht auf der. Aber dafür hatte sie ja auch Sound und 2x Joypad von wegen keine Innovation.


Und 'curved surfaces' in HW. Hat es bis heute nicht mehr gegeben.

Das Problem des NV1 war, dass zu seinem Erscheinen kein brauchbares 3D API für Spiele gab (DirectX war nicht fertig (und eh unbrauchbar bis DX5), OpenGL wurde von M$ nicht unterstützt).

HOT
2001-08-17, 11:04:12
Um nochmal zur Radeon8500 zu kommen, hat schon jemand tests mit Anisotropic Filtering gesehen? Wäre doch mal sehr interessant :D

Thowe
2001-08-17, 11:04:24
Originally posted by ow



Und 'curved surfaces' in HW. Hat es bis heute nicht mehr gegeben.

Das Problem des NV1 war, dass zu seinem Erscheinen kein brauchbares 3D API für Spiele gab (DirectX war nicht fertig (und eh unbrauchbar bis DX5), OpenGL wurde von M$ nicht unterstützt).




Und dafür waren aber die Fighter in SF2 und der Drache/Prinz? in Panzer/Dragon Lagoon wirklich sowas wie abgerundet.

Aber CS wird die Kyro3 haben. (Kann ich ja jetzt einfach mal behaupten)

Für damalige Zeiten war die Karte echt Klasse.

StefanV
2001-08-17, 11:20:44
Habt ihr alle schon mal was von dem Pyramid3D gehört?? (müßte auch in dieser Zeit gewesen sein)...

Diser Chip hatte sogar eine T&L Einheit!!...

Thowe
2001-08-17, 11:42:24
Ja Nein Ja

Razor
2001-08-17, 13:57:10
Also, mal ganz ehrlich Leute...

Wer benutzt denn heute noch eine NV1 zu gamen ?

Na ja, jedem das seine...
Bin zwar auch nicht dafür ständig dem Upgrade-Wahn zu fröhnen, aber alle 2 Jahre darf es doch schon mal eine neue GraKa sein, oder ?

In diesem Sinne

Razor

Ceiser Söze
2001-08-17, 15:17:29
Das Problem des NV1 lag nicht an einer fehlenden API, sondern die Entscheidung der Chipdesigner, statt Polygone auf QTMs (Quadratic Texture Maps, ein NURBS-Derivat) zu setzen. Die Dinger fanden bei den Spielentwicklern (allen voran John Carmack) überhaupt keinen Gefallen und daher wählte Microsoft mit DirectX auch die wesentlich "entwicklerfreundlicheren" Dreiecke als Standard-Primitive.
Wäre da nicht die Unterstützung von SEGA gewesen (Saturn), hätte der NV1-Flop vermutlich gleichzeitig der Bankrott für nVidia bedeutet...

StefanV
2001-08-17, 16:18:28
Watt'n Pech, daß SEGA sich so für NV eingesetzt hat*eg*...

Ceiser Söze
2001-08-17, 16:25:10
Originally posted by Stefan Payne
Watt'n Pech, daß SEGA sich so für NV eingesetzt hat*eg*...

LOL! :D
Naja, dann würden wir uns heute einfach über 3dfx's Geschäftspolitik ärgern...
Irgendwie ironisch: Da hilft ein Konsolenhersteller einem Grafikchip-Entwickler auf die Sprünge, was für diesen in letzter Konsequenz die Marktführer-Position bedeutet. Der Konsolenhersteller geht hingegen vor die Hunde...

Razor
2001-08-17, 16:29:08
Na ja ...

Sega ist dann ja auch nicht mehr sonderlich innovativ gewesen...
nVidia hingegen ist dann plötzlich zur Hochform aufgelaufen !

Schon merkwürdig, wie das Schicksal so spielt...

Aber wie entscheidend ja auch das richtige Marketing ist, brauch ich hier wohl nicht noch mal zu erwähnen, oder ?

Razor

Ceiser Söze
2001-08-17, 16:44:13
Sega war schon innovativ, aber das Marketing war halt nicht so toll, wie das von Sony mit ihrer total überbewerteten PS2. Die Dreamcast ist der PS2 immer noch in einigen Punkten weit überlegen - eigentlich in allem, was mit dem Grafikchip zusammenhängt (der Graphic Synthesizer ist sowas von *bäh*...).
Auch wieder ein Beweis, dass tolle Spiele bzw. gute Hardware heute nicht mehr ausreichen, wenn ein Konkurrent sein Geld zum grössten Teil ins Marketing pumpt...

StefanV
2001-08-17, 16:53:35
Und vor allendingen kann man die DC an einen PC Monitor hängen!!!

Ceiser Söze
2001-08-17, 17:06:23
Originally posted by Stefan Payne
Und vor allendingen kann man die DC an einen PC Monitor hängen!!!

Kann man die PS2 auch, sieht aber nicht viel besser aus (was will man schon machen bei einem 640x240-Framebuffer)...

Legolas
2001-08-17, 18:18:35
Originally posted by Ceiser Söze
Das Problem des NV1 lag nicht an einer fehlenden API, sondern die Entscheidung der Chipdesigner, statt Polygone auf QTMs (Quadratic Texture Maps, ein NURBS-Derivat) zu setzen. Die Dinger fanden bei den Spielentwicklern (allen voran John Carmack) überhaupt keinen Gefallen und daher wählte Microsoft mit DirectX auch die wesentlich "entwicklerfreundlicheren" Dreiecke als Standard-Primitive.
Wäre da nicht die Unterstützung von SEGA gewesen (Saturn), hätte der NV1-Flop vermutlich gleichzeitig der Bankrott für nVidia bedeutet...

Ein weiterer Grund für den Misserfolg des NV1 dürfte dessen lahme Geschwindigkeit gewesen sein. Soviel ich weiß gab es eine an den NV1 angepasste Descentversion, die zwar gut aussah, aber halt recht langsam lief.

Razor
2001-08-18, 13:13:15
Oh mann Leute...

Der NV1 war der erste Versuch !

Welcher Hersteller hat schon mal mit dem ersten Versuch einen richtigen Treffer gelandet ? Soweit ich weiß war 3dfx die einzige Firma, welche es schaffte gleich ein 'vernünftiges' Produkt an dem Markt zu bringen.

Allerdings sollte man bedenken, daß es eben nur eine AddOn-Karte war und man damit die Probleme anderer Hersteller einfach geschickt umgangen hat... Der erste Veruch eine Kombo-Karte zu kreieren ist dann ja nun auch nicht sonderlich gelungen (Voodoo-Banshee)... Erst die V3 hat's dann hlabwegs geschafft.

Nichts-desto-trotz waren sie diejenigen, welche das Thema 3D als erste 'salonfähig' gemacht haben !

Aber bitte hört doch auf, über die NV1 zu lamentieren. Sonst komm ich mit meiner S3 V64+ oder der Matrox Millenium (die ich immer noch irgendwo 'rum liegen hab'). Mein ältester Rechner (K6-2 300@350) hat noch immer die TNT/Voodoo2-Kombo drin, kommt aber so laaaaangsam nicht mehr mit...
;-)

Razor

Leonidas
2001-08-18, 14:05:55
Mmh. Ich denke nicht, daß eine Site, die bei nVidia auf der schwarzen Liste steht, unbedingt nVidia-lastig zu nennen wäre.


Zu ATi: Ich bezweifele, das ATi noch etwas herausholen kann. ATi hat noch nie schnellere Treiber herausgebracht, nur stabilere.


Zu Deto4: Sicher kann ich nicht sagen, der Deto4 wäre in 20 Benchmarks schneller. Aber von den 3 Benchmarks, die nicht 3DMark und Q3A waren, darauf zu schließen, der Deto4 wäre nur in 3DMark und Q3A schneller, ist wohl ein wenig vermessen. Dafür gibt es zu wenige Test (nur 2) mit dem Deto4, als das man schon so eine differenzierte Behauptung aufstellen kann. Momentan sieht es so aus, als wäre der Deto4 generell schneller - wenn spätere Tests beweisen, daß dies nur in 3DMark und Q3A so ist, müßen wir unsere Meinung korrigieren. Aber noch nicht bei 2 Tests.

PS: Das mit Giants hab ich auch gelesen. 30% sind aber ein Programmierfehler, nichts generelles. Also eine Sache, die noch behoben werden wird. Bei ATi bin ich dagegen gespannt, wann man endlich mal Q2 & Clones in 1280*1024 Vollbild spielen kann - wahrscheinlich nie mehr.

Ceiser Söze
2001-08-18, 14:36:48
Originally posted by Leonidas
Mmh. Ich denke nicht, daß eine Site, die bei nVidia auf der schwarzen Liste steht, unbedingt nVidia-lastig zu nennen wäre.


Was soll denn das konkret heissen? Habt ihr etwa auch schon "Besuch" von nVidias PR-Abteilung gekriegt? ;)

Unregistered
2001-08-18, 14:54:31
Du solltest dich endlich um das "Nvidia-approved" Siegel bemühen, welches nVidia einst Tom's Hardware ausgestellt hat. Dann darfst du in Zukunft sicher auch als erster über Detonator 4 berichten.

Wuzel
2001-08-18, 15:26:58
Ohhh nee - ich mag nimme :(

Also die GF 3 - jeder der die Kauft darf so 20 - 30 % des geldes als eine Spende an die Nvidea Jungs betrachten.
Grund - der pixelshader - in jetziger version unbrauchbar - erst wenn die den leistungsfähiger oder einfach nur zwei reinhauen kann man das ding nutzen - winzigweich baut ja in die wix box auch zwei rein.
Das teil kann zwar tolle sachen machen - aber naja im spiel kann man höchstens ein- zwei kurzeitige schmankerlen efektmässig damit realisieren - oder einfach nur wenig inovativere dinge den ps basteln lassen - was aber mit anderen methoden schneller realisierbar ist.
Hmm naja imerhin haut die karte 120 frames an den 17 zoll elektronen beschleuniger - wers nötig hat ....
Aber auch ATI ist nicht so das super wahre.
Ich komm mir in letztr zeit so richtig verarscht vor.
Erst der T&L Flopp ( momentan ist jeder 1000'er thundi schneller - damals hatte man die leute die gemeint haben das in zukunft, wenn die richtigen t&l games kommen die CPU schneller ist -ausgelacht ! )
dann die Anti trepchen schlappe :(
Kein witz - eine kleine optimierung in die richtige richtung und wir könnten schon 2x2 bei 800x600 mit 60-70 fps ( genau in diesem fps bereich kann man ein spiel als absolut flüssig bezeichnen solang keine grösseren einbrüche eintreten ) zocken - besser und schöner als jeder andere unütze kramm
Und auch das stimmt - die meisten programierer haben bei dem ganzen heilosen dutrcheinander keinen durchblick mehr - hab ich aber schon mal verzählt - wir brauchen endlich mal wieder einheitliche schnitstellen - die auch zum grössten teil dann nutzbare futures aufweisen - kein witz dx kann man momentan nur zu 12 !!! % wirklich effektiv nutzen - max payne kommt z.b auf so knapp 18 % - und das war eine heiden arbeit - nix für durchschnits projekte ( die ja auch interesant sein können ).
Gegenbeispiel - damals Unreal - 60 % auf Glide Schnitstelle - Descent - 47 % auf Glide - und neuer Diablo2 - 38 % auf glide ( frag mich wo die ganzen effekte wohl abgeblieben sind - haben wohl mehr die performance futures angeprogt - tread masked ? )
Quake 2 - 70 % !!!! auf Open Gl
Half Life - knapp 50 % auf Open Gl

seuuufz

Ich will glide 2 das spart massig entwicklungszeit und kosten - die ersten specs waren ja nur goil - nvidea bitte bitte nutze die patente - pleassse :(
wer zum henker will den Dx 8 wenn man es nur in 2 Jahren so richtig nutzen kann - und dann gibts ja schon dx 9 oder 10 ?
Dammm ich kauf mir nen sega fernehquäler oder nen ps 2 aber keine graka für 1000 stutz - die maximal 1 jahr lang überlebt und dann nicht mal richtig zum einsatz kam .....

Thowe
2001-08-18, 15:53:19
Kurz: ?-) ;)

BTW: Ich find DX8 richtig gut.

Ohne neue und komplexe Funktionen können wir auch gleich alle unsere Voodoo 1 Karte in den Rechner packen und auf den Fortschritt verzichten.

Was wäre eine neue HighEnd Grafikkarte ohne neue Funktionen und wenn man sich nur die Tech Demos anschaut, es muss doch erst einmal der Bedarf daran geweckt werden.

BTW2: Beim Zoltar Demo bin ich ein wenig verwirrt wegen der Aussage "Psssst, bye Nvidia" ... ;)

BTW3: Man nehme die Spiele die man spielt und wählt passend dazu die Grafikkarte, wer nur nach Specs geht ...

Razor
2001-08-18, 20:05:06
Aber doch hoffentlich nicht abwechselnd, so wie Stfan Payne erst kürzlich schrieb ...
;-)

Ansonsten kann ich dem nur zustimmen:

Neue Technik braucht das Land !

DX8, gf3 und r200 sind schon richtig gut, den so kommt entlich mal wieder frischer Wind ins Grafik-geschäft...

Weiter so !

Razor

Razor
2001-08-18, 20:06:04
Muß mich endlich mal wieder um korrekte Schreibweise bemühen...
;-)