PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Geforce gegen Ati Radeon


Hansmaulwurf
2002-05-16, 10:39:21
Ich möchte mir gerade einen neuen pc zusammenstellen, und nun
bin ich schwer am überlegen welche Graka ich mir holen soll!!!

ATI RadeOn 8500(64mb) le oder: GF3Ti200 (128)

Helft mir!!!!

Hansmaulwurf
2002-05-16, 10:42:31
Originally posted by Hansmaulwurf
Ich möchte mir gerade einen neuen pc zusammenstellen, und nun
bin ich schwer am überlegen welche Graka ich mir holen soll!!!

ATI RadeOn 8500(64mb) le oder: GF3Ti200 (128)

Helft mir!!!!

Haarmann
2002-05-16, 11:14:04
Radeon 128mb LE wär doch auch nett...

aths
2002-05-16, 12:27:11
Die Radeon8500 LE hat mehr Features als die GF3Ti200. Von der Geschwindigkeit her nehmen sich beide praktisch nichts.

Unregistered
2002-05-16, 12:52:40
Originally posted by aths
Die Radeon8500 LE hat mehr Features als die GF3Ti200. Von der Geschwindigkeit her nehmen sich beide praktisch nichts.

Doch die LE ist um ein gutes Stück schneller.
Die hinkt nur 10% hinter der Retail nach.

best regards
Labberlippe

StefanV
2002-05-16, 14:31:34
Originally posted by Unregistered


Doch die LE ist um ein gutes Stück schneller.
Die hinkt nur 10% hinter der Retail nach.

best regards
Labberlippe

Jep, so ist es ;)

Die Radeon ist meist schneller als eine GF3 TI200...

Auch ist sie nicht weit von der TI500 weg...

Birdman
2002-05-16, 18:41:30
würd auch sagen dass die LE meistens schneller ist als die ti200, und würd die karte eher gegen die orig. GF3 ansetzten.

Dunkeltier
2002-05-16, 18:44:46
Ich würde die Radeon 8500LE kaufen, hat einen besseren TV-Out und ist schneller. Und läßt sich in 98% aller Fälle (wie bei mir) auf -Retailtakt- anheben. :D

Nvidia Fan
2002-05-16, 18:50:21
Wer sagt hier das die Geforce langsamer ist, wo hast du denn das her !! Oder besser geasgt aus welchen Spiel/ Benchmark hast du das???

Dunkeltier
2002-05-16, 18:52:05
Originally posted by Nvidia Fan
Wer sagt hier das die Geforce langsamer ist, wo hast du denn das her !! Oder besser geasgt aus welchen Spiel/ Benchmark hast du das???

Dürfte doch allgemein bekannt sein, das die Geforce 3 Ti-200 nicht ganz mit einer Radeon 8500LE mithalten kann. Ich werde erst gar nicht auf deine Flamerei eingehen, denn wie dein Name schon sagt hat es keinen Zweck sich mit dir zu unterhalten...

Major J
2002-05-16, 18:59:42
Originally posted by Stefan Payne


Jep, so ist es ;)

Die Radeon ist meist schneller als eine GF3 TI200...

Auch ist sie nicht weit von der TI500 weg...

Traurig, aber wahr. :D

Micron
2002-05-16, 20:27:58
Ja nimm die ATI8500 ist etwas schneller als die GF3TI200 und hat ein besseres Bild. Aber dafür ist die Karte nicht so kompatible zu Spielen wie die GeForce. Z.B. läuft Soul Reaver 2 nur mit dem neuen Patch ohne funtzt es gar nicht.

Dunkeltier
2002-05-16, 20:31:17
Originally posted by Blackmagic
Ja nimm die ATI8500 ist etwas schneller als die GF3TI200 und hat ein besseres Bild. Aber dafür ist die Karte nicht so kompatible zu Spielen wie die GeForce. Z.B. läuft Soul Reaver 2 nur mit dem neuen Patch ohne funtzt es gar nicht.

Und die Geforce ist auch nicht gerade zu allen kompatibel...

joergd
2002-05-16, 20:34:04
wenn du nur die beiden Varianten zur Wahl stellst, würde ich auch sagen, die RadeonLE oder Retail (hier gibt´s gute Preise, da habe ich meine her: http://www.e-bug.de/index-shop.htm )

Anders sieht es aus, wenn du die GF4Ti200 mit ins Kalkül ziehst - die ist von der reinen 3d Performance besser und beim Preis ziemlich gleich.

edit: da ist z.Z. folgendes Angebot:
ENMIC HIS 64MB Radeon8500 TV/DVI +RP
ArtNr. 1604
!!!! Gebrauchtartikel / Restposten !!!!
!!!! 12 Monate Gewährleistung !!!!
!!! TreiberCD,DVI-Adapter,SVHS-Kabel !!! 192.12 EUR

Schätze mal, die wurden wegen 4ns Speicher zurückgegeben, läuft aber trotzdem werkseitig auf 275/275, hat vor 2 Monaten noch 60€ mehr gekostet.

Micron
2002-05-16, 20:35:05
Originally posted by Black Cow


Und die Geforce ist auch nicht gerade zu allen kompatibel...

Also ich hatte bis jetzt noch kein Problem irgendeinem Spiel. Aber mit sicherheit wird es auch Spiele geben die nicht so toll mit GeForce Karten laufen das streite ich gar nicht ab.

Dunkeltier
2002-05-16, 20:36:02
Originally posted by joergd
wenn du nur die beiden Varianten zur Wahl stellst, würde ich auch sagen, die RadeonLE oder Retail (hier gibt´s gute Preise, da habe ich meine her: http://www.e-bug.de/index-shop.htm )

Anders sieht es aus, wenn du die GF4Ti200 mit ins Kalkül ziehst - die ist von der reinen 3d Performance besser und beim Preis ziemlich gleich.

Ne, während du Radeon 8500LE Karten für 179 €uro findest, darfst du für eine Geforce 4 Ti 4200 (64 MB) mind. 220 €uro hinlegen.

Micron
2002-05-16, 20:38:14
Originally posted by Black Cow


Ne, während du Radeon 8500LE Karten für 179 €uro findest, darfst du für eine Geforce 4 Ti 4200 (64 MB) mind. 220 €uro hinlegen.
Dafür ist die 4200 auch um einiges schneller als die Radeon 8500LE

Anárion
2002-05-16, 21:27:16
Japp...und für 230$ gibs ne 4400 von MSI! :)

StefanV
2002-05-16, 21:36:48
Originally posted by Blackmagic
Also ich hatte bis jetzt noch kein Problem irgendeinem Spiel. Aber mit sicherheit wird es auch Spiele geben die nicht so toll mit GeForce Karten laufen das streite ich gar nicht ab.

Na dann kram mal die Kiste mit den Voodoo optimierten D3D Games raus, da findest sicher das eine oder andere, das mies-garnicht läuft *eg*

Ultima9, Diablo2 und Midtown Madness sind nur einige Beispiele...

Auch sind Konsolenumsetzungen nicht ganz unproblematisch (Soulreaver soll auch auf NV Karten Probleme machen)...

Micron
2002-05-16, 21:45:37
Originally posted by Stefan Payne


Na dann kram mal die Kiste mit den Voodoo optimierten D3D Games raus, da findest sicher das eine oder andere, das mies-garnicht läuft *eg*

Ultima9, Diablo2 und Midtown Madness sind nur einige Beispiele...

Auch sind Konsolenumsetzungen nicht ganz unproblematisch (Soulreaver soll auch auf NV Karten Probleme machen)...

Also bei mir läuft Soul Reaver eigentlich ok. Stimmt Ultima9 läuft nicht aber kann bei mir auch am XP liegen.

Exxtreme
2002-05-16, 21:46:26
@ Stefan Schmärz
Das Thema hatten wir schon 1000 mal. Es gibt keinen perfekten Treiber, der zu allen Games kompatibel ist - egal von welchem Hersteller er kommt. Lass gut sein.

Gruß
Alex

Birdman
2002-05-16, 23:57:16
jep, denn wenn wir in der Kiste kramen, dann finden wir auch brutal viel spiele die ned auf der Ati, kyro2, G400 und was weiss ich immer laufen.

btw. die Ati8500 suckt, denn auf der kann man TombRaider ned 3D beschleunigt spielen ;)

Quasar
2002-05-17, 00:30:37
Na wenn wir hier unwahrscheinliche Fälle konstruieren wollen, in denen uralt-Games nicht auf heutigen Produkten laufen brauchen wir uns nur DOS-Spiele anschauen und das mit Karten versuchen zum Laufen zu bringen, für die es keine Win9x-Treiber mehr gibt.

Was bedeutet das schon???

Richtig, nichts!

Glide-only Games sind eben nur mit Voodoos oder per Wrapper spielbar (einige wenige im Software-Modus), genauso wie's einige Games gibt, die eben auf anderen Karten nicht laufen. 100% Kompatilität sind eine Utopie.

Meta
2002-05-17, 09:19:58
Nimm die Radeon LE und oc sie.

Oder ne G4 Ti4200 wenn du das Geld ausgeben möchte, denn die kannste auch super overclocken.

Euer Meta

ZilD
2002-05-24, 08:21:12
btw. die Ati8500 suckt, denn auf der kann man TombRaider ned 3D beschleunigt spielen


rofl!


das sieht auf mein alten PIII 450 @ 600 im softwaremodus schon besser aus als damals mit der voodoo1+P200MMX.
*g* =)

wenn man direct x 8 bzw. 8.1 grafikkarten miteinander vergleicht dann sollte man auch direct x 8 bzw. 8.1 games verwenden und keine 'verstaubten'.
=)

M O
2002-05-25, 11:13:23
ti4200 is doch klar wart nur noch 2-3 wochen preis fällt

StefanV
2002-05-25, 13:49:26
Originally posted by M O
ti4200 is doch klar wart nur noch 2-3 wochen preis fällt

http://www.forum-hardtecs4u.com/cgi-bin/YaBB/YaBB.cgi?board=grafka&action=display&num=1021995691

^da is jemand aber anderer Meinung *eg*

M O
2002-05-25, 15:21:21
ti4200 ist auf jeden fall besser schon beim oc läuft dann so schnell wie ne ti4400

und vwergiss nicht im august-septeber kommt NV30 neue design
und anfang 2003 NV35

umunmstritten sind zur zeit die nVidea Geforce die schnellsten karten am markt

bis ati einen neuen chip vorstellt hat nVidea 2 neuvorstellungen warum glaubst du sind sie nunmal der platzhirsch aufn markt

kann sich natuerlich ändern aber solang nvidea mit soner geschwiendikeit entwikellt glaub ich kaum das sie einzuholen sind un nun haben sie auch noch dfx aufgekauft das heist noch mehr entwikler

Dunkeltier
2002-05-25, 17:15:17
Originally posted by M O
ti4200 ist auf jeden fall besser schon beim oc läuft dann so schnell wie ne ti4400

und vwergiss nicht im august-septeber kommt NV30 neue design
und anfang 2003 NV35

umunmstritten sind zur zeit die nVidea Geforce die schnellsten karten am markt

bis ati einen neuen chip vorstellt hat nVidea 2 neuvorstellungen warum glaubst du sind sie nunmal der platzhirsch aufn markt

kann sich natuerlich ändern aber solang nvidea mit soner geschwiendikeit entwikellt glaub ich kaum das sie einzuholen sind un nun haben sie auch noch dfx aufgekauft das heist noch mehr entwikler

Ich will mich in kurzen Stichpunkten zusammenfassen:
Das die Geforce Ti 4400 die Takte einer Geforce Ti 4600 erreicht, ist nicht garantiert. Es läßt sich auch nicht jede Ati Radeon 8500 LE mit dem Takt der Ati Radeon 8500 Retail betreiben.
Die Firma Ati wird sicherlich nicht Nvidia alleine den DX9 Markt überlassen, sprich Ati wird entsprechende Produkte "gegen" Nvidia schon vorbereitet haben.
Das streitet keiner ab, das die Geforce 4 Ti Karten die derzeit schnellsten auf dem Markt sind. Dementsprechend hoch ist auch das Preissegment, in dem sich die Karten bewegen.
Ja super, NVidia "wirft" Produkte wie dem derzeit in Entwicklung befindlichen NV18 auf dem Markt. Alte, recycelte Hardware die kein Mensch braucht. Aber deswegen ist dies keine "Neuvorstellung", so wie du es nennen möchtest.
Ich glaube, das sich langsam aber sicher was ändern wird. NVidia´s Markmacht fängt an zu bröckeln wie einst AMD aufholte und sich immer klarer gegen Intel behaupten konnte. Zwar mögen Intel und NVidia derzeit noch die meisten Markanteile besitzen, aber dank der Konkurrenz schmilzt der Vorsprung dahin. Sie haben übrigens nicht dfx, sondern 3d-fx (später nur noch 3dfx genannt) aufgekauft...

Thr33pW00d
2002-05-25, 18:38:22
Originally posted by M O


... umunmstritten sind zur zeit die nVidea Geforce die schnellsten karten am markt...
kommt auch drauf an welche spiele man spielt, da die meisten spiele (leider) auf nvidia grafikkarten programmiert werden, ist dies ein argument für den kauf einer gf4
wenn man aber spiele anschaut wie z.b.: jedi knight 2 (http://www.tomshardware.com/graphic/02q2/020522/ti4400_4600-13.html), sieht man, dass die radeon 8500 nur um ca. 5 fps schwächer ist und das potenzial einer gf4 in sich trägt ...

Andre
2002-05-25, 18:44:15
Originally posted by Thr33pW00d

kommt auch drauf an welche spiele man spielt, da die meisten spiele (leider) auf nvidia grafikkarten programmiert werden, ist dies ein argument für den kauf einer gf4
wenn man aber spiele anschaut wie z.b.: jedi knight 2 (http://www.tomshardware.com/graphic/02q2/020522/ti4400_4600-13.html), sieht man, dass die radeon 8500 nur um ca. 5 fps schwächer ist und das potenzial einer gf4 in sich trägt ...

Naja, JK 2 ist wohl etwas CPU limitiert oder wie erklärst du dir, dass der Unterschied zwischen einer TI4600 und der TI4400 ca. 1-2 FPS bei dem Bench ist?

M O
2002-05-25, 19:45:29
Originally posted by Black Cow



Ja super, NVidia "wirft" Produkte wie dem derzeit in Entwicklung befindlichen NV18 auf dem Markt. Alte, recycelte Hardware die kein Mensch braucht. Aber deswegen ist dies keine "Neuvorstellung", so wie du es nennen möchtest.
[/list]
meinte keine low kost produckte meinte neuerscheinungen nv20-nv25-nv30 usw

und das denn nv18 keiner braucht bin ich nicht deiner meinung nvdiea wird doch keinen chip herstellen dn sie nicht verkaufen kann ???? low kost

ich werde mir zur zeit sicher keine ati kaufen den die neue kostet auch 270€ um das geld bekomm ich was besseres

mal sehen was ati bringt oder matrox ob sie mithalten können mit nvidea wenn sie bessere und schnellere chips bringen np für mich kaufe ich halt diese ich will ja das max haben fuers gleiche geld und zur zeit ist das halt nvidea

Salvee
2002-05-25, 20:20:24
@ andre

Und wie erklärst du Dir, dass die GF3 recht deutlich zurückliegt :biggrin: ?

Dunkeltier
2002-05-25, 20:41:22
Originally posted by M O

meinte keine low kost produckte meinte neuerscheinungen nv20-nv25-nv30 usw

und das denn nv18 keiner braucht bin ich nicht deiner meinung nvdiea wird doch keinen chip herstellen dn sie nicht verkaufen kann ???? low kost

ich werde mir zur zeit sicher keine ati kaufen den die neue kostet auch 270€ um das geld bekomm ich was besseres

mal sehen was ati bringt oder matrox ob sie mithalten können mit nvidea wenn sie bessere und schnellere chips bringen np für mich kaufe ich halt diese ich will ja das max haben fuers gleiche geld und zur zeit ist das halt nvidea

So, so. Neuerscheinungen? Der NV25 ist keine Neuerscheinung, sondern nur ein (wenn auch guter) Aufguss wie der NV18 einer wird. Aber Generations und featuremäßig liegen Ati und NVidia gleichauf.

Eine Ati kostet 270 €uro? Sicher doch, wenn du dir ein vergoldetes Exemplar gönnst. Ati´s gibts bei mir um die Ecke für 179 €uro, gesehen wurden sie auch schon für 149 €uro. Da scheinen wohl kleine Differenzen zwischen deinen Phantasie- und meinen angegebenen Beträgen zu liegen. Jedenfalls ist das kein Argument. Deinen dritten Abschnitt verstehe ich nicht, das meine ich ernst. Überarbeite bitte etwas die Grammatik, und benutze auch mal ein paar Satzzeichen...

ow
2002-05-25, 20:52:39
Originally posted by Andre


Naja, JK 2 ist wohl etwas CPU limitiert oder wie erklärst du dir, dass der Unterschied zwischen einer TI4600 und der TI4400 ca. 1-2 FPS bei dem Bench ist?


Scheint mir auch so.

Meine Kyro1 bringt von 640 bis 1024 in 32Bit exakt dieselben fps beim Bench.

LovesuckZ
2002-05-25, 21:34:47
"Das die Geforce Ti 4400 die Takte einer Geforce Ti 4400 erreicht, ist nicht garantiert."

*Hust*

M O
2002-05-25, 22:10:22
Originally posted by Black Cow



Eine Ati kostet 270 €uro? Sicher doch, wenn du dir ein vergoldetes Exemplar gönnst. Ati´s gibts bei mir um die Ecke für 179 €uro, gesehen wurden sie auch schon für 149 €uro. Da scheinen wohl kleine Differenzen zwischen deinen Phantasie- und meinen angegebenen Beträgen zu liegen.

sei froh das es NV gibt denn wenn es NV nicht geben würde würde ATI seine Grakas nicht zum schleuderpreis hergeben aber so müssen sie schauen das sie doch einige grakas verkaufen können

bei erscheinung hat die ATI 270€ gekostet und nun 149€ dank nVidea

Dunkeltier
2002-05-25, 22:16:33
Originally posted by M O


sei froh das es NV gibt denn wenn es NV nicht geben würde würde ATI seine Grakas nicht zum schleuderpreis hergeben aber so müssen sie schauen das sie doch einige grakas verkaufen können

bei erscheinung hat die ATI 270€ gekostet und nun 149€ dank nVidea

Der letzte Satz ist köstlich. Als ob der Preis letztlich nur der Verdienst NVidia wäre. :lol:

M O
2002-05-25, 22:31:45
hehe aber zunm teil 100% wenn ati keine rivalen hätte wäre die radeon sicher nicht mit den preis so am boden


mir ist wurst welche graka hersteller mein ich, jeder das seine
aber zur zeit hab ich ne ti4400 und bin sehr zufrieden ich kauf ca. alle 1.5 jahren ne graka

hier mal was ich hatte letzter zeit

ati
matrox
hercules voodo
tnt2 asus deluxe
gforce2 asus deluxe
gforce4 msi

und vorher noch einige weiss hersteller nicht mehr

war aber mit allen karten zufrieden
und wenn in 1-2 jahren ati,matrox oder wer anderer bessere grakas macht als nvdia dann kauf ich diese

aber zur zeit bin ich sehr zufrieden mit nvidea denn die ti4400 ist meine 3 nv karte und keine einzige hat mich entäuscht

und die deluxe versionen was bei asus gibt sind auch uber

Lightning
2002-05-25, 22:42:53
@ M O
Nix gegen dich, aber ist es eigentlich so schwer einmal das Wort nvidia richtig zu schreiben? Bei dir les ich dauernd nvidea
oder sogar nvdia etc. Hat mich grad irgendwie gestört beim lesen :D

Wirklich enttäuscht war ich auch noch nicht von einer nVidia Karte, aber die Kyro2 und meine jetzige Radeon 8500 haben mich noch viel mehr überzeugt. Achja, und wann hattest du deine letzte ATI-Graka? Da hat sich nämlcih grade in letzter Zeit ziemlich was getan ;)

M O
2002-05-25, 22:52:27
ati das ist ewig her denk mal 5++ jahre oder sogar länger das war damals als die voodos kamen

kann ja sein das meine nächste eine ati ist werd ich sehen was sich tut in den nächsten 1-2 jahren

Lightning
2002-05-25, 22:56:26
Moment mal, wenn deine letzte ATI Karte fünf Jahre her ist, wie kannst du dann sagen dass Karten von nVidia zur Zeit so viel besser sind? Zu der Zeit gabs nVidia wahrscheinlich noch nicht mal *g*. Du hast doch gar keinen Vergleich!

StefanV
2002-05-25, 23:00:49
Originally posted by M O
ati das ist ewig her denk mal 5++ jahre oder sogar länger das war damals als die voodos kamen

kann ja sein das meine nächste eine ati ist werd ich sehen was sich tut in den nächsten 1-2 jahren

LOL, warum hab ich mir sowas bloß gedacht??

'ATI ist scheiße, die Rage Pro von denen ist der letzte Dreck, ich fasse nie wieder ATI an'...

Da fehlen mir die Worte...

Hast du schonmal 'ne Riva128 gesehen??

Zur damaligen Zeit war alles Schrott (2. Generation, 1997)...

M O
2002-05-25, 23:20:57
doch 2 freunde von mir haben eine radeon und haben probs
mus aber nicht die graka schuld sein

ne solange nvidia gleich schnell oder schnellere karten hat werd ich sicher keine andere angreifen denn die letzten jahre hatte ich keine probs mit diesen karten

Dunkeltier
2002-05-25, 23:24:21
Originally posted by M O
doch 2 freunde von mir haben eine radeon und haben probs
mus aber nicht die graka schuld sein

ne solange nvidia gleich schnell oder schnellere karten hat werd ich sicher keine andere angreifen denn die letzten jahre hatte ich keine probs mit diesen karten


Ja, die neuen ATI´s sind wie störrische Wildpferde. Hat man sie aber erst einmal gezähmt, rennen sie wie sau! Ich habe mittlerweile auch alles im Griff, war schon kurz davor wieder ins NVidialager ("AHHH! Todfeind!") zu wechseln.

Lightning
2002-05-25, 23:26:16
Ok, wenns dir nur um die Reine Geschwindigkeit geht, und dir der Preis und einige andere Sachen (SQ, Tv-Out etc.) egal sind, sind nVidia Karten für dich erste wahl.

Quasar
2002-05-26, 00:04:15
Originally posted by Stefan Payne

Hast du schonmal 'ne Riva128 gesehen??

Zur damaligen Zeit war alles Schrott (2. Generation, 1997)...

So ein Blödsinn....selbst 3DMark2001SE läuft mit 'ner Riva128 noch...

Exxtreme
2002-05-26, 00:10:47
Originally posted by Quasar


So ein Blödsinn....selbst 3DMark2001SE läuft mit 'ner Riva128 noch...
Aber schon Final Reality wird nicht korrekt gerendert, bei 3DMark99 gibt es Grafikfehler beim Wasserfall, 3DMark2000 hat extrem starke Texturierungsfehler und von 3DMark2001 reden wir lieber gar nicht.

Gruß
Alex

AlfredENeumann
2002-05-26, 00:42:15
Originally posted by Quasar


So ein Blödsinn....selbst 3DMark2001SE läuft mit 'ner Riva128 noch...

und mit ner Rage nicht ?

Doomtrain
2002-05-26, 00:45:45
Originally posted by Quasar


So ein Blödsinn....selbst 3DMark2001SE läuft mit 'ner Riva128 noch...

Aber wohl kaum auf Default!

Piffan
2002-05-26, 17:49:06
Jetze ich auch noch! :D

Hier wird ein Scheiß verzapft, dass man nicht weiß, ob man lachen oder weinen soll...

Nun auch meine "Ergüsse"

1.Kompatibilität: Sicher nicht hundertprozentig, aber was mir auffällt: Ich habe mit meinen Nvidias nicht ein einziges Spiel/Demo erlebt, das nicht lief!! Soul Reaver: Habe eine Version von der Computerblöd- Spiele: Rennt wie die Sau, mit AF und FSAA, no Probs. Ultima 9: Rennt sehr flott, habe allerdings einen D3d- Patch installiert und eine genial aufgemotzte Ini von einem Sportfreund hier von diesen Seiten.... spiele es allerdings trotz hübscher Optik und guter Performance in diesem Leben nicht mehr durch, weil mich das banale Gelaber und die hirnverbrannte Story ankotzen.. Tombraider: rennt unter dos hardwarebeschleunigt auch auf meinem Nvidiasystem megaklasse, weil ich eine meiner beiden Voodoo2 nie mehr hergebe "streichel". :D

Für die gute Kompatibilität gibts natürlich eine ganz simple Erklärung: a) waren die Ati- Treiber bis zur Radeon 1 Schrott im Quadrat, b) hat Nv- Hardware die größte Verbreitung und darum wird kein Hersteller es wagen, ein Spiel rauszuwerfen, daß nicht läuft auf NV...die Ati- Jünger sind ja schon Kummer gewohnt und in ihrer ausgeprägten Leidensfähigkeit verschweigen sie Probs eher schamhaft...Teilweise verklären die das ganze pseudoromantisch: "wie ein ungezähmtes Wildpferd, aber nun rennt es wie Sau"... Na klasse.


2. Benches/Performance: Ein Witz, wenn man nicht so bencht, daß die Graka voll ans Limit fährt... Darum ist der Test von Jk2 voll für den Arsch... WEnn überhaupt, dann muß man wohl alle Optionen auf Max stellen und mit AF plus FSAA benchen.....

Was mir da noch einfällt: Obwohl ich "nur" ne G3Ti200 habe, kann ich bei den letzten drei "großen" Spielen der Q3- Engine alle Settings im Spiel auf max stellen und mir trotzdem noch FSAA und AF gönnen.... War eine Generation vorher (GF2Ultra) völlig ausgeschlossen...

Natürlich ist bei NV nicht alles Gold was glänzt, z.B. wird mein Bild unter 1600x1200 recht unscharf, aber bei meinem alten 17er gehe ich eh nie über 1024x768, in Spielen nutze ich FSAA.... Aber wer hier ist schon Profi und brauch total scharfe Bilder in 2D?

Was aber auch Freude macht: Echtes 3d in Stereo... bietet für den Gamer nur Nvidia...

Dunkeltier
2002-05-26, 18:04:18
Originally posted by Piffan
Jetze ich auch noch! :D

Hier wird ein Scheiß verzapft, dass man nicht weiß, ob man lachen oder weinen soll...

Nun auch meine "Ergüsse"

1.Kompatibilität: Sicher nicht hundertprozentig, aber was mir auffällt: Ich habe mit meinen Nvidias nicht ein einziges Spiel/Demo erlebt, das nicht lief!! Soul Reaver: Habe eine Version von der Computerblöd- Spiele: Rennt wie die Sau, mit AF und FSAA, no Probs. Ultima 9: Rennt sehr flott, habe allerdings einen D3d- Patch installiert und eine genial aufgemotzte Ini von einem Sportfreund hier von diesen Seiten.... spiele es allerdings trotz hübscher Optik und guter Performance in diesem Leben nicht mehr durch, weil mich das banale Gelaber und die hirnverbrannte Story ankotzen.. Tombraider: rennt unter dos hardwarebeschleunigt auch auf meinem Nvidiasystem megaklasse, weil ich eine meiner beiden Voodoo2 nie mehr hergebe "streichel". :D

Für die gute Kompatibilität gibts natürlich eine ganz simple Erklärung: a) waren die Ati- Treiber bis zur Radeon 1 Schrott im Quadrat, b) hat Nv- Hardware die größte Verbreitung und darum wird kein Hersteller es wagen, ein Spiel rauszuwerfen, daß nicht läuft auf NV...die Ati- Jünger sind ja schon Kummer gewohnt und in ihrer ausgeprägten Leidensfähigkeit verschweigen sie Probs eher schamhaft...Teilweise verklären die das ganze pseudoromantisch: "wie ein ungezähmtes Wildpferd, aber nun rennt es wie Sau"... Na klasse.


2. Benches/Performance: Ein Witz, wenn man nicht so bencht, daß die Graka voll ans Limit fährt... Darum ist der Test von Jk2 voll für den Arsch... WEnn überhaupt, dann muß man wohl alle Optionen auf Max stellen und mit AF plus FSAA benchen.....

Was mir da noch einfällt: Obwohl ich "nur" ne G3Ti200 habe, kann ich bei den letzten drei "großen" Spielen der Q3- Engine alle Settings im Spiel auf max stellen und mir trotzdem noch FSAA und AF gönnen.... War eine Generation vorher (GF2Ultra) völlig ausgeschlossen...

Natürlich ist bei NV nicht alles Gold was glänzt, z.B. wird mein Bild unter 1600x1200 recht unscharf, aber bei meinem alten 17er gehe ich eh nie über 1024x768, in Spielen nutze ich FSAA.... Aber wer hier ist schon Profi und brauch total scharfe Bilder in 2D?

Was aber auch Freude macht: Echtes 3d in Stereo... bietet für den Gamer nur Nvidia...

Eigentlich wollte ich ja die Fresse halten, aber wer mich hier zitiert... :D Was du als "pseudoromantisches Gelaber" abtust, ist und bleibt nun mal die Wahrheit. Meine ATi Radeon benimmt sich in etwa so wie meine Kyro II damals. Störrisch, wild und dickköpfig. Auch auf der Kyro II wollten bei mir anfangs nicht immer alle Spiele perfekt laufen (AVP 2, Red Faction, usw.), aber mit einen neuen Treiberupdate oder etwas Registry tweaking ließ sich alles in den Griff bekommen.

Und ich kenne auch die NVidia Karten, die mögen zwar weniger solche "Ausfälle" haben, dennoch sind sie auch bei denen vorhanden. Woher du im übrigen die ATi Formel hast (die ich ganz witzig finde), bleibt mir schleierhaft. ;)

Exxtreme
2002-05-26, 18:17:19
Originally posted by Piffan

Für die gute Kompatibilität gibts natürlich eine ganz simple Erklärung: a) waren die Ati- Treiber bis zur Radeon 1 Schrott im Quadrat, b) hat Nv- Hardware die größte Verbreitung und darum wird kein Hersteller es wagen, ein Spiel rauszuwerfen, daß nicht läuft auf NV...
Zu a:
Also ich empfand die R100-Treiber als doch relativ gut. Das einzige Manko war, daß diese nicht besonders schnell waren. Mit der R8500 hat sich aber der Treibersupport IMHO deutlich verbessert.

Zu b:
Richtig. Die Wahrscheinlichkeit, daß Neuerscheinungen gut laufen ist bei nVidia-HW am höchsten. Nur wenn ein Spiel ausschl. auf NV-HW richtig läuft zeugt es nicht gerade von Qualitätarbeit einer Spieleschmiede und man muss dann auch damit rechnen, daß das Game nicht nur Probs mit der GraKa hat - siehe Fish Tank/Massive mit AquaBugs und diese Firma muss damit rechnen, daß sich Leute mit Nicht-NV-HW das fehlerhafte Game nicht holen. Und auch Besitzer von NV-HW sind vor Bugs nicht immer gefeilt, siehe Savegame-Bug bei JK2.

Originally posted by Piffan

die Ati- Jünger sind ja schon Kummer gewohnt und in ihrer ausgeprägten Leidensfähigkeit verschweigen sie Probs eher schamhaft...Teilweise verklären die das ganze pseudoromantisch: "wie ein ungezähmtes Wildpferd, aber nun rennt es wie Sau"... Na klasse.

Sorry, aber hier scherst du _alle_ "ATi-Jünger" über einen Kamm und unterstellst ihnen Leidensfähigkeit und daß wir Kummer gewohnt sind. Und solche Pauschalierungen finde ich nur noch arm.

Gruß
Alex

Piffan
2002-05-26, 18:18:47
Originally posted by Black Cow


Und ich kenne auch die NVidia Karten, die mögen zwar weniger solche "Ausfälle" haben, dennoch sind sie auch bei denen vorhanden. Woher du im übrigen die ATi Formel hast (die ich ganz witzig finde), bleibt mir schleierhaft. ;)

Na gut, die Potenz habe ich nur angefügt, um dem Niveau dieses Threads gerecht zu werden...:D Korrekt muß es also "Schrott" heißen ;D

Piffan
2002-05-26, 18:27:13
Originally posted by Exxtreme

Zu a:

Sorry, aber hier scherst du _alle_ "ATi-Jünger" über einen Kamm und unterstellst ihnen Leidensfähigkeit und daß wir Kummer gewohnt sind. Und solche Pauschalierungen finde ich nur noch arm.

Gruß
Alex [/B]

Stimmt, ist richtig ungezogen von mir. :naughty:

Genauso verwahre ich mich gegen die Pauschalisierung, daß der einzige Vorzug der Nvidias ihre Geschwindigkeit sei.. Kommt in diesen Foren auch oft vor... :finger:

Ich meine es übrigens nicht hundertprozentig ernst, es amüsiert mich nur immer wieder, wie stur die Fraktionen immer wieder die selben Parolen abziehen, da wollte ich mal richtig mitmischen...;)

- Hoffentlich ist der verdammte Download von diesem verdammten Doom3- Video endlich beendet -

Arrgh, erst 86%, und das trotz DSL :(

Iceman346
2002-05-26, 18:40:17
Also JK2 habe ich auf meiner LE auch mit 2x Quality SV und max Aniso gespielt. Sieht klasse aus damit das Spiel :)

jedi
2002-05-26, 21:04:29
Originally posted by Exxtreme
Richtig. Die Wahrscheinlichkeit, daß Neuerscheinungen gut laufen ist bei nVidia-HW am höchsten. Nur wenn ein Spiel ausschl. auf NV-HW richtig läuft zeugt es nicht gerade von Qualitätarbeit einer Spieleschmiede und man muss dann auch damit rechnen, daß das Game nicht nur Probs mit der GraKa hat - siehe Fish Tank/Massive mit AquaBugs und diese Firma muss damit rechnen, daß sich Leute mit Nicht-NV-HW das fehlerhafte Game nicht holen[/B]

Diese Frage ist für Gamer irrelevant. Ein Gamer will keine Ausreden und Schuldzuweisungen hören, sondern die Hardware haben, die mit Spielen am besten läuft. Und am unproblematischsten ist ohne Zweifel die GeForce-Reihe von nVidia.

Exxtreme
2002-05-26, 21:14:45
Originally posted by jedi

Diese Frage ist für Gamer irrelevant. Ein Gamer will keine Ausreden und Schuldzuweisungen hören, sondern die Hardware haben, die mit Spielen am besten läuft. Und am unproblematischsten ist ohne Zweifel die GeForce-Reihe von nVidia.
So kann man es auch sehen. Es ist halt die Problematik mit dem halbgefüllten Glas - halbvoll oder halbleer? Andererseits will der Gamer auch Games, die mit vorhandener HW am Besten laufen und das sollte in Zeiten von Direct3D gegeben sein da diese API herstellerunabhängig ist. Wenn eine Spieleschmiede einfach unfähig ist zu programmieren, dann wird sie untergehen. Ich hörte AquaNox war nicht der Verkaufsschlager... warum wohl? Schau mal ins AquaNox-Forum rein. Das Spiel ist immer noch vebuggt ohne Ende, die Leute warten auf einen Patch und die Leute von Massive/Fish Tank haben seit Monaten nichts von sich hören lassen. Deren Ruf ist ruiniert. Die verkaufen so schnell kein Game mehr. Also nicht immer den Grafikkartenhersteller die Schuld in die Schuhe schieben sondern auch den Programmierern der Games.

Gruß
Alex

Oli_Immerschoen
2002-05-26, 21:17:26
>>>> Diese Frage ist für Gamer irrelevant<<<<<<


Dafür ist für manche Gamer aber viel weniger "irrelevant" daß sich Marktführer NVidia diese, gelinde ausgedrückt, geringfügig höhere Kompatibilität teuerst bezahlen läßt; ich behaupte ohne die Radeon8500 hätte es die GF4TI4200 niemals gegeben, Preis/Leistung hat bei NVidia eigentlich nie eine Rolle gespielt, man hätte es mit Sicherheit bei der 4400/4600 belassen.

Die Nr.2 am Markt zu kaufen bedeutet für den Gesamtmarkt kundenfreundlichere Preise, bessere Produkte und mehr Auswahl. Diese Dinge halte ich für deutlich "relevanter" als irgendeinen Kompatibilitätsvorteil der bei weiterer Verbreitung von NVidia-Konkurrenz früher oder später ´eh komplett verschwinden wird.

MfG Olli

Haarmann
2002-05-26, 21:33:49
Ich sah an ner LAN dieses WE Birdmans PC inkl 19 Zoll Hitachi Kurzhals Monitor. Er spielt Q3 mit 120 Hz bei 1024*768. Die GF4Ti läuft bei ihm offenbar gut und ich sah ihn weder PC aufsetzen noch booten ;). Von dem her gesehen also toll.
Leider muss ich sagen, dass die SQ der Karte bei Q3 nicht gerade edel aussieht... Was ev der Chip an Schärfe und Kontrast hätte, frisst die Karte wieder weg... Da ich den gleichen Monitor hatte - mit ner G400Max - weiss ich wie gut eigentlich das Bild sein sollte. Sein Bild jedenfalls gefiele mir nicht (selbst als ich mal die Helligkeit justiert hab und den Kontrast maximiert). Allerdings ist mir klar, dass bei seinen Monitorsettings auch die Beste Karte ned ideal wirken kann *eg*. Schwarz is Schwarz und somit ned beleuchtet ...
Dafür hat er dann um so besser Q3 gespielt... ned wie ich.

Zu DE - die Leistung war gut, das Bild mies.

Salvee
2002-05-26, 21:44:46
@ Olli

Marktpolitisch absolut korrekt, was du da schreibst. ATi-Käufer halten den Markt im Gleichgewicht, und sorgen dafür, dass mich nicht der Schlag trifft wie damals im MMarkt (GF2 Ultra für 1.599 DM!!!). Das war echt herbe. Also, als Vorschlag zur Güte sollte jeder GF4-4200 Käufer mir als ATi-User einen Euro oder so spenden, da es ohne so 'Verrückte' wie mich die Karte gar nicht gäbe ! :biggrin:

Dunkeltier
2002-05-26, 21:53:15
Originally posted by Salvee
@ Olli

Marktpolitisch absolut korrekt, was du da schreibst. ATi-Käufer halten den Markt im Gleichgewicht, und sorgen dafür, dass mich nicht der Schlag trifft wie damals im MMarkt (GF2 Ultra für 1.599 DM!!!). Das war echt herbe. Also, als Vorschlag zur Güte sollte jeder GF4-4200 Käufer mir als ATi-User einen Euro oder so spenden, da es ohne so 'Verrückte' wie mich die Karte gar nicht gäbe ! :biggrin:


Mir bitte auch. Oder wollt ihr ein Quasimonopol wie es Microsoft inne hat? Dann heißt es beim nächsten PC-Kauf: "Ich hätte gerne einen Wintelvidia!".

nocturne
2002-05-27, 03:18:34
Was hier manche Möchtegern-Robin-Hoods gern vergessen:

Ein Quasimonopol hatte bisher nur ATI, und zwar im Mac-Bereich. Und auch im PC-Bereich war ATI bis vor ein paar Jahren Marktführer. Die viele Kohle, die ATI damals eingesackt hatte, hätten sie mal lieber für ein paar bessere Treiberprogrammierer ausgeben sollen.
ATI ist kein junges Pflänzchen, was man unterstützen müsste. ATI ist der Ex-Monopolist.

StefanV
2002-05-27, 03:26:15
Originally posted by nocturne
Was hier manche Möchtegern-Robin-Hoods gern vergessen:

Ein Quasimonopol hatte bisher nur ATI, und zwar im Mac-Bereich. Und auch im PC-Bereich war ATI bis vor ein paar Jahren Marktführer. Die viele Kohle, die ATI damals eingesackt hatte, hätten sie mal lieber für ein paar bessere Treiberprogrammierer ausgeben sollen.
ATI ist kein junges Pflänzchen, was man unterstützen müsste. ATI ist der Ex-Monopolist.

Davor war es S3, davor war es Cirrus Logic...
Such dir mal entsprechende Unterlagen, dann wirst du Feststellen, daß es einige Marktführer in der Geschichte gab!!!
Einst war IBM absoluter Marktführer, bei 'x86' Rehnern...
Dann kam der PS/2 mit MCA...
nVidia wird die Marktführung verlieren!
Genau wie Cirrus Logic und S3...
Oder kennst du noch Grafik Firmen wie Tseng oder Western Digigal oder Nec??

Ein Weiser Mann sagte einst:

Es ist leichter Marktführer zu werden, als es zu bleiben...

Andre
2002-05-27, 09:45:25
Originally posted by Stefan Payne
nVidia wird die Marktführung verlieren!


Dann lass uns doch mal an deiner wohlüberdachten Feststellung teilhaben, lieber Stefan.

ow
2002-05-27, 09:52:52
Originally posted by Andre


Dann lass uns doch mal an deiner wohlüberdachten Feststellung teilhaben, lieber Stefan.


Ach komm Andre, lass ihn weitertraeumen.:D

Sir Integral Wingate Hellsing
2002-05-27, 10:04:08
in diesem Fall hat Stefan recht:
nVidia wird es dieses und nächstes Jahr SEHR schwer haben...
Die Konkurrenz ist einfach zu gross!

Soviel zu "mighty nVidia"... die wäern gern so bestimmend wie z.B. Intel oder Microsoft... SIND SIE ABER NET!



:tgv:

StefanV
2002-05-27, 10:08:01
@Andre und ow

Damals hat das sicher auch Jeder von Cirrus Logic gedacht (na, kennt die noch wer??) und Später von S3...

Was mit den beiden Passiert ist, das wissen wir jetzt ja *eg*

ow
2002-05-27, 10:11:11
Stefan

Zu den Zeiten, von denen du redest, war der PC Markt noch verschwindend klein.
Vermutlich existierte noch kein Zehntel der heutigen Masse an Rechnern.
Du kannst also nicht von damals auf heute und die Zukunft schliessen.

ow
2002-05-27, 10:12:31
Originally posted by 028
in diesem Fall hat Stefan recht:
nVidia wird es dieses und nächstes Jahr SEHR schwer haben...
Die Konkurrenz ist einfach zu gross!

Soviel zu "mighty nVidia"... die wäern gern so bestimmend wie z.B. Intel oder Microsoft... SIND SIE ABER NET!



:tgv:

Einfacher wird es nicht fuer NV, aber viel schwerer wird es auch nicht. Bis jetzt ist noch keine Konkurrenz zu NV zu sehen.

StefanV
2002-05-27, 10:15:28
Originally posted by ow
Stefan

Zu den Zeiten, von denen du redest, war der PC Markt noch verschwindend klein.
Vermutlich existierte noch kein Zehntel der heutigen Masse an Rechnern.
Du kannst also nicht von damals auf heute und die Zukunft schliessen.

Mit welcher Begründung??

Die Entwicklung war damals günstiger als heute, beide waren ziehmlich deutlich Marktführer.

Aber hast recht:

Heute geht das Geld viel schneller den Bach runter, da die Produktentwicklung 'etwas' teurer ist als damals...

Warum soll das, was damals mit Cirrus Logic und S3 passiert ist, nicht heute auch mit NV passieren??

ow
2002-05-27, 10:23:04
Originally posted by Stefan Payne


Mit welcher Begründung??

Warum soll das, was damals mit Cirrus Logic und S3 passiert ist, nicht heute auch mit NV passieren??


Ganz einfach:

Der PC Markt war damals klein jedoch gab es gegen Mitte-Ende der 90er Jahre eine sprunghafte Entwicklung der Verkaufszahlen. Und die haben einige Firmen (Marktfuehrer) verschlafen.
ATi uebrigens auch als 3D Grafik in Konsumer PCs so richtig ins Rollen kam. Ruck zuck war ein winziger Newcomer namens NV
Marktfuehrer. Und 3dfx sogar weg, die haben am tiefsten geschlafen.

Heute sind IMO keine derart sprunghaften Entwicklungen mehr zu erwarten, der Markt erreicht langsam Saettigung.

Andre
2002-05-27, 10:37:03
Originally posted by Stefan Payne
Warum soll das, was damals mit Cirrus Logic und S3 passiert ist, nicht heute auch mit NV passieren??

Weil NV diese Fehler nicht machen wird, so einfach ist das.
Und, Stefan, ich habe dich jetzt schon mehrfrach drum gebeten:
Lese wenigstens mal ein bischen was über Marktwirtschaft, ansonsten ist eine Diskussion mit dir müßig - bringt genausoviel, als würde ich mit einem Blinden über die Farbe des Himmels reden.
Sorry, aber ein bischen was sollte man da schon wissen, wenn man drüber reden will.

MadManniMan
2002-05-27, 10:58:24
Originally posted by Nvidia Fan
Wer sagt hier das die Geforce langsamer ist, wo hast du denn das her !! Oder besser geasgt aus welchen Spiel/ Benchmark hast du das???

ach jung... ich empfehle hier einfach mal das gf4 roundup auf der riva(!)station...

Sir Integral Wingate Hellsing
2002-05-27, 14:42:05
@ow: nVidia hat GENUG Konkurrenz... Und die wissen auch das sie mächtig vorsichtig sein müssen!

Stell Dir vor die produzieren jetzt nach der GF4 TI für ca. 6-8 Monaten keinen neuen Chip ...

Dann wirst Du sehen das nVidia WEG vom Markt sein wird, was nicht der Fall wäre, wenn sie so wie 3DFX im Zeitraum 1996-97 nur einen Chip rausbringen der 2 Jahre reicht...(war halt ne andere Marktsituation damals...die ist aber net mehr so, d.h. Konkurrenz ist da und kämpft...siehe Matrox und ATi)

@andre: Marktwirtschaft? Wenn man selbst von sowas keine Ahnung hat sollte man hier net die Klappe aufreissen und schon gar net als Moderator!

--------------------

Dieses Forum benötigt sowieso mal ne "Moderatorenpolizei"... :grhargh:

Quasar
2002-05-27, 14:56:08
Du bringst es auf den Punkt, oh Wirtschaftsweiser.

"Stell dir vor...." - Genau, stell es dir vor. Und das hat mit der Realität nichts zu tun, da dieser Fall nicht eintreten wird, weil auch die Ökonomen bei nVidia dieses wissen und die Entwicklungs-abteilung schon rechtzeitig in den Hinteren getreten haben werden.

Und wie zum Geier kommst du darauf, daß sich Moderatoren ihre persönliche Meinung verkneifen sollten???

Andre
2002-05-27, 15:04:40
Originally posted by 028
@andre: Marktwirtschaft? Wenn man selbst von sowas keine Ahnung hat sollte man hier net die Klappe aufreissen und schon gar net als Moderator!

--------------------

Dieses Forum benötigt sowieso mal ne "Moderatorenpolizei"... :grhargh:

Zu 1.

Dann lasse mich doch an deinem unbegrenzten Wissen teilhaben.
Nur zu, mein Freund.
Ich würde an Deiner Stelle auch nicht die Klappe aufreissen, wenn du noch nicht einmal in der Lage ist, grammatikalisch richtig zu schreiben.

Zu 2.

Ich denke wir brauchen eher eine "Junior-Member-Maul-aufreiss-obwohl-nichts-Sachliches-gesagt-vermeidungs"-Polizei.

Sir Integral Wingate Hellsing
2002-05-27, 16:53:00
@Quasar: Es war, wie gesagt, nur ein Beispiel.
Und ich habe net gesagt, das Andre nicht seine Meinung
kundtun darf, sondern WIE er es macht ist teilweise kritisch!

@andre: Mich zu beschimpfen, von wegen ich könnte net grammatikalisch
korrekt schreiben. DAS ist natürlich nett von einem Moderator zu hören, der mehrere tausend Posts geschrieben hat und selber weiss
das man sich vertippen kann (siehe deinen eigenen Post)!
Und "Junior-Member-Maul-aufreiss-obwohl-nichts-Sachliches-gesagt-vermeidungs"-Polizei disqualifiziert dich einfach als Moderator... Eigentor!
Willst du meine oder von sonst wem das Wissen/Kompetenz o.ä. in Frage stellen nur weil ich grad ma ca. 20 Posts hab? Das mit der Polizei
war nicht ernst gemeint... mittlerweile wärs aber wohl doch ganz richtig!

Aber wir sind ja net zum Streiten hier...
-----------------------------------------

Zum Thema:
@ow: naja, einige fortschrittliche Technologien hat doch auch ATi gebracht, wie z.B. auch wenn es halt nur ATi unterstützt
und keine eierlegene Wollmichsau ist. Damit meine ich:
Innovativer ist doch ATi ... oder meinst Du net?

nocturne
2002-05-27, 17:03:47
Originally posted by 028
Stell Dir vor die produzieren jetzt nach der GF4 TI für ca. 6-8 Monaten keinen neuen Chip ...

Dann wirst Du sehen das nVidia WEG vom Markt sein wird

Unsinn. Erstens wird Deine "Stell Dir vor..."-Spekulation nicht eintreten. Und selbst wenn das der Fall wäre, wäre niemand WEG vom Markt, schon gar nicht nVidia. Lern was über Marktwirtschaft.

Nach Deiner Theorie müsste ATI schon seit drei Jahren weg vom Markt sein.

:D

raibera
2002-05-27, 17:05:02
geiler thread - geht ab!

muß unbedingt auch noch meine meinung ablassen.

@andre und ow

sagtmal, wie könnt ihr behaupten, daß nvidia nicht den bach runter gehen kann und nvidia keine fehler machen würde?

also echt,
es ist immerwieder passiert, daß große konzerne das handtuch geworfen haben. geht manchmal schneller, als man denkt.

btw, ich glaube auch nicht, daß das in nächster zeit passiert - ich sage nur das es passieren kann.

Haarmann
2002-05-27, 17:18:51
Quasar

Die Marketing Leute können Ärsche treten wie sie wollen... Intel vs AMD zeigt seit Jahren, dass mehr Geld für Entwicklungen weder mehr Innovationen noch mehr Performance bringen.
Wieso ihr alle behauptet, dass NV so unfehlbar ist, aber der Poll welcher Chip das Beste sein wird ganz klar NV nen Armutszeugnis ausstellt ist mir ein Rätsel.
NVs angebliche Innovationen sucht man am besten mit der Lupe.

- 32 Bit konnte meine M3D lange bevor NV nen TnT im Sinne hatte.
- TnL konnten Glint Chips seit Jahren.
- Quincunx ist wohl kaum ne wirklich gute Innovation, aber immerhin isse neu.

Ich warte also auf ne Innovation die von Seiten NV mal gekommen ist...

Hast denn eine für mich?

aths
2002-05-27, 17:47:49
Haarmann,

auch wenn Quincunx eher als Hoax zu werten ist: NV hats geschafft, dem Begriff den Anstrich eines ausgetüftelten und sehr guten Verfahrens zu geben. "Quincunx" wird von vielen verwendet, um die gesamten FSAA-Fähigkeiten der GF3 zu beschreiben (sie hätten eher "HRAA" benutzen sollen.)

Als Quincunx von nV vermarktet wurde, war AF noch nicht so modern. Hier fiel die Unschärfe wohl nicht so auf, wie heute. Und die selbsternannten "Technikfreaks" glaubten bestimmt alle, wenn 5 Subpixel in das Pixel einfließen, müsse das Verfahren einfach besser sein, als wenn nur 2 Subpixel genutzt werden.

Dem Kunden Unschärfe als Bildverbesserung anzudrehen, ist schon dreist. nV kam damit offenbar aber durch.

Sir Integral Wingate Hellsing
2002-05-27, 17:51:10
@nocturne: "Nach Deiner Theorie müsste ATI schon seit drei Jahren weg vom Markt sein."

- Sicher...die bringen ja auch keine neuen Chips raus! :stareup: /ironie off...

"Unsinn. Erstens wird Deine "Stell Dir vor..."-Spekulation nicht eintreten. Und selbst wenn das der Fall wäre, wäre niemand WEG vom Markt, schon gar nicht nVidia. Lern was über Marktwirtschaft."

- Es KANN passieren, muss aber net. Die welt ist rund, wer weiss was kommt! Daher würde ich net mein Wort auf sowas geben, das die net irgendwannmal Pleite gehen! Siehe S3, Cirrus Logic oder 3DFX... Die Computerindustrie ist halt schnell-/kurzlebig... Und mich wg. Marktwirtschaft zu ermahnen ist ganz toll, nachdem du grad um den heissen Brei rumgeredet hast!

@haarmann , raibera & aths: :wink:

Quasar
2002-05-27, 17:53:53
:lol: Haarman,
Wer hat denn gesagt, daß mehr Geld in die Entwicklung fließt? Ich schrieb, daß kein Produktzyklus ausgelassen wird, und ich denke, daß DAS mittlerweile jede AG mitbekommen haben sollte. Das trifft also nicht nur auf nV zu, sondern genausogut auf ATi und wer da sonst noch kommen mag.

Niemand ist unfehlbar, Haarman, sicher nicht nV und auch keine anderen Firmen, wer behauptet so etwas?

Der Poll mit dem besten Chip ist ganz einfach: zum nV30 gibt's keinerlei handfeste Fakten und auch keine glaubwürdigen Spekulationen. Deswegen kann man ihn nicht beurteilen.
Und wenn du "uns" nVidiots schon immer vorwirfst, voreingenommen zu sein, was glaubst du, wie repräsentativ so ein Thread ist?
BTW, ich hab für den imho besten Chip gestimmt, nicht für das imho für den Gamer beste Gesamtpaket....vielleicht bemerkst du einen kleinen aber feinen Unterschied?

Du willst eine Innovation von nV? Wozu? Warum soll ich nVs technische Entscheidungen rechtfertigen?

Wer hat denn deiner Meinung nach seit der Erfindung des Transistors und der UV-Lithographie "echte Innovationen" gebracht?
Wenn du alles aufs Minimum reduzierst, landest du bei ziemlich banalen Dingen....

Demirug
2002-05-27, 17:54:08
aths,

im Prinzip ist das als unverzichtbar anpreisen von jedem neuen Feature erst mal dreist. Bis es wirklich genutzt wird vergehen im Regelfall mindestens 12 Monate.

Und da geben sich die Hersteller alle nicht viel.

Demirug
2002-05-27, 18:05:02
Haarmann,

es kann im Grafikkarten bereich eigentlich keine richtige Inovation mehr geben. Denn fast alle Verfahren sind schon seit Jahren bekannt und beschrieben. Eben nur bei Softwarerendering.

NVidia, ATi, Matrox, usw. suchen sich also nur die Verfahren raus die sie in Hardware abbilden möchten und dann wird das eben eingebaut.

Ein komplett neues Verfahren direkt in Hardware abzubilden ist in einem Markt mit so schnellen Zyklen Blödsinn. Da wartet man bis eine UNI das ganze mit einem Softwarerendere getestet hat und alle Randbedingungen bekannt sind. Dann wird erst entschieden.

Desweiten haben ich unter umständen die UNI-Dokumente welche als Basis für die übernächste Generation von Chips bei NVidia und ATi sowie DX 10 benutzt werden gesehen. Wenn sie das wirklich schaffen bin ich als Programmiere echt begeistert.

zeckensack
2002-05-27, 18:08:08
Unter Umständen unterliegst du einem NDA, richtig? :D

Demirug
2002-05-27, 18:14:42
Originally posted by zeckensack
Unter Umständen unterliegst du einem NDA, richtig? :D

Nur was DX9 sachen angeht die noch nicht öffentlich sind. Und das ist wirklich nicht viel. Oder anders ausgedrückt das komplette Featureset ist in diversen Dokumenten bereits öffentlich bekannt. Ich darf also lediglich keine Aussage über die API als solches (interresiert aber hier sowieso nur wenige) und die Performance machen.

Was DX 10 angeht kann ich sagen was ich will da meine Informationen mir nicht von MS unter Berufung auf die NDA zugänglich gemacht wurden.

zeckensack
2002-05-27, 18:18:40
Originally posted by Demirug
Nur was DX9 sachen angeht die noch nicht öffentlich sind. Und das ist wirklich nicht viel. Oder anders ausgedrückt das komplette Featureset ist in diversen Dokumenten bereits öffentlich bekannt. Ich darf also lediglich keine Aussage über die API als solches (interresiert aber hier sowieso nur wenige) und die Performance machen.Hmmm, öffentlich sagst du ... hast du ein paar Links? Würde mich brennend interessieren :)
Oder meinst du damit nur die Infos, die man sich aus diversen Grafikchip-Präsentationen zusammensammeln kann ???

Haarmann
2002-05-27, 18:25:23
aths

Nix gegen deren Marketingabteilung, die ist echt gut und vermag den Leuten so einiges zu verkaufen. Das macht nur kein Produkt besser - fördert es doch nur den Absatz dessen.

Quasar

NV behauptete mal alle 6 Monate ne neue Graka zu erfinden...

Ich werde also mal durchzählen

TnT, TnT2, GF, GTS2, GF2 Ultra, GF3, GF3 Ti und GF4 Ti - macht 8 HiEndkarten oder?

Laut THG 20 July 1998 die TnT. Ergo stimmt diese Bilanz doch eigentlich... 8 Karten in 4 Jahren... Und im Sommer kommt die Nächste.
Leider ist aber eine GF3 = eine GF3 Ti und eine GTS2 = GF2 Ultra (und wenn man pingelig tut, dann ist erst die TnT2 ne TnT ;) ). Nun stehen hier 6 Karten in 4 Jahren da. Wenn man nun die Technische Seite betrachtet, dann ist sogar der Schritt von GF zu GTS2 wohl grösser gewesen, denn der von GF3 auf GF4 Ti. Zur Zeit bringt NVidia also bestenfalls alle 18 Monate nen neuen Chip raus. Die Tendenz geht also bei NV hoch und ned runter.
Analysten sehen dies sicher anders, nur die kaufen sich wohl keine Grafikkarten.

Der Thread zeigt nur, wie wenig die Leute von NV erwarten. Während gewisse Leute im Forum so husten (Das geht nicht gegen Dich), als ob ausserhalb der heiligen Mauern von NVidia niemand in der Lage ist Chips zu designen, glaubt die Mehrheit nicht mehr an NVidia.
Ich schätze mal, weil uns NV seit der GF mit einer derartigen Innovastionsarmut überflutet, dass niemand im Ernst mehr glauben kann, dass mit deren banaler Brute Force Variante noch was zu holen ist.

Aja und ich bin Gamer und ich scheiss auf FSAA aber will AF. Und JCs Doom3 Figuren haben eckigere Finger denn RTCW Figuren auf meiner TruForm Radeon2. Und ich game mit VSync enabled - somit hab ich max 60 fps aber immerhin ruckeln die weniger als die angeblichen 200, die andere haben. Auch NV Usern kann sowas auffallen - gelle Birdman VSync rult einfach.

Oder wenn OW zum 100en mal die miesen Radeon Win98 Treiber anprangert... Also miesere Win98 als NVidias NForce Treiber gibts definitif nicht. Dagegen ist Via bereits Meister aller Klassen.

P.S. Ich will keine Innovation von NV, aber ich will Innovation... und da NV das ned bietet, kauf ich eben ne inovativere Karte.

zeckensack
2002-05-27, 18:34:16
Contra.

Zumindest Pixel Shader waren eine Innovation, auch wenn ATI es später besser gemacht hat.

Demirug
2002-05-27, 18:42:02
@zeckensack:

Finde den Link jetzt gerade nicht mehr. Aber was die Hauptfeatures angeht halte dich einfach an das Dokument von der Meltdown 2001. Der rest sind dann nur noch relative uninteresante Details die in einer Presentation zur Treiber entwicklung auf der WinHec 2002 verkündet wurden.

Ansonsten trift der Matrox Chip die Spec sehr genau (ausnahme ps 2.0)

Quasar
2002-05-27, 18:51:43
Haarman,

Alle 6 Monate ein neues Top-Produkt, nicht eine "neu erfunden Grafikkarte"....egal, ob du das nun als neue Grafikkarte akzeptierst oder nicht. (ich soll dir doch wohl nicht hier alle Inkarnationen inkl. doppelter Namen der Radeon aufzählen, oder?)

Außerdem hat das nichts mit dem Thema zu tun.


"Banale Brute Force" zeigt schon, wie intensiv du dich mit den Produkten beschäftigt hast (ja, ich weiß, du hast schon öfter eine verbaut...). Dazu sage ich einfach mal nur LMA, und ja, der CBMC ist eine Innovation!

FSAA und AF kriegste heute beinahe hinterhergeschmissen, auch wenn du nicht drauf stehst...
BTW, wie kommt's, daß bei Doom3 eckige Finger zu sehen sind? Ich denk' die Präsentation lief auf ATi-HW? :lol:
Sehr Kundennah, die insellösungen schon nach 1 Generation wieder abzuschießen, oder warn's mal wieder nur die Treiber?

Wenn du Innovation willst, kauf dir ne Wildcat-III, da kriegste schönes SuperScene-AA, z-correct bis 24Bit.

edit:
@Z-Bag:
Stimmt eigentlich, das mit den Shadern. Aber das sind doch nur ein paar Transistoren, die man an die TMU einer TNT geklatscht hat :lol:

Razor
2002-05-27, 18:53:56
Haarmann, nur so viel:

Alle 6 Monate ein neues Produkt !
Nicht ein neuer Chip...

So alle 18-24 Monate einen völlig neuen Chip zu designen kommt schon ganz gut hin und steht anderen Herstellern in nichts nach.

Und noch etwas, Du magst mit AA nicht allzuviel anfangen können (wundert mich bei einem R2 Besitzer auch nicht im Geringsten ;-), aber es gibt andere, die wollen so etwas nicht mehr missen. Auch 'sauberes' AF liegt so einigen am Herzen, wozu ATi ja offensichtlich nicht in der Lage ist... auch nur um Performance zu schinden.

Wie schon oft gesagt, die Hersteller nehmen sich alle nicht viel. Die einen haben eine 'saubere' 3D-Implementierung, die anderen eben ein unübertroffenes Featureset. Jeder muß selber wissen, was er will...

In diesem Sinne

Razor

Shit ! Und wieder war Quasar schneller, wenn's auch diesmal net weniger war... :D

Dunkeltier
2002-05-27, 18:59:14
Originally posted by Quasar
Haarman,

Alle 6 Monate ein neues Top-Produkt, nicht eine "neu erfunden Grafikkarte"....egal, ob du das nun als neue Grafikkarte akzeptierst oder nicht. (ich soll dir doch wohl nicht hier alle Inkarnationen inkl. doppelter Namen der Radeon aufzählen, oder?)

Außerdem hat das nichts mit dem Thema zu tun.


"Banale Brute Force" zeigt schon, wie intensiv du dich mit den Produkten beschäftigt hast (ja, ich weiß, du hast schon öfter eine verbaut...). Dazu sage ich einfach mal nur LMA, und ja, der CBMC ist eine Innovation!

FSAA und AF kriegste heute beinahe hinterhergeschmissen, auch wenn du nicht drauf stehst...
BTW, wie kommt's, daß bei Doom3 eckige Finger zu sehen sind? Ich denk' die Präsentation lief auf ATi-HW? :lol:
Sehr Kundennah, die insellösungen schon nach 1 Generation wieder abzuschießen, oder warn's mal wieder nur die Treiber?

Wenn du Innovation willst, kauf dir ne Wildcat-III, da kriegste schönes SuperScene-AA, z-correct bis 24Bit.

edit:
@Z-Bag:
Stimmt eigentlich, das mit den Shadern. Aber das sind doch nur ein paar Transistoren, die man an die TMU einer TNT geklatscht hat :lol:



Quake 3 = eckige Finger = beschißene Engine = armes Spiel. Das es besser geht, zeigt das uralte CS welches auf der Quake 1 Engine basiert.

Demirug
2002-05-27, 19:01:20
Originally posted by Quasar
BTW, wie kommt's, daß bei Doom3 eckige Finger zu sehen sind? Ich denk' die Präsentation lief auf ATi-HW? :lol:
Sehr Kundennah, die insellösungen schon nach 1 Generation wieder abzuschießen, oder warn's mal wieder nur die Treiber?


Jetzt bist du aber gemein Quasar. N-Patch (mag diesen ATi marketing Name nicht) gehen wahrscheinlich auch bei neuen ATi noch. Aber Carmack gefällt die Technik eben nicht weil er dann für die N-Patch Lösung für jede Detail stufe eine neue Bumpmap gebraucht hätte.


Stimmt eigentlich, das mit den Shadern. Aber das sind doch nur ein paar Transistoren, die man an die TMU einer TNT geklatscht hat :lol:

Wuste gar nicht das du dich so gut mit Chipdesign auskennst. Du hast allerding die paar zusätzlichen Transistoren an den Register Combinder vergessen.

Andre
2002-05-27, 19:21:59
Originally posted by raibera
@andre und ow

sagtmal, wie könnt ihr behaupten, daß nvidia nicht den bach runter gehen kann und nvidia keine fehler machen würde?

also echt,
es ist immerwieder passiert, daß große konzerne das handtuch geworfen haben. geht manchmal schneller, als man denkt.

Richtig und unumstritten.
Aber nicht aus den Gründen, die Stefan Payne u.a. genannt haben - darauf bezog sich meine Antwort.

Andre
2002-05-27, 19:24:25
Originally posted by 028
@andre: Mich zu beschimpfen, von wegen ich könnte net grammatikalisch
korrekt schreiben. DAS ist natürlich nett von einem Moderator zu hören, der mehrere tausend Posts geschrieben hat und selber weiss
das man sich vertippen kann (siehe deinen eigenen Post)!
Und "Junior-Member-Maul-aufreiss-obwohl-nichts-Sachliches-gesagt-vermeidungs"-Polizei disqualifiziert dich einfach als Moderator... Eigentor!
Willst du meine oder von sonst wem das Wissen/Kompetenz o.ä. in Frage stellen nur weil ich grad ma ca. 20 Posts hab? Das mit der Polizei
war nicht ernst gemeint... mittlerweile wärs aber wohl doch ganz richtig!


Ich zitiere dich:

" @andre: Marktwirtschaft? Wenn man selbst von sowas keine Ahnung hat sollte man hier net die Klappe aufreissen und schon gar net als Moderator! "

Insbesondere der Teil mit dem Klappe aufreissen und keine Ahnung haben, gefällt mir.
Wer mir so ankommt, muss sich nicht wundern, dass ich ebenso antworte.

Haarmann
2002-05-27, 19:25:38
Quasar

"Alle 6 Monate ein neues Top-Produkt"

Tja... also ohne Aufdruck wirste wohl nie nen GF3 Chip von nem GF3 Ti Chip unterscheiden können... ich jedenfalls kann es ned - auch sind die Teile Pinkompatibel und wohl sogar gleich schnell bei gleicher Frequenz. Was ist nun am GF3 Ti genau neu? Der Aufdruck ??? Also ist ne Milch im grünen Pack nun ein neues Produkt, weils die vorher nur im blauen gab?

Also ich bin ja mal gespannt wie Du doppelte Produkte bei ATI Radeons finden willst, aber ich lausche sehr gespannt Deinen Worten.

CBMC? Also hiess das ned mal anders, als man aufm Chip G400 lesen konnte? ;)
Alle LMA Features sonst siehst in jeder Uralt Radeon vor sich hingammeln denke ich mir mal... Aber da könnte ich mich irren, weil ich ned genau weiss was die Ur-Radeon alles gemacht hat. Gewisse Teile des Hyper-Z hat aber nedmals LMA2.
Und vor allem Autoprecharge hatte wohl schon ne Tseng ET 4000 W32i ;)

Also im Q3 als OSP Coach kannste Deinen FPS wohl lebewohl sagen wenn mal mit AF und 4xFSAA das betreibst... Das hab ich am WE selber erlebt... Das war schon ohne AA z.T. unter 60 fps bei 1280 inkl meinen Tweaks.

Die eckigen Finger sagen mir einfach mal wieder, dass es ned auf die Zahl der Polys ankommt, sondern auf deren Verteilung. Ist wie im Q3... die Torbögen bestehen wenn willst auf 100 Polys aber die Health Sphären auf 13 oder so und sind ned wirklich rund.

Und PS sind auch ned NVs Erfindung...

Demirug

Man kann Features auch innovativ implementieren... selbst wenn se schon bekannt sind. Auch ne neue Texturkompression könnte ne Innovation darstellen, selbst wenns doch das schon lange gibt. Surround Gaming ist auch eigentlich nix Neues und doch isses ne Innovation.

Razor

Ich wüsste was ich wollte... Leider bietet das keiner an ;)
Aber aus der Menge des Karten die ich kaufen kann, wähle ich inzwischen halt nach anderen Kriterien aus... eines davon ist Signalqualität inkl Mehrmonitorbetrieb.
ATI hat im Dez 98 die R128 vorgestellt, wenn ich wollte könnte ich noch die Maxx als eigene Entwicklung nehmen, aber ich bleib mal bei Radeon Apr 2000 und July 2001 die Radeon2. Somit sieht man deutlich wie ATIs Pace zulegt... NVs nimmt aber deutlich ab.

Quasar
2002-05-27, 19:41:34
Originally posted by Haarmann
Tja... also ohne Aufdruck wirste wohl nie nen GF3 Chip von nem GF3 Ti Chip unterscheiden können... ich jedenfalls kann es ned - auch sind die Teile Pinkompatibel und wohl sogar gleich schnell bei gleicher Frequenz. Was ist nun am GF3 Ti genau neu? Der Aufdruck ??? Also ist ne Milch im grünen Pack nun ein neues Produkt, weils die vorher nur im blauen gab?

Hehehe, aber es hat immerhin gereicht, um das neue Produkt von ATi auf Distanz zu halten...


Also ich bin ja mal gespannt wie Du doppelte Produkte bei ATI Radeons finden willst, aber ich lausche sehr gespannt Deinen Worten.

Och, das ist relativ einfach. Erinnerst du dich an die Namen RadeonDDR, RadeonSDR, RadeonDDR64, RadeonVE etc...?
Nun, heute heißen manche von ihnen Radeon7200, Radeon7000 usw...


CBMC? Also hiess das ned mal anders, als man aufm Chip G400 lesen konnte? ;)
Alle LMA Features sonst siehst in jeder Uralt Radeon vor sich hingammeln denke ich mir mal... Aber da könnte ich mich irren, weil ich ned genau weiss was die Ur-Radeon alles gemacht hat. Gewisse Teile des Hyper-Z hat aber nedmals LMA2.
Und vor allem Autoprecharge hatte wohl schon ne Tseng ET 4000 W32i ;)


Leider irrst du hier, die G400 (afaik sogar die G200) bot einen "256Bit" Dual-Bus, der aber nicht zu verwechseln mit dem CBMC ist, da er nur in beide Richtungen gleichzeitig beschickt werden konnte, möglicherweise sogar nur Chip-Intern, da bin ich mir nicht sicher. Jedenfalls war es sicher nicht mit dem CBMC vergleichbar.


Also im Q3 als OSP Coach kannste Deinen FPS wohl lebewohl sagen wenn mal mit AF und 4xFSAA das betreibst... Das hab ich am WE selber erlebt... Das war schon ohne AA z.T. unter 60 fps bei 1280 inkl meinen Tweaks.

Mag sein, Q3 spiele ich nicht wirklich viel (weil ich ziemlich schlecht bin darin...).


Die eckigen Finger sagen mir einfach mal wieder, dass es ned auf die Zahl der Polys ankommt, sondern auf deren Verteilung. Ist wie im Q3... die Torbögen bestehen wenn willst auf 100 Polys aber die Health Sphären auf 13 oder so und sind ned wirklich rund.

Und PS sind auch ned NVs Erfindung...


Richtig, die Verteilung machts, ergo ist auch eine n-Patch Implementierung "etwas" aufwändiger, als es am Anfang gerne propagiert wurde (SSFE-Entwickler: "It took me about half an hour fiddling with the code"). Wie Razor immer sagt: "Entsprechend sah's auch aus".


Wessen Erfindung sind den die Pixelshader, Haarman?

ow
2002-05-27, 19:45:18
Originally posted by 028
@ow: nVidia hat GENUG Konkurrenz... Und die wissen auch das sie mächtig vorsichtig sein müssen!

Stell Dir vor die produzieren jetzt nach der GF4 TI für ca. 6-8 Monaten keinen neuen Chip ...

Dann wirst Du sehen das nVidia WEG vom Markt sein wird, was nicht der Fall wäre, wenn sie so wie 3DFX im Zeitraum 1996-97 nur einen Chip rausbringen der 2 Jahre reicht...(war halt ne andere Marktsituation damals...die ist aber net mehr so, d.h. Konkurrenz ist da und kämpft...siehe Matrox und ATi)



NV hat derzeit keine Konkurrenz.
Sieht man an deren Geschäftszahlen.

Unter Konkurrent verstehe ich jemandem, der einem gefährlich werden kann, aber nicht eine paar sonstige bedeutungslose Teilnehmer am Markt.

Quasar
2002-05-27, 19:49:28
Originally posted by Demirug

Jetzt bist du aber gemein Quasar. N-Patch (mag diesen ATi marketing Name nicht) gehen wahrscheinlich auch bei neuen ATi noch. Aber Carmack gefällt die Technik eben nicht weil er dann für die N-Patch Lösung für jede Detail stufe eine neue Bumpmap gebraucht hätte.

Wuste gar nicht das du dich so gut mit Chipdesign auskennst. Du hast allerding die paar zusätzlichen Transistoren an den Register Combinder vergessen.

Sicher werden n-patches noch weiter unterstützt, zumindest von Matrox *eg* vielleicht ist deren Tesselations-Einheit auch ohne DM benutzbar...
Nur hörte man im Vorfeld zu den Gerüchten der R300 auch schon, daß ATi für DX9 auch polynomiale Flächen unterstützen würde, weil's deutlich flexibler einzusetzen ist (angeblich, bin kein Progger).

Viel mehr Sorgen macht mir allerdings, wie sich in letzter Zeit Klagen über Radeon-I (inkl. 7500) Treiber und deren Kompatibilität häufen. Von den Radeon8500-Fans wird dann schnell darauf hingewiesen, ATi konzentriere sich jetzt eben auf das aktuelle High-End Produkt und WinXP. Ich möchte mal deren Gesichter sehen, wenn sich die Geschichte nach dem Erscheinen der R300 wiederholt.... :(

Mit Chipdesign kenne ich mich auch nicht wirklich aus, sonst würde ich sicher keine Fremdherstellungen kaufen ;)

ow
2002-05-27, 19:51:25
Originally posted by 028

Aber wir sind ja net zum Streiten hier...
----------------------------------------


Dann halte dich auch daran. Mit aggressivem Ton und Beleidigungen wirst du dir hier keine Freunde schaffen.


Zum Thema:
@ow: naja, einige fortschrittliche Technologien hat doch auch ATi gebracht, wie z.B. auch wenn es halt nur ATi unterstützt
und keine eierlegene Wollmichsau ist. Damit meine ich:
Innovativer ist doch ATi ... oder meinst Du net? [/B]


Nein, innovativer nicht unbedingt, nur anders.
Das der Radeon etwas mehr könnte als ein GF3 liegt daran, dass er ja auch um einiges später kam.
Ist halt Pech für und ausserdem dumm von Ati, dass sie versuchten, dem Marktführer derart Paroli zu bieten.
Viel Unterstützung werden PS1.4 und Truform nicht haben.

ow
2002-05-27, 19:53:53
Originally posted by raibera
geiler thread - geht ab!

muß unbedingt auch noch meine meinung ablassen.

@andre und ow

sagtmal, wie könnt ihr behaupten, daß nvidia nicht den bach runter gehen kann und nvidia keine fehler machen würde?



NV könnte sich sogar Fehler leisten, die sind mittlerweile zu gross, um so einfach den Bach runterzugehen.

Und NV hat in der Vergangenheit gute Arbeit geleistet und ich sehe nicht, warum sich das ändern sollte.

ow
2002-05-27, 19:56:23
Originally posted by aths


Dem Kunden Unschärfe als Bildverbesserung anzudrehen, ist schon dreist. nV kam damit offenbar aber durch.


3dfx auch. Nennt sich Postfilter.:D

Lightning
2002-05-27, 20:02:04
Originally posted by ow


Und NV hat in der Vergangenheit gute Arbeit geleistet und ich sehe nicht, warum sich das ändern sollte.

Ganz einfach, vielleicht weil die langsam hochmütig werden könnten (wenn sie das nicht schon sind) und sich zu sicher fühlen. Bei der schnellen Entwicklung, die es zur Zeit gibt brauch NV nur mal ein paar Monate verschlafen, und zack - sind sie techologisch im Rückstand. Und das ist nicht so leicht aufzuholen.

Quasar
2002-05-27, 20:06:47
Mir fällt da grad noch was wirtschaftliches ein, wo ow (;D) nVs "Größe" erwähnt:

Der Grund, warum es ihnen nicht so ergehen kann (Kurzfristig jedenfalls), wie 3dfx, sind ihre OEM-Verträge. So etwas hatte man bei 3dfx eben kaum, so daß ein verpasster Produktzyklus ausschließlich im Retai-Markt ausgehalten werden musste (und dort war die Voodoo3 sogar Marktführer). Retail-Geschäft weg, Einnahmen weg und das kann nV erst passieren, wenn sie ein Jahr oder mehr stillhalten.

Übrigens auch der Grund, warum ATi bis zur Radeon durchgehalten hat. Jeder (!) MM-PC mit Pentium-II hatte eine Rage-Pro drin....

Sir Integral Wingate Hellsing
2002-05-27, 20:10:20
@andre:
naja, ich glaube da haben wir uns genau getroffen... was solls...haben uns beide falsch ausgedrückt...Friede,Freude & Eierkuchen und Vergessen :bier:

@ow:
Du bist aber nen wirklich harter nVidia-Verteidiger ;)
Bissu da Mitarbeiter? :D

Also:
"NV hat derzeit keine Konkurrenz.
Sieht man an deren Geschäftszahlen.
Unter Konkurrent verstehe ich jemandem, der einem gefährlich werden kann, aber nicht eine paar sonstige bedeutungslose Teilnehmer am Markt."

Lachhaft, ehrlich! ATi is ja wohl net bedeutungslos, genausowenig wie grosse OEM-Hersteller wie SiS...Matrox wird auch wieder aufholen, mal abgesehen das 3DLabs im High-End Markt ihre Kunden haben...

"NV könnte sich sogar Fehler leisten, die sind mittlerweile zu gross, um so einfach den Bach runterzugehen."

Isn't: nVidia-Aktienkurs (http://informer2.comdirect.de/de/detail/_pages/charts/main.html?sSymbol=NVD.FSE)

Seit Anfang des Jahres haben auch die viel vonner Technik-Krise abbekommen, fast 50% Wertverlust! Willst du mir also nochma so einen Scherz erzählen? Die stecken auch net unendlich viel ein!

"3dfx auch. Nennt sich Postfilter."

Jo, stimme ich zu... ;)

Haarmann
2002-05-27, 20:10:25
Quasar

"Hehehe, aber es hat immerhin gereicht, um das neue Produkt von ATi auf Distanz zu halten..."

Tja... hat gereicht. Inzwischen behaupte ich mal frech, dass die R200 ner GF3Ti500 davonrennt. Je nach Settings natürlich - aber die Geschwindigkeit der R200 nahm mehr zu denn die der Ti500 - kannst sonst bei Digit-Life nachprüfen falls es ned glaubst.

Also die Radeon7000 hiess mal RadeonVE und der Chip drauf RV100... Aber weder am Takt noch am Chip wurde was gedreht. Und als neues Produkt wurds auch ned vorgestellt. Kein wunder, denn auf der ATI Homepage kannste lesen Radeon7000 aka RadeonVE.
Die 7200 war ehemals ne Radeon SDR hat aber dazu noch ne TV-Out Möglichkeit bekommen. Zuvor war dies nicht vorhanden.

Es ist einfach die Grundlage vom CBCM, welcher eigentlich nahe verwandt ist mit nem Interleave Interface eines ET 4000 W32i ;) Oder was genau macht denn diesen CBCM sooo einzigartig? Welches Feature ist "neu" zu Deutsch? Oder was macht die Einzigartigkeit des CBCM aus? Schwer für mich das richtig zu fragen.

Coaches heisst eben zusehen ;) Alle 4 Screens der Speiler kannste dann gleichzeitig sehen (Kophwehmodus).

Die PS sind keine Erfindung eines Herstellers - die wurden zusammengetragen und können eigentlich als MS Erfindung durchgehen ;). Teile vom PS konnte ne Radeon schon (wobei Teile ned als Funktionen zu verstehen sind). Des Weiteren gabs ja auch PS 1.0 von 3dfx... aber die liefen wohl kaum je gross ;).

Ned nur die MM PCs.... denk mal an die Hunderttausenden von Dells mit RagePro ;).

Demirug
2002-05-27, 20:11:47
Originally posted by Quasar


Sicher werden n-patches noch weiter unterstützt, zumindest von Matrox *eg* vielleicht ist deren Tesselations-Einheit auch ohne DM benutzbar...
Nur hörte man im Vorfeld zu den Gerüchten der R300 auch schon, daß ATi für DX9 auch polynomiale Flächen unterstützen würde, weil's deutlich flexibler einzusetzen ist (angeblich, bin kein Progger).


Als flexibler würde ich polynomiale Flächen nicht bezeichnen. Man hat aber eine bessere Kontrolle und die unterstützung in den 3d-Programmen dafür ist besser. Vorallem haben sie nicht die N-Patch Krankheit mit den Löchern in der Geometrie.

Aber du hast ja schon so schön zitiert:
"SSFE-Entwickler: "It took me about half an hour fiddling with the code"."

/überspitz on
Wenn die eine halbe Stunde brauchen um zwei Zeilen Code einzufügen na ja. er hat aber nicht geschrieben das er danach für zwei Wochen nicht arbeiten konnte weil er von den Grafikern zusammengeschlagen wurde:D
/überspitz off


Viel mehr Sorgen macht mir allerdings, wie sich in letzter Zeit Klagen über Radeon-I (inkl. 7500) Treiber und deren Kompatibilität häufen. Von den Radeon8500-Fans wird dann schnell darauf hingewiesen, ATi konzentriere sich jetzt eben auf das aktuelle High-End Produkt und WinXP. Ich möchte mal deren Gesichter sehen, wenn sich die Geschichte nach dem Erscheinen der R300 wiederholt.... :(


Die Gefahr besteht.


Mit Chipdesign kenne ich mich auch nicht wirklich aus, sonst würde ich sicher keine Fremdherstellungen kaufen ;)

Aleine hat man ja auch keine Chance einen kompletten Grafikchip zu designen. Trotzdem ist es eine sehr interesante Materie. Vorallem die Programmiersprachen für die Chipentwicklung.

Quasar
2002-05-27, 20:21:52
Mit Programmieren kannst du mich jagen!

Was hab ich gekotzt, als wir zu so netten Sachen wie prolog oder lisp gezwungen wurden....

Exxtreme
2002-05-27, 20:24:44
Originally posted by Quasar
Mit Programmieren kannst du mich jagen!

Was hab ich gekotzt, als wir zu so netten Sachen wie prolog oder lisp gezwungen wurden....
Dann zieh dir was "Richtiges" rein wie Java, Delphi oder C(++). Da sieht die Sache schon ganz anders aus, vor allem beim letzteren.

Gruß
Alex

Quasar
2002-05-27, 20:35:33
Originally posted by Haarmann
Tja... hat gereicht. Inzwischen behaupte ich mal frech, dass die R200 ner GF3Ti500 davonrennt. Je nach Settings natürlich - aber die Geschwindigkeit der R200 nahm mehr zu denn die der Ti500 - kannst sonst bei Digit-Life nachprüfen falls es ned glaubst.

Doch, ich glaub' dir. Komisch nur, daß gerade in den Benchmarkfähigen Games die Radeon so gut aussieht. Ansonsten braucht's oft erst 'nen neuen Treiber oder einen Patch.

[/quote]
Also die Radeon7000 hiess mal RadeonVE und der Chip drauf RV100... Aber weder am Takt noch am Chip wurde was gedreht. Und als neues Produkt wurds auch ned vorgestellt. Kein wunder, denn auf der ATI Homepage kannste lesen Radeon7000 aka RadeonVE.
Die 7200 war ehemals ne Radeon SDR hat aber dazu noch ne TV-Out Möglichkeit bekommen. Zuvor war dies nicht vorhanden.[/quote]

Aber sicher, meine RadeonSDR hatte TV-out...


Es ist einfach die Grundlage vom CBCM, welcher eigentlich nahe verwandt ist mit nem Interleave Interface eines ET 4000 W32i. Oder was genau macht denn diesen CBCM sooo einzigartig? Welches Feature ist "neu" zu Deutsch? Oder was macht die Einzigartigkeit des CBCM aus? Schwer für mich das richtig zu fragen.

Es sind einfach 4 (2 bei GF4MX) komplett unabhängige Memory-Controller, die bei Bedarf zusammenarbeiten können. Interleave oder Dual-Bus sind zwar auch nette Dinge, aber nichtmal ansatzweise so flexibel und vor allem Effizient.


Coaches heisst eben zusehen. Alle 4 Screens der Speiler kannste dann gleichzeitig sehen (Kophwehmodus).

Das glaub ich gerne...ich krieg schon allein Kopfschmerzen von Q3.


Die PS sind keine Erfindung eines Herstellers - die wurden zusammengetragen und können eigentlich als MS Erfindung durchgehen ;). Teile vom PS konnte ne Radeon schon (wobei Teile ned als Funktionen zu verstehen sind). Des Weiteren gabs ja auch PS 1.0 von 3dfx... aber die liefen wohl kaum je gross ;).

Ich glaube kaum, daß M$ hier jemals funktionierende HW hatte....hier greift Demirugs Argument bezgl. der schon lange vorher bekannten Formeln und mathematischen Verfahren.
Und wie gesagt...Patente auf Transistoren... :lol:
Teile vom Pixelshader konnte auch der Pyramid3D und Teile vom Vertexshader der nV1, und Teile von beiden sicher auch der Veritè V2200


Ned nur die MM PCs.... denk mal an die Hunderttausenden von Dells mit RagePro.

...ja, umso schlimmer. Und all die User, die ATi damit geärgert hat. ;)

Demirug
2002-05-27, 20:38:33
Originally posted by Exxtreme

Dann zieh dir was "Richtiges" rein wie Java, Delphi oder C(++). Da sieht die Sache schon ganz anders aus, vor allem beim letzteren.

Gruß
Alex

Da kann ich dir nur zustimmen. Prolog und lisp sind wirklich horror. Persönlich gefällt mir C# nicht schlecht.

Aber zurück zum Thema:

Die erste Consumer Grafikkarte die sowas wie Pixelshader hatte war soweit mir bekannt die TNT.

Quasar
2002-05-27, 20:38:36
Originally posted by Exxtreme

Dann zieh dir was "Richtiges" rein wie Java, Delphi oder C(++). Da sieht die Sache schon ganz anders aus, vor allem beim letzteren.

Gruß
Alex

Nee, danke. Mit sowas will ich gar nicht erst anfangen. Man sieht ja, wohin es führt.. ;)

ow
2002-05-27, 20:45:06
Originally posted by [tec]Lightning


Ganz einfach, vielleicht weil die langsam hochmütig werden könnten (wenn sie das nicht schon sind) und sich zu sicher fühlen. Bei der schnellen Entwicklung, die es zur Zeit gibt brauch NV nur mal ein paar Monate verschlafen, und zack - sind sie techologisch im Rückstand. Und das ist nicht so leicht aufzuholen.


Ich denke nicht, das NV sich sicher fühlt. Das wäre ziemlich dumm und das nehme ich mal nicht von ihnen an.

Sie werden die passende Antwort auf die Konkurrenz parat haben.

ow
2002-05-27, 20:57:44
Originally posted by 028

@ow:
Du bist aber nen wirklich harter nVidia-Verteidiger ;)
Bissu da Mitarbeiter? :D



Ich verteidige niemanden, wozu auch?
Ist beobachte, stelle fest und bilde mir eine Meinung.



Also:
"NV hat derzeit keine Konkurrenz.
Sieht man an deren Geschäftszahlen.
Unter Konkurrent verstehe ich jemandem, der einem gefährlich werden kann, aber nicht eine paar sonstige bedeutungslose Teilnehmer am Markt."

[QUOTE]

Lachhaft, ehrlich! ATi is ja wohl net bedeutungslos, genausowenig wie grosse OEM-Hersteller wie SiS...Matrox wird auch wieder aufholen, mal abgesehen das 3DLabs im High-End Markt ihre Kunden haben...



War etwas übertrieben mit dem bedeutungslos, aber ernsthafte Konkurrenz oder Gefahr für NV seitens ATi/Matrox/3Dlabs seh ich derzeit keine.



"NV könnte sich sogar Fehler leisten, die sind mittlerweile zu gross, um so einfach den Bach runterzugehen."

Isn't: nVidia-Aktienkurs (http://informer2.comdirect.de/de/detail/_pages/charts/main.html?sSymbol=NVD.FSE)

Seit Anfang des Jahres haben auch die viel vonner Technik-Krise abbekommen, fast 50% Wertverlust! Willst du mir also nochma so einen Scherz erzählen? Die stecken auch net unendlich viel ein!

Jo, stimme ich zu... ;)

Na, die anderen werden aber in der Technik-Krise wohl auch kaum zugelegt haben. Und NV ist IMO sogar besser für Krisen gerüstet als die anderen. Die Kassen sind schon gut gefüllt.

btw. SiS wird auch nicht verschwinden, für die ist Grafik nur Nebensache, nützlich für integrierte Chipsätze. Bis jetzt glaube ich nicht, das SiS wirklich gross im Grafikmarkt einsteigen will. Denn dazu müssten sie hier die Produktzyklen stark verkürzen.


ATi wird IMO in Zukunft in den Chipsatzmarkt einsteigen (wie auch NV), denn mit 2 (und mehr;)) Beinen steht man besser.

3dlabs Zukunft ist sehr ungewiss. Die sind sehr klein und haben auch lange Produktzyklen, haben schon einmal nach dem Permedia2 den Anschluss verpasst.

Haarmann
2002-05-27, 21:09:09
Quasar

Ich fühle mit Dir...
Ich als eingefleischter Pascal Mensch werde zu Java gezwungen... Selbst mit ner windows Emulation ist wohl ein Delphi Proggi noch schneller als Java ;) und komfortabler wohl auch...
Ich kann Dir als nachempfinden.

P.S. Sorry, nur die Europa Version hatte das gehabt... ich hab natürlich wie immer nur meine US Versionen im Kopf - mein Fisch.

Demirug

Ich wollte schon immer nen eigenen Chip designen ... Wär eigentlich mein Traumjob... Leider kann ich das in CH vergessen. Und nach Amiland, Asien oder EU gehe ich ned.

Exxtreme

Alles was diese 2 Zeichen {} hat und aussieht wie C oder C++ finde ich unter aller Sau ... meine Meinung eben. Der Code is etwa so lesbar wie ein chinesischer Aufsatz ;).
Delphi mag ich - so stelle ich mir RAD vor.

OW

Ich würd ne Wette drauf eingehen, dass die das ned haben werden *eg*

zeckensack
2002-05-27, 21:16:48
Originally posted by Haarmann
Alles was diese 2 Zeichen {} hat und aussieht wie C oder C++ finde ich unter aller Sau ... meine Meinung eben. Der Code is etwa so lesbar wie ein chinesischer Aufsatz ;).Och, man gewöhnt sich an alles. Mit Syntax Highlighting (farbliche Unterlegung von Schlüsselworten/Kommentaren) wird's ganz angenehm.

Ich kann dir auch ein paar kB Assembler um die Ohren hauen, wenn's sein muß *eg*

Exxtreme
2002-05-27, 21:21:52
Originally posted by zeckensack
Och, man gewöhnt sich an alles. Mit Syntax Highlighting (farbliche Unterlegung von Schlüsselworten/Kommentaren) wird's ganz angenehm.
Jo, find ich auch. Ich habe auch mit Pascal angefangen, bin aber ins C-Lager übergelaufen. Vor allem diese Zeichen wie {} sparen IMHO verdammt viel Tipparbeit. Deswegen empfinde ich C(++) als die praxistauglichste Programmiersprache.
Originally posted by zeckensack
Ich kann dir auch ein paar kB Assembler um die Ohren hauen, wenn's sein muß *eg*
:lol:
Tja, Haarmann das ist Spass...

Gruß
Alex

Haarmann
2002-05-27, 21:28:03
zeckensack

Dann hau mal rein mit Assembler *eg*

68k kann ich noch vom Amiga her (brauch ich zZ sogar an der Uni) und x86 geht zur Not auch noch, sieht aber zum kotzen aus.

Java bleibt für mich Horror... alleine deren Konventionen von GrossKleinschreibung... dagegen ist die neue Rechtschreibreform direkt ein Geniestreich ;)

Exxtreme

Wenn jemand diese {} mal gleich schreiben würde wie in Pascal die begin end, könnte ich ev noch mit leben... Aber alleine wie man das tippst verhindert ein schnelles lesen meinerseits. Und ich lese Pascal/Delphi SRC anderer Leute im schnitt recht schnell...
In der Schule machten wir früher mal Fraktale - alle in C ausser ich... mein PRG war im Schnitt 50% schneller - seither weiss ich wieso ich C auch noch ned mag ;). Zusätzlich erinnere ich mich mit Schrecken ans Kickstart 2.0 - C eben.
Praxistauglich heisst für mich eben, dass ich den Code eines anderen Lesen kann. Und zwar ohne Aufwand. Deswegen waren unsere CGIs damals (Delphi 2 auf oracle) wohl auch immer innert ca 15 mins fertig...

zeckensack
2002-05-27, 21:32:27
Dann fang' ich mal ganz harmlos an ...
void
FPU::cv_stuff_with_table_fog(const glide_vertex*const src,internal_vertex*const dest)
{
cv_without_fog(src,dest);
__asm
{
MOV ESI,src
MOV EDI,dest
MOV ECX,DWORD PTR [ESI+32] //load oow
MOV EAX,32
MOV EBX,16
iteration:
MOV EDX,DWORD PTR [fh_uint+4*EAX] //get fog helper entry[EAX]
CMP EDX,ECX //compare entry against oow
JE perfect_match
JNC helper_above_oow
SUB EAX,EBX
SHR EBX,1
JNZ iteration
JMP interpolate
helper_above_oow:
ADD EAX,EBX
SHR EBX,1
JNZ iteration
interpolate:
//note that on loop termination cur(EAX) can't be zero, but it can be 63
FLD DWORD PTR [fh_uint-4+4*EAX] //push fog_helper[cur-1]
FLD DWORD PTR [fh_uint+4*EAX] //push fog_helper[cur]
FSUB ST(1),ST(0) //ST(1)=fog_helper[cur-1] - fog_helper[cur]
FLD DWORD PTR [ESI+32] //push src->oow
FSUBRP ST(1),ST(0) //ST(0)=src->oow - fog_helper[cur]
FDIVRP ST(1),ST(0) //ST(0)=ipol_weight

LEA EAX,[fog_table+4*EAX]
FLD1 //push 1.0
FSUB ST(0),ST(1) //ST(0)=1-ipol_weight

FMUL DWORD PTR [EAX] //ST(0)=(1-ipol_weight)*fog_table[cur]
FXCH
FMUL DWORD PTR [EAX-4] //ST(0)=ipol_weight*fog_table[cur-1]
FADDP ST(1),ST(0) //ST(0)=final fog coordinate

FSTP DWORD PTR [EDI+4]
JMP go_away

perfect_match:
MOV EDX,[4*EAX+fog_table]
MOV [EDI+4],EDX
go_away:
}
}

Ich kann dir bei Bedarf ein paar tausend Zeilen Pixelformat-Converter in MMX-Assembler liefern, aber das gehört wohl nicht hier in den Thread :D

Haarmann
2002-05-27, 21:39:06
zeckensack

Also sieht ned so übel aus... Halt die F(PU) Befehle brauchte man damals als ich Intel betrachtet hab eher weniger ;) i386 - auch die Cache Befehle gabs damals ja noch ned... von MMX ned zu reden, aber sonst siehts bekannt aus... paar compares ein paar Jumps wenns ned gleich is usw. Assembler ist wohl die Kompatibleste Sprache ;) Wenns mal gesehen hast, verlernst das ned so schnell.

Aber hat wohl definitiv weder mit Gforce noch mit Radeon was zu tun (eher mit Radeon und GLIDE) ;)

zeckensack
2002-05-27, 21:44:29
Originally posted by Haarmann
zeckensack

Also sieht ned so übel aus... Halt die F(PU) Befehle brauchte man damals als ich Intel betrachtet hab eher weniger ;) i386 - auch die Cache Befehle gabs damals ja noch ned... von MMX ned zu reden, aber sonst siehts bekannt aus... paar compares ein paar Jumps wenns ned gleich is usw. Assembler ist wohl die Kompatibleste Sprache ;) Wenns mal gesehen hast, verlernst das ned so schnell.In dem Fetzen da sind aber weder Cache-Control- noch MMX-Befehle drin ???
Die habe ich woanders ...
Aber hat wohl definitiv weder mit Gforce noch mit Radeon was zu tun (eher mit Radeon und GLIDE) ;) Richtig erkannt =)

Oli_Immerschoen
2002-05-27, 21:47:18
Oh ja, Syntax Highlight, klappt besonders geil auf meiner Uni-Linuxgurke weil sie ständig Dinge gleichartig einfärbt die nicht zusammengehören :D ...aber egal, das ist hier nicht das Thema..

Ich denke es wird viel zu viel darüber diskutiert wer welche Technik besitzt,wer diese eingeführt hat und welche Karte das beste Gesamtpaket darstellt...meiner Meinung nach wird sich die Entscheidung wer überlebt und wer nicht zu einem hohen Anteil nach dem Faktor Marketing richten und hier hat NVidia in ihrer bisher wohl härtesten Schlacht gegen 3DFX eindrucksvoll gezeigt wo der Hammer hängt: mit dem bis heute - in meinen Augen zu Recht - umstrittenen Feature T&L haben sie den Grundstein zu 3DFX´s Genickbruch gelegt und dann zu einem Siegeszug sonder gleichen geblasen.

Wenn ich mir aber anguck welche Meinung sich mehr und mehr unter den Usern verbreitet denke ich daß die zeiten für NVidia nicht gut stehen: den anderen Firmen wie ATI oder Matrox schlägt mehrheitlich eine Welle der Sympathie entgegen während NVidia´s Ruf leidet, sei es nun wegen der "GF4" Bezeichnung für den NV17 oder wegen der brutalen Preispolitik: die Käufer sind mehr und mehr verärgert und werden immer kritischer; daß NVidia nun gleich pleite geht glaub ich weniger aber auf lange Sicht sollten die da IMHO was dran ändern, früher oder später werden die Kunden auch Aussagen á la PC-Games Hardware("DX8 Spiele werden heute nur von GF3 und 4 Karten voll unterstützt") nicht mehr glauben und sich nach Alternativen umsehen.

Generell denke ich daß es durchaus legitim ist die NVidia-Karten für ihre Technik zu kaufen, sie haben dort IMHO durchaus Ihre Highlights...NVidias Marktverhalten zu hypen wie es OW hier teilweise macht und vor allem der IMHO komplett verwirrte Richthofen halte ich allerdings für falsch: Fakt ist daß der derzeitige Marktanteil von NVidia uns potenziellen Kunden schon genug schadet, ein weiteres Ansteigen wäre verheerend..wir brauchen einfach Konkurrenz für gute Technik und niedrige Preise.

MfG Olli

Lightning
2002-05-27, 21:54:32
Originally posted by ow



Ich denke nicht, das NV sich sicher fühlt. Das wäre ziemlich dumm und das nehme ich mal nicht von ihnen an.

Sie werden die passende Antwort auf die Konkurrenz parat haben.

Naja, ob nVidia dumm ist, darüber kann jeder seine eigene Meinung haben ;) *eg*

Demirug
2002-05-27, 22:08:23
QOli_Immerschoen:

Das den Verfolgern ein Welle der Sympathie entgegenschlägt und man NVidia anfängt zu hassen ist auf das sogenanten "Neid-Syndrom" zurückzuführen welches in Europa sehr stark ausgeprägt ist.

Da der Grafikkarten Markt nach meiner Meinung (dank DX) nicht monopolysierbar ist sind die Marktanteile der einzelen Hersteller für die Marktordnung nebensächlich. Selbst wenn NVidia mehr als 90% hätte könnten sie keine Mondpreise verlangen den das würde den Spielraum für die restlichen 10% automatich erhöhen.

Haarmann
2002-05-27, 22:12:55
zeckensack

Ich sagte auch ned, dass dort MMX Code steht... ich sagte nur ich würds nedmals erkennen, wenns stände ;). Auch Cache Sachen (er)kenne ich ned und ISSE/3dnow erst recht nicht.

Demirug

NVidia war schon zu Riva Zeiten ned wirklich beliebt ;)

Demirug
2002-05-27, 22:18:09
Originally posted by Haarmann
NVidia war schon zu Riva Zeiten ned wirklich beliebt ;) [/B]

Was sie aber nicht davon abgehalten hat Marktführer zu werden. Ín dem Punkt kann ich aber sowieso nicht ganz Objective sein. Der Entwicklersupport von NVidia ist derzeit einfach unschlagbar und damit hat sich NVidia eben meine Sympathie gesichert.

Quasar
2002-05-27, 22:57:20
Originally posted by Demirug
Der Entwicklersupport von NVidia ist derzeit einfach unschlagbar und damit hat sich NVidia eben meine Sympathie gesichert.

...und das ist der entscheidende Punkt: Solange Games in der Mehrzahl auf nV-Hardware programmiert/getestet/abgestimmt werden, so lange wird's mit eben dieser HW auch weniger Scherereien bei neuen Games geben. Wenn die "anderen" das nicht begreifen und ändern, kann nV noch solche Mondpreise nehmen und noch so eine "Innovationsbremse" sein, sie werden trotzdem beim DAU und bei den OEMs immer Erster bleiben.

Demirug
2002-05-27, 23:03:53
Wobei ich glaube das Matrox da auch was gelernt hat. Zwei Tage nach der Chipvorstellung wurde die Entwicklerseite nach NVidia vorbild umgebaut. Leider gibt es aber noch nicht viel Inhalt.

NVidia hat aber auch eine verdammt hohe Latte in diesem Bereich gelegt. Hab mindestens 5 email adressen von NVidia-Leuten (Ok hat fast jeder). Die schicken aber auch mal einen Entwickler zu einem Spieleentwicklertreffen nach Deutschland.

Birdman
2002-05-27, 23:10:04
Originally posted by Haarmann
NVidia war schon zu Riva Zeiten ned wirklich beliebt ;) [/B]

ui, also damals war 3dfx der Buhmann und nvidia das "ichhabdichlieb" Unternehmen, welches nach aussage der "Fans" die krassesten Voodoo-Killer karten herstellte.
Ich war damals schon genug in Foren unterwegs um das zu sehen.
Heute ist nvidia 3dfx von damals und ati nvidia von damals....jedenfalls was die Rolle in diesem peinlichen Theaterspiel angeht welches sich tattäglich in tausenden von köpfen abspielt.

Quasar
2002-05-27, 23:18:21
Originally posted by Demirug
NVidia hat aber auch eine verdammt hohe Latte in diesem Bereich gelegt. Hab mindestens 5 email adressen von NVidia-Leuten (Ok hat fast jeder). Die schicken aber auch mal einen Entwickler zu einem Spieleentwicklertreffen nach Deutschland.

Das mussten sie AFAIK auch. Glide war ja angeblich so einfach zu proggen und so Entwicklerfreundlich und dann kam nV an und präsentierte einen damals DX-only Chip (sogar die Rage-Serie hatte ihre proprietäre API).

Damals konnte und wollte wohl kein Arsch sich mit DX beschäftigen und so musste nV, wenn sie nicht sterben wollten, wie beinahe schon mit ihrem ersten Chip, den Entwicklern heftigst unter die Arme greifen....

Demirug
2002-05-27, 23:26:55
Originally posted by Quasar


Das mussten sie AFAIK auch. Glide war ja angeblich so einfach zu proggen und so Entwicklerfreundlich und dann kam nV an und präsentierte einen damals DX-only Chip (sogar die Rage-Serie hatte ihre proprietäre API).

Damals konnte und wollte wohl kein Arsch sich mit DX beschäftigen und so musste nV, wenn sie nicht sterben wollten, wie beinahe schon mit ihrem ersten Chip, den Entwicklern heftigst unter die Arme greifen....

IMO konnte Gliede ja auch nicht so viel. Hab mir aber nur Version 1 mal angeschaut.

Soweit ich mich erinnern kann hatte nV auch schon immer OpenGL support weil die meisten Entwickler Direct3D vor der 6 Version nicht verstanden haben.

Es geht mir aber nicht darum was sie damals getan haben. Es geht um die Jahre 2001/2002.

Salvee
2002-05-27, 23:29:00
Ausserdem ist DX8 wohl hauptsächlich auf nV und Microschuft-Mist gewachsen, um die liebliche und nV-typisch sauteure :biggrin: X-Box zu befeuern. Wird sich Gerüchten nach mit DX9 ändern, laut Netz-Gemunkel soll hier ATi federführend sein...
P.S. Sogar Microsoft sind nV-Chips ZU TEUER !!!! Lasst euch das mal auf der Zunge zergehen....:lol:

Exxtreme
2002-05-27, 23:36:45
Originally posted by Salvee

P.S. Sogar Microsoft sind nV-Chips ZU TEUER !!!! Lasst euch das mal auf der Zunge zergehen....:lol:
Tja, shit happens. Aber da ist sich MS selbst schuld weil sie sich gegen sowas vertraglich nicht abgesichert haben.

Gruß
Alex

Demirug
2002-05-27, 23:38:58
Originally posted by Salvee
Ausserdem ist DX8 wohl hauptsächlich auf nV und Microschuft-Mist gewachsen, um die liebliche und nV-typisch sauteure :biggrin: X-Box zu befeuern. Wird sich Gerüchten nach mit DX9 ändern, laut Netz-Gemunkel soll hier ATi federführend sein...
P.S. Sogar Microsoft sind nV-Chips ZU TEUER !!!! Lasst euch das mal auf der Zunge zergehen....:lol:

Das NVidia bei DX8 stark mitgewirkt hat ist ein offenes geheimnis. Allerdings hat DX8 nur gewisse ähnlichkeiten mit dem XDK.

Was DX9 und ATI angeht. Sollte das wirklich so sein wird der R300 aber eine Enttäuschung im Bereich der Inovation werden. Das Zauberwort heist wohl eher Matrox. ATi vielleicht PS 2.0 obwohl die eher nach Nvidia Style aussehen.

StefanV
2002-05-27, 23:54:33
Originally posted by Salvee
Wird sich Gerüchten nach mit DX9 ändern, laut Netz-Gemunkel soll hier ATi federführend sein...
P.S. Sogar Microsoft sind nV-Chips ZU TEUER !!!! Lasst euch das mal auf der Zunge zergehen....:lol:

1. Bezeichne DX9 lieber als eine 'kanadische Entwicklung', passt besser als ATI ;)
AFAIK habem MGA und ATI an DX9 gearbeitet...

2. Tja, wenn man so doof ist und keinen 'Konsolenüblichen Vertrag' abschließt...
(Konsolenüblich-> Chipentwickler lizensiert HW an Konsolenhersteller, siehe PowerVR, die aus diesem Bereich kommen)

ShiShingu
2002-05-28, 21:43:04
Nur mal so am rande:

Manuelm85 hat sich ne Geforce 3 Ti200 64DDR gekauft-

er hat fast das selbe system wie ich, nur, dass ich mit meiner Radeon 7500 64DDR Retail mehr Leistung bei games, benches...
hab als er...

irgendwie komisch...oder...die NVIDIA-Freaks meinten doch die GF3 würd meine Radeon 7500 "locker" platt machen?! das ich nicht lache...!

Micron
2002-05-28, 21:57:41
Originally posted by ShiShingu
Nur mal so am rande:

Manuelm85 hat sich ne Geforce 3 Ti200 64DDR gekauft-

er hat fast das selbe system wie ich, nur, dass ich mit meiner Radeon 7500 64DDR Retail mehr Leistung bei games, benches...
hab als er...

irgendwie komisch...oder...die NVIDIA-Freaks meinten doch die GF3 würd meine Radeon 7500 "locker" platt machen?! das ich nicht lache...!

*auslach mode on*
:lol: Ich kann nicht mehr der Type macht mich Krank :lol: *auslach mode off*

Micron
2002-05-28, 21:59:01
Originally posted by ShiShingu
Nur mal so am rande:

Manuelm85 hat sich ne Geforce 3 Ti200 64DDR gekauft-

er hat fast das selbe system wie ich, nur, dass ich mit meiner Radeon 7500 64DDR Retail mehr Leistung bei games, benches...
hab als er...

irgendwie komisch...oder...die NVIDIA-Freaks meinten doch die GF3 würd meine Radeon 7500 "locker" platt machen?! das ich nicht lache...!

Nur mal so am Rande hast du Lust auf ein kleines Duell? Meine MX440 gegen deine Radeon7500? Du musst mich ja sowas von platt machen wenn du sogar eine GF3 ziehst mit deinr 7500.

StefanV
2002-05-28, 21:59:55
Originally posted by Blackmagic
Nur mal so am Rande hast du Lust auf ein kleines Duell? Meine MX440 gegen deine Radeon7500? Du musst mich ja sowas von platt machen wenn du sogar eine GF3 ziehst mit deinr 7500.

Oh mann, was soll man dazu nur sagen??

BTW:
Hast du eigentlich auch schonmal was von 'nem EDIT Button gehört??

Micron
2002-05-28, 22:04:45
Originally posted by Stefan Payne


hab jetzt 8300 3D Mark 2001 mit meiner GF3 TI200...

Dir ist doch klar das der SS dich mit seiner 7500 locker platt macht oder?

Lightning
2002-05-28, 22:08:04
Also, es ist ja wohl vollkommen unumstritten, dass eine GeForce3Ti200 jede Radeon 7500 platt macht. Auch wenn das hier einige sicher lieber anders hätten (ich eingeschlossen *eg*). Also wenn dein PC wirklich schneller in Spielen ist als bei Manuelm85 dann hast du entweder eine Wunder-Radeon erhalten oder bei seinem System stimmt was nicht.

StefanV
2002-05-28, 22:10:12
Originally posted by Blackmagic
Dir ist doch klar das der SS dich mit seiner 7500 locker platt macht oder?

Ja, denn er hat die bessere Karte *eg*

Meine GF3 TI200 würd ich eventuell auch gegen eine 7500 tauschen...

Aber wohl eher nicht ;)

M O
2002-05-28, 22:49:23
ich denk mal wegen graka preise 200-300€ find ich in ordnung

beim erscheinen der radion 8500 wollte ati auch 300€
ati hat die gleiche preispolitik wie nvidia aber wer kauft schon eine um diesen preis kein mensch, darum ist der preis jetzt am boden, ati muss grakas verkaufen zu jeden preis

die radeon ist sehr billig nun aber wenn ati marktfüher wäre und nvidia schlechtere grakas machen würde dann wäre es halt mit den preisen umgekert

ich mus ja nicht alle 6 monate neue kaufen wenn ich alle 1.5-2 jahre eine neue kauf reicht das

aber es gibt ja genug die alle 6 monate ne neue graka kaufen

meine ti4400 mus jetzt 2 jahre durchhalten erst dann kommt wieder neue karte ins haus

in 2 jaheren kann sich aber viel ändern, ich werd sehen dann wer die bessern grakas hat und diese kauf ich mir dann wieder

zur zeit is es nvidia die 4400 is ein hammer

Micron
2002-05-28, 22:53:33
Originally posted by Stefan Payne


Ja, denn er hat die bessere Karte *eg*

Meine GF3 TI200 würd ich eventuell auch gegen eine 7500 tauschen...

Aber wohl eher nicht ;)

Das kann ich sehr gut verstehen, ich glaube ich bestelle mir auch keine GF4TI4200 sondern eine ATI Radeon7500 bin ich besser dran oder was sagst du dazu?

zeckensack
2002-05-28, 22:56:44
Bitte alle die Schlagstöcke beiseite legen, Lutscher nehmen und setzen.

Das ist ja wohl echt albern hier ...

Dunkeltier
2002-05-29, 15:56:22
Originally posted by Blackmagic


*auslach mode on*
:lol: Ich kann nicht mehr der Type macht mich Krank :lol: *auslach mode off*


Du bist auch nicht besser, meinst auch mit deiner Geforce 4MX alle wegrulen zu können. Bzw. mit deinem gesamten System. Und das nur, weil dein Prozzi minimal schneller ist (und du nicht auf meine restliche Peripherie achtest :lol: ).

ShiShingu
2002-05-29, 16:05:56
Originally posted by Blackmagic


Nur mal so am Rande hast du Lust auf ein kleines Duell? Meine MX440 gegen deine Radeon7500? Du musst mich ja sowas von platt machen wenn du sogar eine GF3 ziehst mit deinr 7500.

k,-das mit der GF3Ti200 nehm ich ja zurück, aber deine "billige" GF4MX440 is ja wohl noch schlimmer als ne Radeon 7500!

die zieh ich auf jeden fall ab!

AMC
2002-05-29, 17:21:13
Originally posted by Andre


Zu 1.

Dann lasse mich doch an deinem unbegrenzten Wissen teilhaben.
Nur zu, mein Freund.
Ich würde an Deiner Stelle auch nicht die Klappe aufreissen, wenn du noch nicht einmal in der Lage ist, grammatikalisch richtig zu schreiben.

Zu 2.

Ich denke wir brauchen eher eine "Junior-Member-Maul-aufreiss-obwohl-nichts-Sachliches-gesagt-vermeidungs"-Polizei.

Ruhig Andre, ruhig. ;) Ich denke, es ist es nicht wert, sich über sowas aufzuregen. Ich lese die Beiträge dieses Forums seit ca. 2 Jahren und hatte nie wirklich Lust, an den Diskussionen teilzunehmen. (Was sich jetzt geändert hat.) Worauf ich hinaus will: Ein sanfter Druck auf den profile Button, ein kurzer Klick und schon ist die Ignore-List um einen Eintrag reicher.. (Anders hätte ich diese 2 Jahre hier auch NICHT überstanden!) ;D

AMC

MadManniMan
2002-05-29, 17:25:18
hm, hatten wir lange nicht mehr, daß leute tatsächlich ihre schwänze vergleichen...

Lightning
2002-05-29, 17:25:30
Originally posted by ShiShingu


k,-das mit der GF3Ti200 nehm ich ja zurück, aber deine "billige" GF4MX440 is ja wohl noch schlimmer als ne Radeon 7500!

die zieh ich auf jeden fall ab!

Oh man, ham wir hier ein Tunier "Wer hat den besten Rechner?" oder was? Gott ist das kindisch...

Andre
2002-05-29, 17:29:48
Originally posted by ShiShingu


k,-das mit der GF3Ti200 nehm ich ja zurück, aber deine "billige" GF4MX440 is ja wohl noch schlimmer als ne Radeon 7500!

die zieh ich auf jeden fall ab!

Oh mann.
Ich frage mich nur, warum die R7500 dann bei den meisten mir bekannten Benches hinter der 4 MX 440 liegt.
Aber egal, ich lass Dich in deinem Glauben =)

MadManniMan
2002-05-29, 17:39:05
waaah! andre, geh garnicht erst drauf ein! das hat man ihm schon tausende male erzählt...

ShiShingu
2002-05-30, 01:29:17
Originally posted by MadManniMan
waaah! andre, geh garnicht erst drauf ein! das hat man ihm schon tausende male erzählt...

...stimmt, eigentlich ist das hier alles sinnlos!

aber jetzt mal im ernst:

ich bin mit der Radeon 7500 vollkommen zufrieden (bis auf die FREEZES-liegt wohl an den treibern...ich hoffe das ATI da ein bisschen nachholt!),und eigentlich ist es mir auch egal ob die Geforce3-4 Serie mehr leistung hat usw...
hauptsache die karte funzt und man is zufrieden!

da ich kein DAUERZOCKER bin und auch mal Filme am PC schaue usw... ist die Radeon 7500 eben die beste "Allround-Karte" für mich gewesen.

Lightning
2002-05-30, 01:34:16
Originally posted by ShiShingu


...stimmt, eigentlich ist das hier alles sinnlos!

aber jetzt mal im ernst:

ich bin mit der Radeon 7500 vollkommen zufrieden (bis auf die FREEZES-liegt wohl an den treibern...ich hoffe das ATI da ein bisschen nachholt!),und eigentlich ist es mir auch egal ob die Geforce3-4 Serie mehr leistung hat usw...
hauptsache die karte funzt und man is zufrieden!

da ich kein DAUERZOCKER bin und auch mal Filme am PC schaue usw... ist die Radeon 7500 eben die beste "Allround-Karte" für mich gewesen.

Dann freu dich doch einfach über dein Karte, aber nur weil die für dich vielleicht eine gute Wahl war muss das ja noch längst nicht für andere auch so sein. :-)
(Übrigens: Wie kannst du sagen dass deine Karte gut läuft, wenn du freezes hast? Und das liegt auch garantiert nicht an den Treibern.)

ShiShingu
2002-05-30, 01:45:20
Originally posted by [tec]Lightning


Dann freu dich doch einfach über dein Karte, aber nur weil die für dich vielleicht eine gute Wahl war muss das ja noch längst nicht für andere auch so sein. :-)
(Übrigens: Wie kannst du sagen dass deine Karte gut läuft, wenn du freezes hast? Und das liegt auch garantiert nicht an den Treibern.)

also meinst du gelegentliche FREEZES sind nicht normal?
woran kann das denn sonst liegen? (kaputte karte?)

StefanV
2002-05-30, 01:52:47
Originally posted by ShiShingu
also meinst du gelegentliche FREEZES sind nicht normal?
woran kann das denn sonst liegen? (kaputte karte?)

Nein, gelegentliche Freezes sind nicht normal...

AGP4x, zu scharfe RAM Timings, zu viel oc...

Lightning
2002-05-30, 01:53:02
k.A., vielleicht hast du ein Hitzproblem. Auf jeden Fall kanns nicht an den Treibern liegen. Es wäre nämlich n ziemlicher Skandal, wenn alle Radeon 7500 Karten mit freezes zu kämpfen hätten ;)

ShiShingu
2002-05-30, 01:57:55
Originally posted by Stefan Payne


Nein, gelegentliche Freezes sind nicht normal...

AGP4x, zu scharfe RAM Timings, zu viel oc...

also sie ist nich overclocked ich hab die speichertimings runtergedreht auf "by SPD" gestellt...

was meinst du mit agp4x hat man bei "automatisch" nicht die beste einstellung?

was meint ihr denn mit Hitzeproblem?

womit kann ich denn am besten testen das die karte ohne FREEZES läuft-ohne ein game zu zocken - benchmark?(bei benchmarks ist sie nie hängengeblieben aber trotzdem bei den games z.B. DS...)

Lightning
2002-05-30, 02:11:25
Er meinte, dass die Karte vielleicht nicht richtig unter AGP4x läuft. (Also mal mit 2x testen --> keine Angst, du wirst keinen Performanceverlust spüren)
Am besten lässt sich die Karte eigentlich auf Freezes testen, wenn man z.B. ein paar mal hintereinander 3DMark2k1 durchlaufen lässt.
Und das mit dem Hitzeproblem war nur so ne Idee von mir, kannst ja mal das Gehäuse abnehmen und ohne testen, ob die Karte immer noch freezt.

ShiShingu
2002-05-30, 20:52:36
Originally posted by [tec]Lightning
Er meinte, dass die Karte vielleicht nicht richtig unter AGP4x läuft. (Also mal mit 2x testen --> keine Angst, du wirst keinen Performanceverlust spüren)
Am besten lässt sich die Karte eigentlich auf Freezes testen, wenn man z.B. ein paar mal hintereinander 3DMark2k1 durchlaufen lässt.
Und das mit dem Hitzeproblem war nur so ne Idee von mir, kannst ja mal das Gehäuse abnehmen und ohne testen, ob die Karte immer noch freezt.

ich hab 3Dmark2001SE 72mal im Looping durchlaufen lassen (ca.6-7Std.)
OHNE FREEZES! *freu* :D

mal sehn wie die games funzen...

PS: ich hab bei 3Dmark2001SE 4775 Punkte - ist das schlecht, normal oder gute leistung?

Argo Zero
2002-05-30, 21:09:13
Dazu muss ich mal sagen, dass 3Dmark eigentlich nie freezed.
Ich hab 3Dmark auch paar Stunden lang laufen lassen und dann 30 sekunden Quake3 Freeze ;)

Quasar
2002-05-30, 21:31:10
Originally posted by ShiShingu


ich hab 3Dmark2001SE 72mal im Looping durchlaufen lassen (ca.6-7Std.)
OHNE FREEZES! *freu* :D

mal sehn wie die games funzen...

PS: ich hab bei 3Dmark2001SE 4775 Punkte - ist das schlecht, normal oder gute leistung?

Kommt auf den Rest deines Sys' an. Wenn du irgendwas in der Gegend von XP1700+ und DDR-RAM hast, würde ich sagen es ist nicht gerade berauschend, besonders im Vergleich zu einer GF4MX440 ;)

ShiShingu
2002-05-30, 22:21:25
Originally posted by Quasar


Kommt auf den Rest deines Sys' an. Wenn du irgendwas in der Gegend von XP1700+ und DDR-RAM hast, würde ich sagen es ist nicht gerade berauschend, besonders im Vergleich zu einer GF4MX440 ;)

ich hab nen AMD Athlon Thunderbird C 1400 ; 256MB DDR-RAM usw...

Quasar
2002-05-30, 22:28:28
Na, dann isses wohl ok...

Lightning
2002-05-30, 23:00:09
Originally posted by Argo Zero
Dazu muss ich mal sagen, dass 3Dmark eigentlich nie freezed.
Ich hab 3Dmark auch paar Stunden lang laufen lassen und dann 30 sekunden Quake3 Freeze ;)

Wenn ich bei mir zu stark übertakte freezt 3DMark sehr wohl (bzw. zeigt Fehler).

ShiShingu
2002-05-30, 23:00:54
dann is ja gut...

...aber irgendwie gehen mir diese dauernden FREEZES auf die nerven!

kann ich die karte, wenn ich sie ende märz bei nem online shop (World Of PC) gekauft hab, wohl jetzt noch gegen eine andere Grafikkarte umtauschen?

wenn ja, welche würdet ihr mir empfehlen? (ich dachte so an GF4MX, GF2Ti Gold, GF3Ti200,...)

Lightning
2002-05-30, 23:03:09
Hast du das mit dem agp4x usw. denn jetzt mal ausprobiert?

RAL
2002-05-30, 23:10:08
Originally posted by Black Cow

Quake 3 = eckige Finger = beschißene Engine = armes Spiel. Das es besser geht, zeigt das uralte CS welches auf der Quake 1 Engine basiert.

CS? du meinst dieses FSK ab 6 Jahre Spiel? :lol: