PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Radeon 8500 LE oder Gforce 4 TI4200


Jason
2002-08-09, 19:03:14
Hallo Leute,

ich will mit eine grafikkarte kaufen und weiss nicht was ich für eine kaufen soll. ich meine gforce 4 4200 sollte besser sein als radeon.

Verwendungszweck ist Counterstrike, Mechwarrior 4, und Flugsimulatoren usw.

Vielen Dank für eure Tips

Jason

Nefilim
2002-08-09, 19:10:27
Die Geforce 4 TI 4200 ist schneller und hat das bessere Preis/Leistungsverhältnis! Ich würde sie mir kaufen, wenn ich mir heute eine GraKa zulegen müsste! :)

Axel
2002-08-09, 19:53:34
Das ist wohl eher eine Glaubensfrage. ;)
Die Radeon8500 mit 64MB ist für deutlich unter 150 Euro zu haben. Die 128MB-Variante kostet um die 200 Euro. Dafür gibt es auch die GF4200. Ob die GeForce wirklich schneller ist hängt vorallem von deinem Prozessor ab. Wenn dein System CPU-limitiert ist, wirst du m.E. keinen Unterschied feststellen. Auf jeden Fall sind beide schnell genug, um die von dir bevorzugten Spiele darzustellen.
Ich denke auch, daß du mit einer Geforce insgesamt weniger Probleme haben solltest, was die Treiber betrifft.

GUNDAM
2002-08-09, 20:20:29
Ich kann dir nur empfelen die Geforce 4 Ti4200 zu kaufen. Mit der Radeon 8500 hat man nur Probleme.

joergd
2002-08-09, 20:34:13
Originally posted by Luke Skywalker
Mit der Radeon 8500 hat man nur Probleme.
Das würde ich so nicht stehen lassen - macht (zu Anfang) die gleichen Probleme wie jede neue Grafikkartengeneration die man einbaut, würde ich sagen.
Ansonsten, von der Geschwindigkeit ist die GF4 nun mal besser und (leider) sind die meisten Spiele stärker auf nVidia optimiert.
Allerdings, wenn du viel DVD auf dem PC und über TVo siehst, würde ich die Radeon in die engere Wahl ziehen.
(Damit keine flamediskussion aufkommt: ich habe eine R8k5, bin voll zufrieden, würde für reine Spieleanwendung aber bei jetziger Preis/Leistung GF4Ti200 empfehlen)

mapel110
2002-08-09, 23:41:53
geforce 4 4200 für 150 euro
radeon 8500 le für 109 euro
differenz 41 euro -> ca 40 %
leistungsunterschied circa 10-15%

www.preistrend.de

Birdman
2002-08-10, 02:16:03
zzzZZzzzhört schon auf mit diesen dämlichen preisrechnereien.
wenn demnach geht müsste man auf nem trödelmarkt ne voodoo graphics für einen euro kaufen....
dagegen ist ne 8500le zwar 10900% teurer, aber nur etwa 2000% schneller.

Unregistered
2002-08-10, 07:20:33
villeicht wollte mapel uns damit auch nur sagen..weniger geld weniger leistung...
also kommts nun auf seinen geldbeutel an...

brauchst ja nicht gleich so abzugehen alter...

Axel
2002-08-10, 09:19:01
Originally posted by Luke Skywalker
Mit der Radeon 8500 hat man nur Probleme.

Also das man mit der 8500 nur Probleme hat, stimmt nun wieder nicht. Wer sich die Hilfe-Foren für ATI und Nvidia-Karten ansieht, merkt schnell ob und wie groß die Probleme der einzelnen Karten sind.
Ich kann nur sagen ich hatte bislang nur ein Problem mit meiner 8500. Und das lag/liegt an den neuen ATI-Treiber für Drittanbieter, die bei mir den 60Hz-Bug unter Win98SE aktivierten. Aber das ändert sich vielleicht wenn Hercules diese als eigene neue Treiberversion bringt. Denn mit Herculestreibern hatte ich bislang keinerlei Probleme (obwohl diese identisch zu ATI-Treibern sein sollen).

Schnitzl
2002-08-10, 10:50:50
Originally posted by Luke Skywalker
Ich kann dir nur empfelen die Geforce 4 Ti4200 zu kaufen. Mit der Radeon 8500 hat man nur Probleme.
Die Probleme scheinen eher bei dir zu liegen.
Zum SP3 von Win2000 hast du auch so ne Pauschalbehauptung abgelassen,
was genauso wie der Satz hier völliger Humbug ist.

mapel110
2002-08-10, 17:43:39
geforce 4 4200 128mb für 164 euro = 324 DM
radeon 8500 le 128mb für 144 euro = 283 DM
preis leistung halten sich hier die waage,
wobei auf der geforce 4200 128mb der speicher nur mit 444 mhz taktet.

p.s. ich kanns nicht lassen :D

Ikon
2002-08-10, 18:03:04
Ich kann mich mapel110 nur anschließen, beide Karten bieten ein etwa äquivalentes Preis-/Leistungsverhältnis. Die Radeon 8500LE liefert zwar weniger Performanceals die GF4-TI4200, kostet aber auch entsprechend weniger. Für die von dir angegebenen Spiele sind beide Karten völlig ausreichend (eher überdimensioniert). Du solltest bei deiner Kaufentscheidung auch die jeweiligen Stärken der beiden Karten beachten. Während die GF4 mit AA sehr schnell ist (Multisample), kann die Radeon mit extrem schneller, aber qualitativ etwas schlechterer anisotroper Filterung (bilinear!) dienen. Also, jetzt entscheide dich.

Mein persöhnliche Empfehlung (Achtung: subjektiv!): Radeon 8500LE

ow
2002-08-11, 17:29:20
Originally posted by Jason
Hallo Leute,

ich will mit eine grafikkarte kaufen und weiss nicht was ich für eine kaufen soll. ich meine gforce 4 4200 sollte besser sein als radeon.

Verwendungszweck ist Counterstrike, Mechwarrior 4, und Flugsimulatoren usw.

Vielen Dank für eure Tips

Jason


Die GF4 ist besser als die Radeon, s.a. hier:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/

Muh-sagt-die-Kuh
2002-08-11, 18:31:52
Originally posted by ow



Die GF4 ist besser als die Radeon, s.a. hier:

http://www.3dcenter.org/artikel/directx8_grafikchips_roundup/ Pauschalisierung....frag lieber die Leute, was ihnen wichtig ist....ob eher AF oder eher AA....und gib dann einen Ratschlag ab.

Ikon
2002-08-11, 18:34:10
Originally posted by Muh-sagt-die-Kuh
Pauschalisierung....frag lieber die Leute, was ihnen wichtig ist....ob eher AF oder eher AA....und gib dann einen Ratschlag ab.

Da kann ich nur zustimmen, besser ist die GF4 bestimmt nicht, denn das ist immer subjektiv -> sie ist nur etwas schneller (mehr Rohleistung)

ow
2002-08-11, 18:40:51
Originally posted by Muh-sagt-die-Kuh
Pauschalisierung....frag lieber die Leute, was ihnen wichtig ist....ob eher AF oder eher AA....und gib dann einen Ratschlag ab.

Für beides, AA und AF, ist die GF4 die bessere Wahl.

Ikon
2002-08-11, 18:57:46
Originally posted by ow
Für beides, AA und AF, ist die GF4 die bessere Wahl.

Schon wieder dieses "bessere Wahl" ... hatten wir das nicht eben geklärt? Ich denke wir alle wissen, das du das bilineare AF der Radeon (und dessen ungefilterte 45° Winkel) nicht sonderlich schätzt. Aber während die Beurteilung der Bildqualität sehr subjektiv ist, umso objektiver erkennbar ist die extrem hohe Geschwindigkeit des AF der Radeon. Die GF4TIs mögen zurzeit noch ausreichende Speed mit AA und AF liefern, dies resultiert aber lediglich aus der relativ schwachen Nutzung ihrer Leistungskapazität durch aktuelle Software. Daraus folgt: wenn die Software mehr Rohleistung frist (was früher oder später passieren wird), dann wird das AF der GF4 zu langsam, während die Radeon es höchstwahrscheinlich noch nutzen kann (aufgrund ihres relativ geringeren Geschwindigkeitsverlustes).

MTC
2002-08-11, 19:07:29
Egal wo unsere Sympathien gehen, die Radeon 8500 ist einfach nicht so gut wie die Ti4200. Ich finde es auch nicht so doll das ATI ihren Treibersupport so in den Wind geschossen hat aber wir müssen uns einfach damit zufrieden geben, eine Geforce4 ist besser als eine Radeon8500.

ow
2002-08-11, 19:17:26
Originally posted by Ikon


Schon wieder dieses "bessere Wahl" ... hatten wir das nicht eben geklärt? Ich denke wir alle wissen, das du das bilineare AF der Radeon (und dessen ungefilterte 45° Winkel) nicht sonderlich schätzt. Aber während die Beurteilung der Bildqualität sehr subjektiv ist, umso objektiver erkennbar ist die extrem hohe Geschwindigkeit des AF der Radeon.

:lol:

Bildqualität ist was objektiv erkennbares.
Du siehst ja auch, ob bilinear gefiltert oder nur point sampling genutzt wird. Das ist sicher kein subjektiver Eindruck.

Muh-sagt-die-Kuh
2002-08-11, 19:18:25
Originally posted by Ikon


Die GF4TIs mögen zurzeitnoch ausreichende Speed mit AA und AF liefern, dies resultiert aber lediglich aus der relativ schwachen Nutzung ihrer Leistungskapazität durch aktuelle Software. Daraus folgt: wenn die Software mehr Rohleistung frist (was früher oder später passieren wird), dann wird das AF der GF4 zu langsam, während die Radeon es höchstwahrscheinlich noch nutzen kann (aufgrund ihres relativ geringeren Geschwindigkeitsverlustes). Für Aquanox reicht die AF+AA Leistung jetzt schon nicht aus.

Ikon
2002-08-11, 19:18:38
Originally posted by MTC
Egal wo unsere Sympathien gehen, die Radeon 8500 ist einfach nicht so gut wie die Ti4200. Ich finde es auch nicht so doll das ATI ihren Treibersupport so in den Wind geschossen hat aber wir müssen uns einfach damit zufrieden geben, eine Geforce4 ist besser als eine Radeon8500.

Du scheinst entweder ein Problem mit dem Lesen oder mit dem korrekten Formulieren zu haben. Die GF4 ist keinen Deut besser als die R8k5, sie besitzt nur eine (etwas) höhere Rohleistung. Und bevor du Dinge wie "Treibersupport in den Wind geschossen hat" behauptest, kauf' dir eine und urteile selbst anstatt etwas nachzuplappern.

ow
2002-08-11, 19:20:23
Originally posted by MTC
Egal wo unsere Sympathien gehen, die Radeon 8500 ist einfach nicht so gut wie die Ti4200. Ich finde es auch nicht so doll das ATI ihren Treibersupport so in den Wind geschossen hat aber wir müssen uns einfach damit zufrieden geben, eine Geforce4 ist besser als eine Radeon8500.


So ist das.

Wieso die R8k5 mit der GF4 verglichen wird, ist mir sowieso rätselhaft. Um die GF3 zu erreichen hat die Radeon schon genug zu kämpfen.

Auf bessere ATi Treiber hoffen sicher viele. Ich auch.
Bin mal gespannt, was sie beim R300 diesbezüglich zu bieten haben.

Ikon
2002-08-11, 19:22:42
Originally posted by ow
:lol:
Bildqualität ist was objektiv erkennbares.
Du siehst ja auch, ob bilinear gefiltert oder nur point sampling genutzt wird. Das ist sicher kein subjektiver Eindruck.

Nett gesagt, aber auch drüber nachgedacht? Gerade beim AF der Radeon ist die Bildqualität völlig subjektiv, was die geteilten Meinungen darüber ausreichend belegt. Du störst dich am MIP-Banding und den ungefilterten Winkeln, ich erfreue mich an der im Gegenzug gebotenen anisotropen Filterung (-> Schärfe) und schon ist das ganze völlig subjektiv.

Muh-sagt-die-Kuh
2002-08-11, 19:22:43
Originally posted by ow


:lol:

Bildqualität ist was objektiv erkennbares.
Du siehst ja auch, ob bilinear gefiltert oder nur point sampling genutzt wird. Das ist sicher kein subjektiver Eindruck. Nein, es hängt auch davon ab, als wie störend ein Individuum gewissen Effekte empfindet.

Zwischen point-sampling und bi-linear sieht selbst ein Blinder den Unterschied, zwischen z.B. ATI-AF und NVidia-AF oder 2X AA und 4X AA wird es schon deutlich schwieriger, einen Unterschied festzustellen, sprich den meisten Leuten wird überhaupt keiner auffallen.

Muh-sagt-die-Kuh
2002-08-11, 19:30:54
Originally posted by ow
Auf bessere ATi Treiber hoffen sicher viele. Ich auch.
Bin mal gespannt, was sie beim R300 diesbezüglich zu bieten haben. An den aktuellen Treibern gibt es nichts gravierendes zu bemängeln, die NVidia Detonatoren sind abseits des 3D Parts auch nicht gerade das gelbe vom Ei.....infinite_loop, der hübsche DDC-Bug und der mieserable TV-Out Support um ein paar Beispiele zu nennen.

MTC
2002-08-11, 19:54:33
Originally posted by Ikon


Du scheinst entweder ein Problem mit dem Lesen oder mit dem korrekten Formulieren zu haben. Die GF4 ist keinen Deut besser als die R8k5, sie besitzt nur eine (etwas) höhere Rohleistung. Und bevor du Dinge wie "Treibersupport in den Wind geschossen hat" behauptest, kauf' dir eine und urteile selbst anstatt etwas nachzuplappern.

Woher willst du wissen das ich keine R8500 hatte?

mapel110
2002-08-11, 19:55:31
Originally posted by Muh-sagt-die-Kuh
An den aktuellen Treibern gibt es nichts gravierendes zu bemängeln, die NVidia Detonatoren sind abseits des 3D Parts auch nicht gerade das gelbe vom Ei.....infinite_loop, der hübsche DDC-Bug und der mieserable TV-Out Support um ein paar Beispiele zu nennen.

nix gravierendes zu bemängeln ??? also opera und mozilla freezen bei mir und bin nun gezwungener massen beim IE gelandet.
die freezes sind sogar so heftig, dass festplatten-fehler auftreten. bzw komplette dateien unbrauchbar werden.

Ikon
2002-08-11, 19:59:46
Originally posted by MTC
Woher willst du wissen das ich keine R8500 hatte?

Deine Posts klingen nicht gerade danach, also kläre mich auf, hattest du eine Radeon8k5? Und wenn ja, wann? Mit welchen Treibern hast du schlechte Erfahrungen gemacht?

Muh-sagt-die-Kuh
2002-08-11, 20:12:36
Originally posted by mapel110


nix gravierendes zu bemängeln ??? also opera und mozilla freezen bei mir und bin nun gezwungener massen beim IE gelandet.
die freezes sind sogar so heftig, dass festplatten-fehler auftreten. bzw komplette dateien unbrauchbar werden. Kann ich nicht nachvollziehen, Opera macht bei mir keine Zicken mit dem 2.2er Catalyst.

StefanV
2002-08-11, 20:33:02
Originally posted by ow


Für beides, AA und AF, ist die GF4 die bessere Wahl.

Wenn man ein Budget von 120€ hat, dann ist die GF4 die bessere Wahl??

Ach ja:

Für jemanden, der den ganzen Tag vorm Rechner sitzt und oft den TV Out nutzt, ist die GF4 auch die bessere Wahl?

Für die, die 'etwas' empfindlich mit den Ohren sind und sehr leise Rechner 'brauchen', für die ist die GF4 auch die bessere Wahl??

StefanV
2002-08-11, 20:36:20
Originally posted by Muh-sagt-die-Kuh
Kann ich nicht nachvollziehen, Opera macht bei mir keine Zicken mit dem 2.2er Catalyst.

Kann ich aber beim 6118er für Windows 2k bestätigen.

Tritt allerdings nicht bei allen Seiten auf, im entsprechenden Thread war mal ein Link, damit ist der Rechner gleich gefreezt.

Muh-sagt-die-Kuh
2002-08-11, 21:31:58
Originally posted by Stefan Payne


Kann ich aber beim 6118er für Windows 2k bestätigen.

Tritt allerdings nicht bei allen Seiten auf, im entsprechenden Thread war mal ein Link, damit ist der Rechner gleich gefreezt. OK, ich kann es nach der Anleitung im Thread auch bestätigen, ist wohl in der Tat ein Bug....es freezt übrigens nur die Grafik,
nicht aber der Rechner. Das Betriebsystem läuft im Hintergrund unbeeindruckt weiter, inkl. aller Dienste wie ICS.

MTC
2002-08-11, 22:05:18
Originally posted by Ikon


Deine Posts klingen nicht gerade danach, also kläre mich auf, hattest du eine Radeon8k5? Und wenn ja, wann? Mit welchen Treibern hast du schlechte Erfahrungen gemacht?

Hatte bis vor kurzem eine. Treiber war die Version 6071.

GTA3 und Aquanox liefen nicht richtig. Deswegen habe ich die Karte verauft und eine Ti4200 gekauft.

PS:

So wie sich deine Postings hören bist nicht gerade ein grosser Freund von Nvidia, aber dafür brauchst du diese Karten nicht in allen niederzumachen.
Ich bin auch kein grosser Nvidia Fan aber in Zeiten wie diesen sind Nvidia Grakas einfach besser.

Unreal Soldier
2002-08-11, 22:26:48
Originally posted by MTC


Hatte bis vor kurzem eine. Treiber war die Version 6071.

GTA3 und Aquanox liefen nicht richtig. Deswegen habe ich die Karte verauft und eine Ti4200 gekauft.

PS:

So wie sich deine Postings hören bist nicht gerade ein grosser Freund von Nvidia, aber dafür brauchst du diese Karten nicht in allen niederzumachen.
Ich bin auch kein grosser Nvidia Fan aber in Zeiten wie diesen sind Nvidia Grakas einfach besser.

Das kann ich bestätigen.

MFG
Unreal Soldier

Ikon
2002-08-11, 22:40:33
Originally posted by MTC
So wie sich deine Postings hören bist nicht gerade ein grosser Freund von Nvidia, aber dafür brauchst du diese Karten nicht in allen niederzumachen.

Tut mir leid, wenn du diesen Eindruck gewonnen hast. Ich gestehe der GF3/4-Serie durchaus ihre Vorteile zu (z.B. sehr schnelles und qualitativ hochwertiges AA, hohe Rohleistung), aber genauso muss ich der Radeon ihre Vorteile zugestehen (z.B. sehr schnelles AF, sehr gutes TV-Out). Ich habe bloß ein Problem mit diesen albernen Pauschalisierungen wie "GF4 ist besser, kauf dir die!". Die Grundfrage dieses Threads, ob die GF4-TI4200 (ab 148,-- EUR) ihren Mehrpreis gegenüber der Radeon 8500LE (ab 108,10 EUR) rechtfertigt, ist übrigens immer noch nicht geklärt worden.

Dunkeltier
2002-08-11, 23:00:13
Originally posted by Jason
Hallo Leute,

ich will mit eine grafikkarte kaufen und weiss nicht was ich für eine kaufen soll. ich meine gforce 4 4200 sollte besser sein als radeon.

Verwendungszweck ist Counterstrike, Mechwarrior 4, und Flugsimulatoren usw.

Vielen Dank für eure Tips

Jason

Kaufe dir eine Geforce 4 4200 ohne überflüssigen Schnörkel. Viel Leistung für wenig Geld und ohne TV-Out gibts mit der Geforce 4 4200 von Sparkle.

zeckensack
2002-08-12, 00:13:44
*verschieb*

Unregistered
2002-08-12, 00:40:01
Originally posted by ow



So ist das.

Wieso die R8k5 mit der GF4 verglichen wird, ist mir sowieso rätselhaft. Um die GF3 zu erreichen hat die Radeon schon genug zu kämpfen.

Auf bessere ATi Treiber hoffen sicher viele. Ich auch.
Bin mal gespannt, was sie beim R300 diesbezüglich zu bieten haben.

****

Die GF3 liegt definitiv hinter einer Radeon8500 und ****, da du nicht aus Erfahrung, sondern aus anderer Meinung rezitierst. ******

Billige Anmache und Beleidigungen gelöscht by Exxtreme

Quasar
2002-08-12, 00:51:33
Originally posted by Stefan Payne
Wenn man ein Budget von 120€ hat, dann ist die GF4 die bessere Wahl??
Ach ja:
Für jemanden, der den ganzen Tag vorm Rechner sitzt und oft den TV Out nutzt, ist die GF4 auch die bessere Wahl?
Für die, die 'etwas' empfindlich mit den Ohren sind und sehr leise Rechner 'brauchen', für die ist die GF4 auch die bessere Wahl??

Einerseits schiebst du hier das Budget in den Vordergrund, andererseits den TV-out und dann wieder die Geräuschkulisse.

Zeig' mir doch mal einen Shop, der eine passiv gekühlte Radeon mit brauchbarem TV-out (d.h. auch zweitem RAMDAC) für 120€ ins Haus liefert....

Quasar
2002-08-12, 00:52:56
Originally posted by Unregistered
****
Die GF3 liegt definitiv hinter einer Radeon8500 und ****, da du nicht aus Erfahrung, sondern aus anderer Meinung rezitierst.****

...und du begibst dich durch deine persönlichen Angriffe einem MENSCHEN ggü. auf ein Niveau, das hier im Forum bislang selbst unter den hartgesottensten Fan-Boys seinesgleichen sucht.

Oli_Immerschoen
2002-08-12, 01:20:17
Ich hatte 6 Monate lang eine Radeon 8500LE von Supergrace und bin dann auf eine MSI GF4 TI 4200 umgestiegen; als dann, vor einigen Wochen, Gigabyte Radeons mit 275er Taktung und 128 Mb 3,6ns Speicher auf den deutschen Markt kamen habe ich mir die gekauft und wollte meine GF4 verkaufen...2 Tage später habe ich es mir anders überlegt und die Gigabyte Radeon zurückgeschickt.

Zur Begründung: von der Geschwindigkeit her war die Gigabyte absolut gleichwertig mit meiner GF 4 TI, sowohl in Spielen als auch im 3DM2001...hier hat sie bei gleicher Taktung nur ca. 300 Punkte weniger gemacht als meine GeForce. Auch das AF der Radeon hat kein bischen gestört, auch wenn ein paar Freaks hier das Gegenteil behaupten, und ich gebe ehrlich zu daß ich auch TruForm als sehr gelungen empfinde.

Das Problem sind: die Treiber der Radeon..einige Spiele (Severance, ColinMcRae 2) laufen auf der Radeon gar nicht, zumindet unter win98, und mit der LiTech-Engine wie z.B. No one lives forever hatte sie mit den aktuellen Catalysts so ihre Probleme, Bildunschärfe und seltsame Texturfehler waren die Folge. Mit einem älteren Treiber war das besser, dafür laufen damit dann andere Sachen nicht.

Fazit: die Unbeständigkeit der Treiber ist IMHO der EINZIGE Schwachpunkt der Radeon, mag sein daß das AF qualitativ nicht so dolle ist aber davon habe ich persönlich nichts gemerkt. Die Geschwindigkeit der Radeon langt vollkommen, der TV-Out und die DVD-Unterstützung sind der der GeForce wohl - relativ - unbestritten überlegen und TruForm gefällt mir sehr gut. Auch die Tatsache nicht den Marktführer zu kaufen spricht für mich dafür ATI zu wählen.

Aber beim Gamen nervt sie mir noch zu doll und deswegen bleib ich vorerst noch bei NVidia...wenn ATI mit der 9er-Serie der Radeon noch etwas an Kompatibilität zulegt wird sie FÜR MICH(!!) die erste Wahl sein.

Muh-sagt-die-Kuh
2002-08-12, 02:02:42
Originally posted by Oli_Immerschoen
Das Problem sind: die Treiber der Radeon..einige Spiele (Severance, ColinMcRae 2) laufen auf der Radeon gar nicht, zumindet unter win98, und mit der LiTech-Engine wie z.B. No one lives forever hatte sie mit den aktuellen Catalysts so ihre Probleme, Bildunschärfe und seltsame Texturfehler waren die Folge. Mit einem älteren Treiber war das besser, dafür laufen damit dann andere Sachen nicht.
Zumindest deine Aussage zu NOLF kann ich nicht nachvollziehen, ich habs gerade mal wieder installiert und es läuft mit dem 1.03 Patch und dem 6118 Treiber für die Radeon fehlerfrei.

/edit:
Ich hab mir grad mal die ColinMcRae 2 demo geladen und ausprobiert, ebenfalls keine Probleme.

Ich muss allerdings dazu sagen, dass ich es nur unter Win2k ausprobieren konnte, der alte 16-bit Mist marke Win98 kommt mir nicht mehr auf die Platte ;)

StefanV
2002-08-12, 09:02:08
Originally posted by Quasar
Einerseits schiebst du hier das Budget in den Vordergrund, andererseits den TV-out und dann wieder die Geräuschkulisse.

Alles ist mir gleichermaßen wichtig :)

Originally posted by Quasar
Zeig' mir doch mal einen Shop, der eine passiv gekühlte Radeon mit brauchbarem TV-out (d.h. auch zweitem RAMDAC) für 120€ ins Haus liefert....

Passive Radeon 8500 gibts z.B. von Sapphire, das sind allerdings LELE Modelle mit 230MHz Coretakt.

Reicht dir eine Gigabyte Karte, bei der man die Geschwindigkeit des Lüfters einstellen kann?

Oli_Immerschoen
2002-08-12, 11:44:44
Originally posted by Muh-sagt-die-Kuh
Zumindest deine Aussage zu NOLF kann ich nicht nachvollziehen, ich habs gerade mal wieder installiert und es läuft mit dem 1.03 Patch und dem 6118 Treiber für die Radeon fehlerfrei.

/edit:
Ich hab mir grad mal die ColinMcRae 2 demo geladen und ausprobiert, ebenfalls keine Probleme.

Ich muss allerdings dazu sagen, dass ich es nur unter Win2k ausprobieren konnte, der alte 16-bit Mist marke Win98 kommt mir nicht mehr auf die Platte ;)


Beide Spiele laufen bei mir unter win98 garnicht (ColinMcRae) bzw. mit Bildfehlern (NOLF)...daß Colin unter win2K läuft glaube ich gerne, daß NOLF fehlerfrei läuft nicht...guck auf graue, seitliche Wände, an bestimmten Stellen laufen dort schwarze, parallele "Zackenschatten" (sorry, aber das ist die treffenste Bezeichnung) die sich mit Dir mitbewegen.

So gesehen bei mir unter win98 im direkten Vergleich zur GForce und beim Kollegen mit winXP, da wars auch so...

LovesuckZ
2002-08-12, 12:21:59
Originally posted by Ikon
Die GF4TIs mögen zurzeit noch ausreichende Speed mit AA und AF liefern, dies resultiert aber lediglich aus der relativ schwachen Nutzung ihrer Leistungskapazität durch aktuelle Software.

Das trifft wohl auf jede zur Zeit erkaeufliche Grafikkarte zu. Ausserdem ist es nicht clever, alle GF4ti's ueber einen Haufen zu werfen!

Daraus folgt: wenn die Software mehr Rohleistung frist (was früher oder später passieren wird), dann wird das AF der GF4 zu langsam, während die Radeon es höchstwahrscheinlich noch nutzen kann (aufgrund ihres relativ geringeren Geschwindigkeitsverlustes).

Wie sieht es mit den AA der Radeon8500 aus? Genau wie das AF der GF4, wird es in zukuenftigen Spielen nur noch schwer braucbare FPS liefern. Mit den kleinen Unterschied: Dass man AF auf der GF laenger nutzen wird als das AA der R8500!

Radeonator
2002-08-12, 12:22:18
Also ich kann nichts bestätigen, denn ich hab mir nicht umsonst wieder ne Radeon zugelegt. Das AF ist um einiges kompatibler, wird somit von bedeutend mehr Aplikationen erkannt. Zudem sieht es besser aus als NV´s Trilineares und ist fast 4 free.Die Bildquali ist keinen deut schlechter, eher im Gegenteil!!! Das 2d Bild ist klarer und die angesprochenen Probleme sind mir bis jetzt nur in der ersten Treibergeneration und unter Win98/98SE bekannt (ihr seit doch sonst so für neues, warum benutzt man dann ein outdated BS als Referenz, welches zudem seit über nem jahr nicht mehr von MS supported wird...;) ).
FSAA unter UT z.B. bricht auch nicht merklich ein.
Die vielen BSOD´s, infinteLoops und anderes sind eher Niewieda typisch...:P

@ow: Ich wusste ja gar nicht das du ein Nvidiot bist, hätte dich eigentlich neutraler eingeschätzt, na so kann man sich irren :(

2ichy
2002-08-12, 12:34:53
Ich würde keine Gf mehr kaufen, solange es folgenden Bug gibt:

NVidea shreibt dir Daten direkt in den RAM-DAC, das haben die von der Voodoo5 portiert! Das hat scheinbar nur vorteile, aber wenn man genauer hinschaz, gibt es ab 100 hz bei unter 25 Frames einbrüche, dh. <10 Framea .. bei 120hz sieht das schlimmer aus! Gibt es also eine Szene, bei der die Frames unter ca. 20 Frames Ruschen, kommen starke Ruckler! Bei sowas macht man normalerweise der CPU die Schuld, es ist aber dir Kraka mit dem RAM-Dac!

Ich kannte das schon bei meiner alten Voodoo5, und es hat mich angekotzt, da ich bei 800x600x110hz 4xFSAA CS spielen wollte, und immer wieder Extreme Slowdowns bei vielen Spielern auftraten! Sonst war die FPS immer bei 50!

Nvidea will uns heute mit der starken leistung blenden, aber sobald die Karte am Ende ist (Doom3?) ist das gejammere groß, denn dann muss man nicht mit dem leichten Ruckeln, sondern endweder mit 60hz oder Slowdowns rechnen!

Daher ist die R8k5 die bessere Wahl für die Zukunft!

Sir Integral Wingate Hellsing
2002-08-12, 12:36:39
Bei dem Preisunterscheid würde ich (wieder) zur R8k5 LE greifen!

Die GF 4 Ti4200 ist teurer und ich habe im Endeffekt nur was davon,
wenn man AA nutzt, den bei AF hat ja die Radeon die Nase vorn.

Bei der Radeon 8500 kann man (wie die Tests von 3dcenter beweisen) ohne Probs 8x bzw. 16x AF anschalten ohne merklichen Performanceverlust.

So einfach wie es sich ow macht ist es wirklich nicht.

Mein Fazit: Beim Achten auf des Geld zur Radeon 8500 LE greifen, ansonsten (je nach Budget) eine GeForce 4 4x00 kaufen ;)

ow
2002-08-12, 12:46:36
Originally posted by Radeonator
Also ich kann nichts bestätigen, denn ich hab mir nicht umsonst wieder ne Radeon zugelegt. Das AF ist um einiges kompatibler, wird somit von bedeutend mehr Aplikationen erkannt.



Nein, das kann nicht sein.

a)Da beide Chips die AF caps bits unter D3D exportieren wird die AF-Faehigkeit von den Spielen immer erkannt. Sowohl auf Radeon wie Geforce. Unter OGL beherrschen beide die AF-extension, also auch hier dasselbe.

b)Bei im Treiber erzwungenem AF (braucht man fuer Spiele, die von sich aus kein AF beherrschen) kann's ebenfalls keinen Unterschied machen (das Game merkt vom AF ja nix).

a) und b) -> Es gibt bei AF kein 'kompatibler'.


Zudem sieht es besser aus als NV´s Trilineares und ist fast 4 free.Die Bildquali ist keinen deut schlechter, eher im Gegenteil!!! Das 2d Bild ist klarer und die angesprochenen Probleme sind mir bis jetzt nur in der ersten Treibergeneration und unter Win98/98SE bekannt (ihr seit doch sonst so für neues, warum benutzt man dann ein outdated BS als Referenz, welches zudem seit über nem jahr nicht mehr von MS supported wird...;) ).
FSAA unter UT z.B. bricht auch nicht merklich ein.
Die vielen BSOD´s, infinteLoops und anderes sind eher Niewieda typisch...:P



Ja und nein.
Die Tiefenschaerfe ist bei AF hoeher, dafuer tritt bei ATi mipmap-banding auf, zudem wird der mipmap-Level manchmal falsch bestimmt. Auf sonstige Anomalien des AFs vopn ATi geh ich jetzt mal nicht ein.

BSODs und infinite loops betreffen ebenso ATi wie NV Karten. Das koennen auch M$ oder die Chipsatztreiber schuld sein. Ist AFAIK nicht endgueltig geklaert, woran das liegt.

ow
2002-08-12, 12:50:53
Originally posted by 028
Bei dem Preisunterscheid würde ich (wieder) zur R8k5 LE greifen!

Die GF 4 Ti4200 ist teurer und ich habe im Endeffekt nur was davon,
wenn man AA nutzt, den bei AF hat ja die Radeon die Nase vorn.

Bei der Radeon 8500 kann man (wie die Tests von 3dcenter beweisen) ohne Probs 8x bzw. 16x AF anschalten ohne merklichen Performanceverlust.

So einfach wie es sich ow macht ist es wirklich nicht.

Mein Fazit: Beim Achten auf des Geld zur Radeon 8500 LE greifen, ansonsten (je nach Budget) eine GeForce 4 4x00 kaufen ;)


Wer macht es sich hier denn einfach??

Die Radeon erkauft sich ihre "Nase vorn" bei AF mit stark eingeschraenkter Bildqualitaet, das solltest du vielleicht erwaehnen.

In der Summe aus Performance UND Bildqualitaet hat die GF bei AF die Nase vorn.

LovesuckZ
2002-08-12, 12:53:04
Originally posted by 028
Die GF 4 Ti4200 ist teurer und ich habe im Endeffekt nur was davon,
wenn man AA nutzt, den bei AF hat ja die Radeon die Nase vorn.
Bei der Radeon 8500 kann man (wie die Tests von 3dcenter beweisen) ohne Probs 8x bzw. 16x AF anschalten ohne merklichen Performanceverlust.


Hm, benutzen die ATI User nie AA? Irgendwie hoert sich das immer so an...

Radeonator
2002-08-12, 12:56:41
Originally posted by ow



Wer macht es sich hier denn einfach??

Die Radeon erkauft sich ihre "Nase vorn" bei AF mit stark eingeschraenkter Bildqualitaet, das solltest du vielleicht erwaehnen.

In der Summe aus Performance UND Bildqualitaet hat die GF bei AF die Nase vorn.

Das ist einfach und schlichtweg FALSCH! Das AF ist keineswegs mit schlechtere Bildquali verbunden, ganz im Gegenteil, es sieht besser aus!!!

Inder Summe aus Performance und Bildquali hat die ATi die Nase um längen vorn und das wird sich auch durch dein Wunschdenken nicht ändern. Nfinite Loop mit ATi...lol? Das ist auch komplett falsch und endspricht nicht der Warheit! Ich hatte noch niemals einen solchen fehler mit meinen Radeon Karten mit meinen GF Karten hingegen andauernd...

Radeonator
2002-08-12, 13:00:35
Ach ja, warum willst du ne LE kaufen wenn du für 129€uro ne "Vollversion" bekommst??? Thread mit Angaben... (http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=364575#post364575)

Schnitzl
2002-08-12, 13:18:10
Originally posted by LovesuckZ

Hm, benutzen die ATI User nie AA? Irgendwie hoert sich das immer so an...
Naja, wer AntiA nutzt, kauft sich keine Ati sondern ne GF4Ti oder,
wenn nen 21er Monitor hat und zuviel Geld, ne Paella :D

btw: wenn ihr dem Kollegen wirklich helfen wollt, dann basht nicht ständig nur rum,
sondern probiert mal die Spiele, die er gennannt hat,
auf euren Graka´s aus, dann macht imho etwas mehr Sinn.

Ich hab leider weder CS, Mechwarrior 4 oder Flugsims.
Sind aber imho alles relativ Graka-unabhängige Spiele, also
nimm die günstigere Karte, welche das auch immer ist.

MfG

Muh-sagt-die-Kuh
2002-08-12, 13:27:51
Originally posted by Oli_Immerschoen



Beide Spiele laufen bei mir unter win98 garnicht (ColinMcRae) bzw. mit Bildfehlern (NOLF)...daß Colin unter win2K läuft glaube ich gerne, daß NOLF fehlerfrei läuft nicht...guck auf graue, seitliche Wände, an bestimmten Stellen laufen dort schwarze, parallele "Zackenschatten" (sorry, aber das ist die treffenste Bezeichnung) die sich mit Dir mitbewegen.

So gesehen bei mir unter win98 im direkten Vergleich zur GForce und beim Kollegen mit winXP, da wars auch so... Ich mach ein paar Screenies und lad sie später hoch....link folgt.

LovesuckZ
2002-08-12, 13:36:12
Originally posted by Schnitzl
Naja, wer AntiA nutzt, kauft sich keine Ati sondern ne GF4Ti oder,
wenn nen 21er Monitor hat und zuviel Geld, ne Paella :D
MfG

Vielleicht flamen sie deswegen gegen das AF der GF4ti.

Wenn ich mir das Roundup auf 3DC angucke, kann man erkennen, dass die GF4ti Karten beim Einsatz von 2 AA und 4AF in den meisten Spielen bessere Werte erreichen als die Konkurenz von ATI. Jeder einzelne Vergleich ist doch bescheuert!

Andre
2002-08-12, 13:45:26
Radeonator,

"Das ist einfach und schlichtweg FALSCH! Das AF ist keineswegs mit schlechtere Bildquali verbunden, ganz im Gegenteil, es sieht besser aus!!!"

???
Wie kann Aniso + Bilinear (Radeon) besser aussehen als Aniso + Trilinear (bei Geforce)?

"Nfinite Loop mit ATi...lol? Das ist auch komplett falsch und endspricht nicht der Warheit! Ich hatte noch niemals einen solchen fehler mit meinen Radeon Karten mit meinen GF Karten hingegen andauernd..."

Sag das dochmal den ATI-Usern die sich in diversen Foren ganz eindeutig darüber beschwert haben.
Ich hatte diesen Loop-Fehler auch nie, obwohl ich GF 4 (vorher GF 2) nutze.
Soclhe Verallgemeinerungen, die du hier betreibst bringen keinen weiter - der Loop-Fehler ist DEFINITIV bei ATI-Karten aufgetreten, da kannst du noch so viel lolen.

Frank
2002-08-12, 13:57:14
Originally posted im Threadstart
Verwendungszweck ist (...) und Flugsimulatoren usw.

Da wenn ich mal spiele, auch eher zum Steuerknüppel greife, kann dafür eigentlich hauptsächlich AntiAliasing nahe legen. Ist für Flugsims einfach das praktischste. Und hier überzeugt die nVidiakarte gegenüber der Radeon doch schon mehr. Und da die Leistung der GF4 für AF auch nicht gerade desatrös ist, wie hier einige versuchen glaubhaft zu machen, empfiehlt sich selbige eher, als eine Radeon8500.

Muh-sagt-die-Kuh
2002-08-12, 13:59:36
@Oli_Immerschoen:

http://home.t-online.de/home/erassmy/

Ich hab ein paar NOLF Screenies gemacht, kannst dich selber davon überzeugen, dass sie fehlerfrei sind.

VOODOO-KING
2002-08-12, 14:25:53
also wie kann man überhaupt die Radeon 8500 gegen die GF4 Ti 4200 vergleichen ?? Die GF4 Ti 4200 ist mind. eine Klasse schneller als die 8500er bzw. ist sogar ne GF3(Ti500) im Schnitt etwas schneller als ne Radeon 8500er . Das Problem von Ati sind noch immer die Treiber , es gibt einfach zu viele Schwankungen , mal ist die Ati schnell und dann kackt sie wieder ein ( Max Payne , SS2 , Dungeon Siege , Wolfenstein , siehe dazu auch den neuesten 3dcenter Artikel ) , bei Nvidia läuft einfach alles rund , dies ist momentan der kleine aber feine Unterschied zwischen Nvidia und Ati !

Ati's AF Verfahren schmeckt mir nicht , deswegen hab ich damals auf der Radeon64/8500 AF immer deaktiviert , da mir sofort mipmapping/Banding ( Quake3, SS , SS2 usw. ... ) auffiel .

Ich kann nur hoffen , dass die Radeon9500/9700 Reihe wirklich ein Erfolg wird , von der Radeon8500 bin ich ned so begeistert ...

Gruss VOODOO-KING

Iceman346
2002-08-12, 14:32:04
Originally posted by LovesuckZ


Hm, benutzen die ATI User nie AA? Irgendwie hoert sich das immer so an...

Ich nutze AA teilweise, kommt auf das Spiel an. CS spiele ich z.B. mit 2x AA und 16x AF.

LovesuckZ
2002-08-12, 14:35:20
Originally posted by Iceman346
Ich nutze AA teilweise, kommt auf das Spiel an. CS spiele ich z.B. mit 2x AA und 16x AF.

Wie sieht es in halbwegs neueren Spielen aus? Z.B RTCW, Dungeon Siege, Aquanox, SS2 usw.

StefanV
2002-08-12, 15:16:30
Originally posted by Oli_Immerschoen



Beide Spiele laufen bei mir unter win98 garnicht (ColinMcRae) bzw. mit Bildfehlern (NOLF)...daß Colin unter win2K läuft glaube ich gerne, daß NOLF fehlerfrei läuft nicht...guck auf graue, seitliche Wände, an bestimmten Stellen laufen dort schwarze, parallele "Zackenschatten" (sorry, aber das ist die treffenste Bezeichnung) die sich mit Dir mitbewegen.

So gesehen bei mir unter win98 im direkten Vergleich zur GForce und beim Kollegen mit winXP, da wars auch so...

Einige Games laufen unter W98 auf der 8500 anscheinend nur, wenn man den 2. Monitor aktivirt...

Klingt dämlich, scheint aber so zu sein...

Muh-sagt-die-Kuh
2002-08-12, 15:18:15
Originally posted by VOODOO-KING
also wie kann man überhaupt die Radeon 8500 gegen die GF4 Ti 4200 vergleichen ?? Die GF4 Ti 4200 ist mind. eine Klasse schneller als die 8500er bzw. ist sogar ne GF3(Ti500) im Schnitt etwas schneller als ne Radeon 8500er . Das Problem von Ati sind noch immer die Treiber , es gibt einfach zu viele Schwankungen , mal ist die Ati schnell und dann kackt sie wieder ein ( Max Payne , SS2 , Dungeon Siege , Wolfenstein , siehe dazu auch den neuesten 3dcenter Artikel ) , bei Nvidia läuft einfach alles rund , dies ist momentan der kleine aber feine Unterschied zwischen Nvidia und Ati !

Ati's AF Verfahren schmeckt mir nicht , deswegen hab ich damals auf der Radeon64/8500 AF immer deaktiviert , da mir sofort mipmapping/Banding ( Quake3, SS , SS2 usw. ... ) auffiel .


Gruss VOODOO-KING Hat ow sich geklont? ;)

NVidia zeigt übrigens auch Ausrutscher, sieh Aquanox und UT mit AF oder z-Steel Soldiers.

LovesuckZ
2002-08-12, 15:39:59
Originally posted by Muh-sagt-die-Kuh
NVidia zeigt übrigens auch Ausrutscher, sieh Aquanox und UT mit AF oder z-Steel Soldiers.

Ach komm, das ist laecherlich. Genauso koennte man nun auch Spiele aufzaehlen, welche durch ATI's AA unspielbar werden bzw einen totalen Einbruch erleiden.

Muh-sagt-die-Kuh
2002-08-12, 16:00:50
Originally posted by LovesuckZ


Ach komm, das ist laecherlich. Genauso koennte man nun auch Spiele aufzaehlen, welche durch ATI's AA unspielbar werden bzw einen totalen Einbruch erleiden. Das kommt vom Supersampling, ist also von der Methodik her bedingt und hat so gut wie nichts mit dem Treiber zu tun.

Iceman346
2002-08-12, 16:02:02
Originally posted by LovesuckZ
Wie sieht es in halbwegs neueren Spielen aus? Z.B RTCW, Dungeon Siege, Aquanox, SS2 usw.

RTCW hab ich nicht, Dungeon Siege hab ich nicht, Aquanox hab ich noch kein AA getestet, ich denke aber nicht das das spielbar wäre, SS2 lief mit 2x AA ganz ordentlich, 4x geht wenn der Bildschirm nicht zu voll ist. Allgemein ist mir die Geschwindigkeit der Radeon bei AA zu niedrig.

LovesuckZ
2002-08-12, 17:04:38
Originally posted by Muh-sagt-die-Kuh
Das kommt vom Supersampling, ist also von der Methodik her bedingt und hat so gut wie nichts mit dem Treiber zu tun.

Was hat das jez mit den Treiber zu tun? In diesem Thread geht es doch hauptsaechlich nur dadrum, Nvidia schlecht zu machen, indem man das AF in den dreck ziehe. Von den meisten ATi Usern wird das AA doch gar nicht erwehnt. Nur wie schnell doch ihr AF sei.

Achso, deine Antowrt auf deinen zitierten Text passt nicht!

Schnitzl
2002-08-12, 17:12:27
@ LovesuckZ: a bissle durcheinander wie ? ;)

btw: hier gehts nicht darum, nVidia schlechtzumachen, sondern ATI NICHT schlechtzumachen!

Schau mal auf Seite 1 dieses Threads, 4. Post

LovesuckZ
2002-08-12, 17:35:22
Originally posted by Schnitzl
btw: hier gehts nicht darum, nVidia schlechtzumachen, sondern ATI NICHT schlechtzumachen!
Schau mal auf Seite 1 dieses Threads, 4. Post

Der Post wurde doch gleich widerlegt.

Oli_Immerschoen
2002-08-12, 17:43:29
Originally posted by Muh-sagt-die-Kuh
@Oli_Immerschoen:

http://home.t-online.de/home/erassmy/

Ich hab ein paar NOLF Screenies gemacht, kannst dich selber davon überzeugen, dass sie fehlerfrei sind.

Der Lebens- und der Rüstungsbalken sind durch eine schwarze Linie unterbrochen, die gehört da nicht hin!

Die Icons auf der rechten Seite sehen schön krispelig aus, kannst Dir ja mal bei ´ner Geforce angucken.


Da diese beiden Fehler auftreten gehe ich davon aus daß auch der dritte da ist. Was nicht heißen soll daß ich Dir nicht glaube daß Du mit Deiner radeon zufrieden bist :)

MfG Olli

ice cool69
2002-08-12, 18:31:29
leute, leute jetzt mal langsam. ich glaube der threaderöffner hat sich wegen dem bandenkrieg zwischen nvidioten und fanATIkern schon längst wieder verzogen.

ich fand das posting gut das die gf4 empfiehlt wegen dem AA weil das für flugsims gut geeignet ist. das kommt mir logisch vor und ist einer der wenigen hilfreichen argumente hier.

auf ati-seite ist eindeutig der geringere preis der LE ein hauptargument, denn für die games die die grafikkarte berechnen muss brauch man sowieso keinen fps-könig.

welche grafikkarte die beste ist hängt anscheinend ganz von den vorlieben der user ab, eine "bessere grafikkarte" objektiv gesehn gibts nicht da hier jeder subjektiv andere empfindungen zur grafikqualität hat und die ansprüche ziemlich differieren.

jetzt hab ich aber auch mal ne frage in eigener sache:
ich überlege mir eine gf4ti4200 (nein ich bin kein nvidiot, eher ein fanATIker) zuzulegen da ich das schnelle AA für warcraft3 gut gebrauchen kann und auch unreal2003 wohl auf der gf besser performt als die r8500LE (in bezug auf doom3 mach ich mir bei beiden karten wenig hoffnung).
also: ist der TV OUT der geforce4ti4200 von asus gut? denn ich habe vor divx und dvd-filme an meinem pc abzuspielen und auf dem fernseher anzusehen...

Muh-sagt-die-Kuh
2002-08-12, 18:35:25
Originally posted by Oli_Immerschoen


Der Lebens- und der Rüstungsbalken sind durch eine schwarze Linie unterbrochen, die gehört da nicht hin!

Die Icons auf der rechten Seite sehen schön krispelig aus, kannst Dir ja mal bei ´ner Geforce angucken.


Da diese beiden Fehler auftreten gehe ich davon aus daß auch der dritte da ist. Was nicht heißen soll daß ich Dir nicht glaube daß Du mit Deiner radeon zufrieden bist :)

MfG Olli Was interessiert mich ein Streifen im Balken? Die Icons sehen übrigens nicht anders aus als vorher auf meiner GF2MX.

Glaub was du willst, die Karte läuft bei diesem Spiel einwandfrei....bin grad dabei, es endlich mal fertigzuspielen ;)

Dunkeltier
2002-08-12, 18:42:07
Man, das artet mal wieder in einer Schlammschlacht zwischen FanATIikern und NVidioten aus. Könnt ihr nicht eure virtuellen Prügelknüppel wieder einmotten und vernüftig disktuitieren, statt Produkte einer bestimmten Firma herunterzumachen?

Oli_Immerschoen
2002-08-12, 20:12:34
Originally posted by Muh-sagt-die-Kuh
Was interessiert mich ein Streifen im Balken? Die Icons sehen übrigens nicht anders aus als vorher auf meiner GF2MX.

Glaub was du willst, die Karte läuft bei diesem Spiel einwandfrei....bin grad dabei, es endlich mal fertigzuspielen ;)

Der Streifen an sich nicht aber....ach, was solls...hauptsache der Spielspaß stimmt und der kasten läuft oder? :D


MfG Olli

Schnitzl
2002-08-12, 20:40:57
Originally posted by LovesuckZ

Der Post wurde doch gleich widerlegt.
Das macht nix, the flamewar has begun anyway ...
=)

Ansonsten schließ ich mich ice cool69 und somit auch vor allem Frank an.

Piffan
2002-08-12, 20:58:20
Welchen Sinn hat dieser Thread eigentlich? Fast alle der hier postenden hat doch wohl nur eine Graka im Betrieb, wie kann dann der Einzelne sagen, dass seine Karte ein besseres Bild hat?

Wofür hat der gute Leo sich eigentlich die Mühe mit dem Roundup gemacht? Mein Rat an den Threadöffner: Mal die Fakten lesen und dann eigene Meinung bilden....

Meine Meinung: FSAA bringt in erster Linie was, wo lange gerade Linien häufig sind und man in die Ferne sieht: Rennspiele und Flusis. Auch empfehlenswert bei älteren Spielen, die durch Polygonarmut "glänzen".... Bei neueren, feindetailierten Spielen nicht so furchtbar wichtig, bei Dungeon Siege kann man auf FSAA getrost verzichten, aber ohne AF tuts schon weh...

BTW: Sieht Nolf wirklich so schlimm aus ??? Habs damal gern gespielt und fand die Grafik gar nicht so schlimm.... Warum ist auf den Screens eigentlich kein AF aktiviert? Sieht voll mies aus....Als Spiel ist Nolf allerdings ein toller Kracher...

Eusti
2002-08-12, 21:35:19
Originally posted by ice cool69
also: ist der TV OUT der geforce4ti4200 von asus gut? denn ich habe vor divx und dvd-filme an meinem pc abzuspielen und auf dem fernseher anzusehen... Der TV-Out der Nvidia-Karten ist auf jeden Fall mies. Ich hab mittlerweile 4 verschiedene Karten gesehen und alle hatten ein mieses TV-Out. Von ATI habe ich erst eine Karte (Radeon) gesehen. Da war das TV-Out minimal besser, aber immer noch schlecht.

Allerdings hab ich auf meinen beiden Nvidia Karten jeweils das TV-Tool installiert (www.tvtool.de). Das kannst du dir auf der Seite für 10€ kaufen. Mit dem TV-Tool, ist die TV-Ausgabe mit allen unterschiedlichen Decoder-Chips (welche auf den Nvidia-Karten verbaut werden) erheblich besser (auch erheblich besser als auf ATI Karten).

Somit musst du für das TV-Out der Nvidia-Karten (legalerweise) 10€ zusätzlich einplanen. Dannach hast du aber ein den ATI-Karten deutlich überlegenes Ferhrnsebild. Mit dem Tool hast du auch auf NICHT Dual-Monitor-Nvidia-Karten ein Dual TV-Out und die Auflösung des Bildes lässt sich nahezu perfekt an jeden Fehrnseher anpassen (0,0 schwarze Streifen).

Gibt es so ein Tool für ATI-Karten eigendlich auch?

ice cool69
2002-08-12, 22:24:05
@ eusti

danke für den tipp das hört sich gut an. aber vielleicht bekomm ich das teil auch gratis wenn du weißt was ich meine :D

Dunkeltier
2002-08-12, 22:40:22
Originally posted by ice cool69
@ eusti

danke für den tipp das hört sich gut an. aber vielleicht bekomm ich das teil auch gratis wenn du weißt was ich meine :D

Zu geizig um die Programmierer mit ein paar Euros zu entlohnen. Erbärmlich... :finger:

Eusti
2002-08-12, 22:40:32
Originally posted by Eusti Last edited by Xmas on 12.Aug.2002 at 21:51Hi Xmas!

Rein interessehalber: Warum habt Ihr diesen kleinen Zwischensatz aus meinem Posting gelöscht?

Xmas
2002-08-12, 23:09:55
Originally posted by Eusti
Hi Xmas!

Rein interessehalber: Warum habt Ihr diesen kleinen Zwischensatz aus meinem Posting gelöscht?
http://www.3dcenter.org/vbulletin/eigenes/regeln.php

Radeonator
2002-08-12, 23:36:08
Vielleicht sollte man die Bedeutung/Vorgehensweise bei einer Diskussion, für 90% der Poster ändern..
Das sähe dann so aus: Ich Teste etwas, selbst wenn in 90% aller Test eine Karte einer bestimmten Marke, wir nennen sie mal Vati oder Nspeeder ;) , in einer bestimmten Kategorie besser ist, so nehme ich die 10% zur Untermauerung meiner Argumentation, wo sie (die Marke die ich jeweils nicht mag) schlechter ist.
Selbst, wenn ich schon auf verlorenen Boden stehe, die andere Karte nur von Bildern kenne oder sonstiges, bleibe ich auf diesem Standpunkt um Recht zu behalten. Damit ich auch fundiert argumentieren kann, nehme ich meine Erfahrung mit einer Karte der nichtgemochten Marke, die ein bis zwei Generationen älter ist und sage das ist immer so (frei nach dem Motto: Ich hab mal gehört das in den 60ern nen Porsche mit kratzern ausgeliefert wurde, deshalb haben heutige Porsches jetzt auch alle Kratzer...und wenn sie denn nicht haben, sagt man, kann man mit nem Schlüssel Kratzer in den Lack machen...). Wenn dies nun auch nicht funktioniert, sucht man aus den 10% den schwächsten Punkt heraus und schaft ein Szenario, wo garantiert ein solcher Fehler auftaucht (Stichwort:forcieren) damit mit man jetzt recht hat...funzt das auch nicht fängt man einfach von vorne an, egal wer was, wann geschrieben hat.
Hinzu gesellen sich dann "Freunde" denen es eigentlich egal ist worum es geht, hauptsache sie können dagegen sein...
Als letztes kommen dann noch "Kollegen", die ihrem Kollegen einfach beistehen und gar keine Argumente brauchen, weil Kollega muss ja recht haben...

Das passiert in 90% aller threads...ist aber schon amüsant zu lesen und das macht einen großen Teils des "charms" dieses Forums aus ;)

Dann gibt es noch solche wie mich(und diverse andere hier natürlich auch!), die von der Riva128-GF4 Ti4200, von der Voodoo1-Voodoo3000, von Der Matrox Millenium-Matroxs G400, von der ATiMach64-ATi´sRadeon8k5 und diverse "underdogs" wirklich alles schon in ihrem Rechner hatten und so einen echten Eindruck von diesen Karten bekommen hat.Sprich, seinen belangen entsprechend weiss, welche Karte , was für ihn/sie am besten leistet und zwar unter REALEN Bedingungen ohne Schaffung von absichtlichen GAU´s...

Darum GF4 Ti4200=BruteForce, nette FSAA Performance, mieser TV-Out,mittelprächtige DualMonitoring Fähigkeit, im Vergleich zur FSAA eine sehr mittelmässige AF Performance, die dieser Karte manchmal 20-50% Performance einbrüche besorgt...
Radeon8k5=FeatureForce (wenn teilweise auch wenig genutzt), nur 2xFSAA brauchbar, guter TV-Out/DualMonitoring(Wenn auch bei der Matrox definitiv besser...), Performante AF Technologie

Darum sollte man einfach schauen, was man wirklich und hauptsächlich mit seinem PC machen will und worauf man Wert legt...over and out !!!

LovesuckZ
2002-08-12, 23:40:19
Originally posted by Radeonator
Darum GF4 Ti4200=BruteForce[..]
Radeon8k5=FeatureForce[...]

Ne Frage: Ist die Radeon8500 nich auch Bruteforce?

Radeonator
2002-08-12, 23:47:39
kommt auf die Sichtweise an, da ne GF4(Meiner Meinung nach) eigentlich nur nen Zwischenschritt zur "echten" NextGen HW von Nv darstellt, also eine aufgewertete/aufgeboostete(neues Unwort;)) GF3 ist.
Die R8k5 ist die keine Zwischenschritt sondern der Nachfolger zur Radeon256.

myMind
2002-08-12, 23:52:35
Aufgrund der immer wiederkehrenden Treiberdiskussion möchte kurz aufzeigen, wo ATi meiner Meinung nach bei der Treiber-Entwicklung im Moment steht. Es ist eine rein subjektive Einschätzung. Ich möchte aufzeigen, dass ATi eine sehr sehr ähnliche Entwicklung wie nVidia durchmacht - nur Zeitverschoben und in einem schnelleren Tempo.

ATi ist im Oktober letzten Jahres bei der Treiber-Qualtät etwa dort gewesen, wo nVidia vor 2 bis 3 Jahren war. Viele mainstream Spiele funktionierten, aber abseits dessen gab es im 3D-Bereich sehr viele Fehler. An das Anschauen von 3D-Demos war kaum zu denken. Auch die bei nVidia von früher her bekannten "Miniruckler" gab es bei ATi. Wer zu dieser Zeit mal Serious Sam gespielt hat wird mir da zustimmen.

Bis vor zwei Monaten hat man die Treiber in kontinuierlicher Weise verbessert und es wurde ein erstaunlicher Kompatibilitätslevel erreicht. Auch bei 3D-Demos sind die Karten nun gut zu gebrauchen. Trotzdem tritt ein Phänomen auf für das nVidia früher berüchtigt war. Bei ~ jedem 10ten gefixten Bug führt man einen neuen ein. Für Spiel x muss man den einen Treiber verwenden, für Spiel y einen anderen. Die Geschichte wiederholt sich und ist vermutlich typisch für eine derart unter Zeitdruck stehende Entwicklung.

Dann gab es mit den Catalyst-Treibern nochmal einen kleinen Bruch. Ein Teil der Kompatibilität wurde aufgrund einiger Neuerungen geopfert. Dieser Sprung ist IMO absolut vergleichbar mit dem Sprung auf die 20er Detonatoren bei nVidia. Neue Probleme aber teilweise eben auch beeindruckende Leistungsgewinne.

Es gibt immer noch Bugs - keine Frage. Ich kann auf meinem System 2 3D-Bugs identifizieren (bei alten Spielen) plus ein kritischer 2D-Bug mit Mozilla. Die Qualitätssteigerung innerhalb der letzten 7 Monate ist dennoch immens und ich möchte behaupten man hat 95% der nVidia-Qualität im 3D-Bereich erreicht. Wer hier im Forum behauptet er habe vor Monaten eine 8500er gehabt und könne mitreden, der sollte sich den aktuellen Stand mal anschauen.

Interessant ist, dass ATi ähnliche Mittel zur Qualitätsverbesserung wie nVidia einsetzt. Z.B.
- Unified Driver
- Treiberleaks wg. Feedback
- Kontinuierlicher Verbesserungsprozess
- Entwicklerunterstützung

Sehr gut finde ich persönlich das Catalyst Crew Programm http://apps.ati.com/driverfeedback/index.asp bei dem jedermann Bugreports posten kann. So etwas zeugt von einem hohen Qualitätsbewußtsein und zeigt auch ganz klar, dass ATi entschlossen ist die Fehler der Vergangenheit nicht nochmal zu machen. Die Entwicklung ist offener geworden.

Die Trennung von Control Panel und Treiber ist ein weiterer Schritt, um schneller bessere Treiber produzieren zu können. Das neue Panel ist sowieso eine Erwähnung wert: _So_ muss so etwas aussehen. Es lassen sich alle wichtigen Features einstellen und es ist trotzdem für Karl-Dummuser benutzbar -> Exzellent.

Man darf gespannt sein, wie die Entwicklung weitergeht. Für mich ist die grosse Preisfrage, ob ATi bei der 9x00er-Reiher auf den 8500er Treibern aufsetzt oder nicht. Wenn sie so wie nVidia kontinuierlich weiterentwickeln, würde ich sofort zugreifen. Wenn das Treiber-Drama von vorne beginnt, würde ich eher abraten. Dass ATi beim aktuellen Entwicklungsstand einen solchen Fehler begeht, kann ich mir jedoch kaum vorstellen.

Noch ein Wort zur AF-Problematik. Dass die Radeon 8500 kein AF plus Trilinear kann, ist IMO ein heftiger Fehltritt im Hardware-Design. Da es AF auf der 8500er fast "for free" gibt, wäre die Kombination mit Trilinear DER optimale Kompromiss zwischen Qualität und hoher Leistung schlechthin. Sehr ärgerlich. Dass das fehlende trilineare Filtern bei vielen Spielen kaum auffällt, tröstet da nur wenig.

Quasar
2002-08-13, 00:02:05
@Radeonator:

Schön, daß du so zufrieden mit dir selbst bist, aber meinst du, es gibt nicht noch ein paar mehr hier, die wissen, wovon sie reden? Manche Leute haben ja auch Freunde, die die entsprechende Karte besitzen könnten, manche (wie du) kaufen sich eine nach der anderen und wieder andere haben sogar über einiges eine andere Meinung als du oder setzen ganz einfach andere Prioritäten.

So hast du in deiner Bewertung ausschließlich die Hardware bewertet, und dabei auch noch unterschiedliche Fälle angenommen.
GF4 Ti4200=BruteForce, nette FSAA Performance, mieser TV-Out,mittelprächtige DualMonitoring Fähigkeit, im Vergleich zur FSAA eine sehr mittelmässige AF Performance, die dieser Karte manchmal 20-50% Performance einbrüche besorgt...

Brute Force, warum? Takt und Pipelines? Darf eine neue Generation nicht einfach auch mehr Takt haben als ihre Vorgänger? Was ist mit dem neuen Subpixelraster beim FSAA, was mit den Verbesserungen an der LMA?
Zum TV-out sag ich nix, weil er mir völlig egal ist (andere Präferenz), MultiMonitor ist bis auf das "DVD-MAX" Feature mit dem von Matrox identisch (und vor allem ist es auf allen GF4Ti verfügbar). FSAA ist schnell, läßt dafür aber große Teile des Bildes unbehandelt (Texturen), mir aber ziemlich wurscht (andere Präferenz), AF ist lahm (scheisse! andere Präferenz), sieht aber super aus. Niedrigere Performance-Einbrüche bei einem Feature dem anderen als Nachteil auszulegen halt ich, mit Verlaub, für Blödsinn.


Radeon8k5=FeatureForce (wenn teilweise auch wenig genutzt), nur 2xFSAA brauchbar, guter TV-Out/DualMonitoring(Wenn auch bei der Matrox definitiv besser...), Performante AF Technologie

FeatureForce, oh, warum? Weil sie mit Brute-Force (höherem Takt) die Vorgänger übertrumpften? ;) Wie gesagt, nix gegen höhere Takte, mich wundert nur die unterschiedliche Nutzung der Argumente (die du übrigens auch selbst angeprangert hast!). FSAA, gut, mag sein. Auch hier für mich persönlich kein Thema, ebenso wie der TV-out (hab' kein TV ;)). Hydravision scheint auch ganz OK zu sein, wenn man denn auch eine Radeon mit zweitem RAMDAC erwischt hat (bei Brute-(G)-Force schon im Chip integriert), auch kein wesentlicher Unterschied zu Matrox erkennbar. Performantes AF? Hm, ja, schnell schon, aber sollte AF nicht die Bildqualität verbessern? Einfach den LOD nach hinten schieben und nebenbei den trilinearen Filter deaktivieren würde auch bei 'ner GF4 nicht zu einem Performanceverlust führen ;)


Vom Thema Treiber/Treibertricks/unbekanntere Hardwaredefizite und PR will ich jetzt mal gar nicht anfangen.

Radeonator
2002-08-13, 00:27:13
Originally posted by Quasar
@Radeonator:

Schön, daß du so zufrieden mit dir selbst bist, aber meinst du, es gibt nicht noch ein paar mehr hier, die wissen, wovon sie reden? Manche Leute haben ja auch Freunde, die die entsprechende Karte besitzen könnten, manche (wie du) kaufen sich eine nach der anderen und wieder andere haben sogar über einiges eine andere Meinung als du oder setzen ganz einfach andere Prioritäten.

Das habe ich durchaus angenommen und schrieb darum "diverse andere NATÜRLICH auch..."

Originally posted by Quasar
So hast du in deiner Bewertung ausschließlich die Hardware bewertet, und dabei auch noch unterschiedliche Fälle angenommen.


Ich habe eine subjektive Empfindung niedergeschrieben, nicht mehr und nicht weniger und diese Bezog sich auf "Wie sieht welche SW auf MEINER HW aus"


Originally posted by Quasar
Brute Force, warum? Takt und Pipelines? Darf eine neue Generation nicht einfach auch mehr Takt haben als ihre Vorgänger? Was ist mit dem neuen Subpixelraster beim FSAA, was mit den Verbesserungen an der LMA?
Zum TV-out sag ich nix, weil er mir völlig egal ist (andere Präferenz), MultiMonitor ist bis auf das "DVD-MAX" Feature mit dem von Matrox identisch (und vor allem ist es auf allen GF4Ti verfügbar). FSAA ist schnell, läßt dafür aber große Teile des Bildes unbehandelt (Texturen), mir aber ziemlich wurscht (andere Präferenz), AF ist lahm (scheisse! andere Präferenz), sieht aber super aus. Niedrigere Performance-Einbrüche bei einem Feature dem anderen als Nachteil auszulegen halt ich, mit Verlaub, für Blödsinn.


Es ist und bleibt ein Nachteil, wenn man, wie die meisten hier "angeblich immer" diese Features nutzen möchte.Bricht die Karte dann weg, ist das sch...schade ;)
Brute Force, weil 1. Kräftig an der Takt Schraube gedreht wurde und nur maginale Verbesserungen vorgenommen wurden, die eher auf fps und nicht zwingend auf Quali Verbesserung zielen. (Wieder MEINE Meinung)


Originally posted by Quasar
FeatureForce, oh, warum? Weil sie mit Brute-Force (höherem Takt) die Vorgänger übertrumpften? ;) Wie gesagt, nix gegen höhere Takte, mich wundert nur die unterschiedliche Nutzung der Argumente (die du übrigens auch selbst angeprangert hast!). FSAA, gut, mag sein. Auch hier für mich persönlich kein Thema, ebenso wie der TV-out (hab' kein TV ;)). Hydravision scheint auch ganz OK zu sein, wenn man denn auch eine Radeon mit zweitem RAMDAC erwischt hat (bei Brute-(G)-Force schon im Chip integriert), auch kein wesentlicher Unterschied zu Matrox erkennbar. Performantes AF? Hm, ja, schnell schon, aber sollte AF nicht die Bildqualität verbessern? Einfach den LOD nach hinten schieben und nebenbei den trilinearen Filter deaktivieren würde auch bei 'ner GF4 nicht zu einem Performanceverlust führen ;)


Feature Force weil: TF, PS1.4, 2VS, Hydravision etc.
Also bei mir sehen die Texturen gestochen scharf und auch nicht nach schlechtem bias aus.

Originally posted by Quasar
Vom Thema Treiber/Treibertricks/unbekanntere Hardwaredefizite und PR will ich jetzt mal gar nicht anfangen.

Ist auch besser so, da dieser alte Schuh längst abgekaut und nicht mehr, der derzeitigen Situation endspricht.

Quasar
2002-08-13, 00:39:57
Originally posted by Radeonator
Es ist und bleibt ein Nachteil, wenn man, wie die meisten hier "angeblich immer" diese Features nutzen möchte.Bricht die Karte dann weg, ist das sch...schade ;)

Brute Force, weil 1. Kräftig an der Takt Schraube gedreht wurde und nur maginale Verbesserungen vorgenommen wurden, die eher auf fps und nicht zwingend auf Quali Verbesserung zielen. (Wieder MEINE Meinung)

Feature Force weil: TF, PS1.4, 2VS, Hydravision etc.
Also bei mir sehen die Texturen gestochen scharf und auch nicht nach schlechtem bias aus.

Ist auch besser so, da dieser alte Schuh längst abgekaut und nicht mehr, der derzeitigen Situation endspricht.

1) Ein Nachteil bleibt's, sicher. Und für mich auch ein gravierender, da ich AF FSAA vorziehe.

2) Takt für Takt ist die GF4 ca. 10% effektiver, als die GF3. Dazu das sehr nützliche nView, Accuview-AA (auch wenn ich's nicht oft nutze) mit gedrehtem Raster, dazu aber leider der AF-Bug (it's not a bug, it's a feature ;)).

3) :D Hui, aufeinmal wandeln sich Dual-View, 2 Vertexshader und HOS von "Brute-Force" zu Feature-Force? Interessante Logik.. ;) Der PS1.4 ist 'ne nette Spielerei, in der Praxis hat er in etwa soviel Relevanz, wie die HOS von nV (und damit nur knapp weniger als die n-Patches). IMHO.

4) Texturen gestochen scharf? Hm....vielleicht war meine Radeon auch kaputt, aber außer den Mip-Übergängen gab es zumindest mit den 6118 und 6094er Treibern auch jede Menge an Überfilterung, i.e. häßliche Artefakte.

5)In den 8 Wochen, die ich die Radeon hatte, habe ich mehr Fehlerchen ("chen" weil's zumeist kleinere, aber nervige Dinge waren) bei der Radeon bemerkt, als im letzten Jahr mit der GeForce3. Besonders das (wie ich vom Lesen hier im Forum weiß!) offenbar häufige wechseln/ändern irgendwelcher Default-Parameter (OGL-Texturqualität z.B.) stimmt mich auch nicht gerade versöhnlicher.
Die Treiberpanels sind imo aber wirklich beispielhaft bei ATi

Muh-sagt-die-Kuh
2002-08-13, 01:26:55
Originally posted by Piffan
BTW: Sieht Nolf wirklich so schlimm aus ??? Habs damal gern gespielt und fand die Grafik gar nicht so schlimm.... Warum ist auf den Screens eigentlich kein AF aktiviert? Sieht voll mies aus....Als Spiel ist Nolf allerdings ein toller Kracher... Auf den Screens ist AF aktiv, nur hab ich bevor ich die Screens gemacht hab vergessen, alle Texturdetailsetting auf max zu stellen. Bei grundsätzlich niedrig aufgelösten Texturen macht sich aniso lange nicht so positiv bemerkbar wie mit high-res Texturen.

ice cool69
2002-08-13, 01:31:41
kann mir mal jemand diesen AF-bug der gf4 erklären? wann genau tritt er auf und fällt die gf4 dann unter die performance einer gf3? ma ehrlich leute das ist ja ganz schön peinlich was nvidia da verbockt hat, genauso peinlich wie der TRI-AF bug der r8500, nur dass es bei nvidia performance kostet nd bei ati bildqualität...

Muh-sagt-die-Kuh
2002-08-13, 01:33:59
Originally posted by Eusti
Der TV-Out der Nvidia-Karten ist auf jeden Fall mies. Ich hab mittlerweile 4 verschiedene Karten gesehen und alle hatten ein mieses TV-Out. Von ATI habe ich erst eine Karte (Radeon) gesehen. Da war das TV-Out minimal besser, aber immer noch schlecht.

Allerdings hab ich auf meinen beiden Nvidia Karten jeweils das TV-Tool installiert (www.tvtool.de). Das kannst du dir auf der Seite für 10€ kaufen. Mit dem TV-Tool, ist die TV-Ausgabe mit allen unterschiedlichen Decoder-Chips (welche auf den Nvidia-Karten verbaut werden) erheblich besser (auch erheblich besser als auf ATI Karten).

Somit musst du für das TV-Out der Nvidia-Karten (legalerweise) 10€ zusätzlich einplanen. Dannach hast du aber ein den ATI-Karten deutlich überlegenes Ferhrnsebild. Mit dem Tool hast du auch auf NICHT Dual-Monitor-Nvidia-Karten ein Dual TV-Out und die Auflösung des Bildes lässt sich nahezu perfekt an jeden Fehrnseher anpassen (0,0 schwarze Streifen).

Gibt es so ein Tool für ATI-Karten eigendlich auch?
So ein Tool gibt es für ATI Karten nicht, wozu auch? Der Treiber bietet einstellungen für die Bildposition, das einzige was man machen muss ist mit einem Tweaker die Overscan Funktion freizuschalten.

Das TV-Out Bild einer BBA 8500 über S-Video würde ich übrigens als "gut" bewerten, für ein "sehr gut" müssten die Farben noch etwas kräftiger sein, auch die Helligkeitsverteilung ist bei einem schwarzen Bildschirm nicht optimal. Es erscheint ein etwas helleres "+" Zeichen auf dem Bildschirm anstatt einer ganz schwarzen fläche. Im normalen Betrieb fällt dies allerdings nicht auf.

Piffan
2002-08-13, 01:59:01
Originally posted by Muh-sagt-die-Kuh
Auf den Screens ist AF aktiv, nur hab ich bevor ich die Screens gemacht hab vergessen, alle Texturdetailsetting auf max zu stellen. Bei grundsätzlich niedrig aufgelösten Texturen macht sich aniso lange nicht so positiv bemerkbar wie mit high-res Texturen.

Warum sind die Texturdetails so schlecht eingestellt? Bei meiner G2 Ultra hatte ich bei Nolf grundsätzlich alles auf max, weil die Texturen sonst sehr mittelprächtig waren (sieht man ja auch an den Shots). Ich könnte mit der gezeigten miesen Bildqualität nicht mehr gut spielen.... Jetzt würde mich mal interessieren, wie das mit ordentlichen Einstellungen, FSAA und AF auf meiner G3 ausseiht, vor allem, obs noch spielbar ist....

casewolf
2002-08-13, 12:08:18
Ich habe die 8500 LE und würde nach Jahren Nvidia (von TNT zu TNT2 - GeForce 1+2) sofort wieder zu Nvidia zurückkehren. Ich habe lange gebraucht, um ein stabil und schnell laufendes OpenGL zu bekommen. Meine Sonderaufgaben sind allerdings auch 3D-Design mit 3D-Studio MAX und hier zeigt sich Nvidias sauber und perfekt programmierter OpenGL Client. Ich habe bis heute Darstellungsfehler und Texturfehler mit der Radeon. Dies ist zwar nicht schlimm, da es mittlerweile nicht mehr zu freezes unter MAX kommt, allerdings habe ich solche Probleme alle nie mit Nvidia gehabt. Ansonsten ist die Karte recht nett und hat ein schönes Preis-Leistungsverhältnis.

Quasar
2002-08-13, 12:11:54
Originally posted by ice cool69
kann mir mal jemand diesen AF-bug der gf4 erklären? wann genau tritt er auf und fällt die gf4 dann unter die performance einer gf3? ma ehrlich leute das ist ja ganz schön peinlich was nvidia da verbockt hat, genauso peinlich wie der TRI-AF bug der r8500, nur dass es bei nvidia performance kostet nd bei ati bildqualität...

Dazu gibt's auch 'nen eigenen Thread hier.

In Kürze:
Bei eingeschaltetem AF wird standardmäßig die Multitexturing-Füllrate auf das Niveau der Single-Texturing Rate eingebremst. Aber duch den höheren Takt, den schnelleren Speicher und die allgemein bessere Effektivität kann sich die GF4 meistens noch vor die GF3 retten, besonders, wenn zus. noch AA ins Spiel kommt.

Muh-sagt-die-Kuh
2002-08-13, 12:30:25
Originally posted by Piffan


Warum sind die Texturdetails so schlecht eingestellt? Weil das Spiel selbst bei den Quality defaults die Texturaulösung auf mittleren Levels lässt, die muss man nach wie vor manuell hochsetzen.

2ichy
2002-08-13, 13:46:47
@3D Center: Euer Upload funzt net mit 92kb Dateien, welche ich für 1024x768 aber bräuchte > Schade!

@Topic:

ATIs Mogeleien auf der Spur!

Anm. Ich bin weder ATI, noch NVidea Fan, sondern schwörte nur auf 3Dfx :D, also keine Anschuldigungen, Ich liefere nur Beweise!

Schaut euch mal diesen Screenshot an! Ich habe in in HL geschossen, auch wenn die Engine veraltet ist, ich weis das meiste über diese Engine!

Wir sehen Einen Screenshot von Auserhalb des Levels, ich habe mich zu den Proffessoren gestellt, und bin per noclip hochgeflogen, ohne etws außer der Rück Taste zu drücken!

Der Test wurde mit einer Radeon 8500LE (290/275) bei Maximalen Texturen/ MipMapping /Anisotropischen Filtering / 1024x768x16 / ohne FSAA und in Half-Life Version 1.1.1.0 gemacht.

Schön zu sehen sind die Interferrenzen auf der Linken seite des Bildes, welche natürlich übertrieben sind, da es sich nicht um eine Textur, sondern um eine Anneinanderreiung von Pixeln handelt, aber imerhin! Der Gleiche Effekt tritt nähmlich auch bei vielen Spielen auf, die (Extrem bei SSAM) zu Flimmern füren!

Was auch auffällt, ist, dass das als so schlimm bezeichnete MIP Branding im gegensatz dazu weniger auffällt, sondern eher weniger beachtet werden muss!

Dagegen sehr hervorzuheben, ist, dass selbst aus solch einer Empfernung die Texturen Scharf ausschauen, und anscheinen ANISOTROP gefiltert werden!

Bei einer Geforce ist das NICHT der Fall! Ab eine berstimmten entfernung gibt es einen Balken, der sehr störend ist, und danach sind die Texturen verwaschen! Wenn möglich, werde ich Screenshots von dieser Machen (Vieleicht kann das auch mal ein GfxTI User machen!

Beide Firmen, ATI, sowie NVidea Mogeln, und dass solche Artefakte entstehen, ist eine unverschämtheit, und ich sehe nicht ein, warum ich mir eine solche Karte, sei es Gforz oder Radeon neu Kaufen soll! Meine Jetztige Radeon85st gebraucht gekauft!

http://mitglied.lycos.de/muide/Images/t0a00000.JPG

Das Zweite Bild soll das Mip Branding zeigen! Deutlich zu erkennen ist es vorne an dem Gitte, kurz vor dem erstem Rohr, und dass stört die Miesten von euch!

An der wand jedoch (An der Zweiten Langen Leaterne, links an der Rundung, sieht man es nur bei genauem Hinsehen, und selbst in der Bewegung kaum!

http://mitglied.lycos.de/muide/Images/t0a00001.JPG

Wenn ATI diese Probleme beheben würde, wär ich Froh, aber Treiber rauszubringen, die das noch Verstärken, dazu kann ich nur Bäcks sagen, aber NVidea macht ja das selbe!

3Dfx hat seltender Treiber rausgebracht, die waren aber immer TOP!

Oli_Immerschoen
2002-08-13, 14:13:03
Originally posted by myMind
Aufgrund der immer wiederkehrenden Treiberdiskussion möchte kurz aufzeigen, wo ATi meiner Meinung nach bei der Treiber-Entwicklung im Moment steht. Es ist eine rein subjektive Einschätzung. Ich möchte aufzeigen, dass ATi eine sehr sehr ähnliche Entwicklung wie nVidia durchmacht - nur Zeitverschoben und in einem schnelleren Tempo.

ATi ist im Oktober letzten Jahres bei der Treiber-Qualtät etwa dort gewesen, wo nVidia vor 2 bis 3 Jahren war. Viele mainstream Spiele funktionierten, aber abseits dessen gab es im 3D-Bereich sehr viele Fehler. An das Anschauen von 3D-Demos war kaum zu denken. Auch die bei nVidia von früher her bekannten "Miniruckler" gab es bei ATi. Wer zu dieser Zeit mal Serious Sam gespielt hat wird mir da zustimmen.

Bis vor zwei Monaten hat man die Treiber in kontinuierlicher Weise verbessert und es wurde ein erstaunlicher Kompatibilitätslevel erreicht. Auch bei 3D-Demos sind die Karten nun gut zu gebrauchen. Trotzdem tritt ein Phänomen auf für das nVidia früher berüchtigt war. Bei ~ jedem 10ten gefixten Bug führt man einen neuen ein. Für Spiel x muss man den einen Treiber verwenden, für Spiel y einen anderen. Die Geschichte wiederholt sich und ist vermutlich typisch für eine derart unter Zeitdruck stehende Entwicklung.

Dann gab es mit den Catalyst-Treibern nochmal einen kleinen Bruch. Ein Teil der Kompatibilität wurde aufgrund einiger Neuerungen geopfert. Dieser Sprung ist IMO absolut vergleichbar mit dem Sprung auf die 20er Detonatoren bei nVidia. Neue Probleme aber teilweise eben auch beeindruckende Leistungsgewinne.

Es gibt immer noch Bugs - keine Frage. Ich kann auf meinem System 2 3D-Bugs identifizieren (bei alten Spielen) plus ein kritischer 2D-Bug mit Mozilla. Die Qualitätssteigerung innerhalb der letzten 7 Monate ist dennoch immens und ich möchte behaupten man hat 95% der nVidia-Qualität im 3D-Bereich erreicht. Wer hier im Forum behauptet er habe vor Monaten eine 8500er gehabt und könne mitreden, der sollte sich den aktuellen Stand mal anschauen.

Interessant ist, dass ATi ähnliche Mittel zur Qualitätsverbesserung wie nVidia einsetzt. Z.B.
- Unified Driver
- Treiberleaks wg. Feedback
- Kontinuierlicher Verbesserungsprozess
- Entwicklerunterstützung

Sehr gut finde ich persönlich das Catalyst Crew Programm http://apps.ati.com/driverfeedback/index.asp bei dem jedermann Bugreports posten kann. So etwas zeugt von einem hohen Qualitätsbewußtsein und zeigt auch ganz klar, dass ATi entschlossen ist die Fehler der Vergangenheit nicht nochmal zu machen. Die Entwicklung ist offener geworden.

Die Trennung von Control Panel und Treiber ist ein weiterer Schritt, um schneller bessere Treiber produzieren zu können. Das neue Panel ist sowieso eine Erwähnung wert: _So_ muss so etwas aussehen. Es lassen sich alle wichtigen Features einstellen und es ist trotzdem für Karl-Dummuser benutzbar -> Exzellent.

Man darf gespannt sein, wie die Entwicklung weitergeht. Für mich ist die grosse Preisfrage, ob ATi bei der 9x00er-Reiher auf den 8500er Treibern aufsetzt oder nicht. Wenn sie so wie nVidia kontinuierlich weiterentwickeln, würde ich sofort zugreifen. Wenn das Treiber-Drama von vorne beginnt, würde ich eher abraten. Dass ATi beim aktuellen Entwicklungsstand einen solchen Fehler begeht, kann ich mir jedoch kaum vorstellen.

Noch ein Wort zur AF-Problematik. Dass die Radeon 8500 kein AF plus Trilinear kann, ist IMO ein heftiger Fehltritt im Hardware-Design. Da es AF auf der 8500er fast "for free" gibt, wäre die Kombination mit Trilinear DER optimale Kompromiss zwischen Qualität und hoher Leistung schlechthin. Sehr ärgerlich. Dass das fehlende trilineare Filtern bei vielen Spielen kaum auffällt, tröstet da nur wenig.

Da kann ich nur sagen - und das ist eine Premiere - FULL ACK!!

ice cool69
2002-08-13, 14:47:29
der AF-bug ist ja erbärmlich. gibts schon ne stellungnahme seitens nvidia? weiß man obs ein hardwarebug ist? hab nämlich vor mir ne gf4ti4200 zu holen aber wenn das AF die karte so nach unten reißt schenk ich mir den kauf und warte auf ne XP4 von trident