PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 4 Ti/4200 vs. Radeon 8500LE


Fullover
2002-04-16, 18:44:50
Nach diesem Test (http://www.simhq.com/simhq3/hardware/features/8500levti4200/) bin ich mir nun sicher welche Karte ich mir kaufe (habe zwischen den beiden getesteten Karten geschwankt)!
Die GeForce schlägt die Radeon 8500LE um längen!

StefanV
2002-04-16, 18:54:19
Aber nur in der Performance, nicht aber im 'arbeitsbereich'.

Also Dinge wie TV Out, DVD Widergabe usw.

ow
2002-04-16, 19:20:53
Ich würde die GF nehmen.
Sie ist ingesamt das eindeutig bessere Produkt.

mck
2002-04-16, 19:48:37
Die Ti4200 könnte der Verkaufsrenner werden, doch wird es nicht, weil es anscheinend doch ziemlich viele GF3 Ti200 und R8500 Käufer gab!
Schade, denn die Mehrperformance ist beachtlich und danach kaufen die meisten ja auch ihre Graka, wegen der Performance!;)

Ape
2002-04-16, 20:39:58
Ich würde auch die Geforce nehmen.
Ich hab selber ne R8500. Die Karte ist zwar nicht schlecht, aber die Treiber sind mieß und die AA-Performance ist auch nicht berauschend.

Da hat die G4 4200 einiges mehr an Performance und lässt sich dazu noch gut übertakten.

Argo Zero
2002-04-16, 22:47:43
ööhm

ATI hat eigentlich noch gar kein Produkt heraus gebracht das gg die GF4TI serie anstoßen soll :)

Radeon 8500 sollte der gegner der Ge Force 3 Ti 500 werden
und die 8500 LE der gegner der GF3 TI 200

ati muss also noch was heraus bringen um vergleichen zu können =)

Richthofen
2002-04-16, 22:51:37
nö wenns am Ende ähnliche Preiskategorien sind dann wohl nicht.
Und da die Empfehlungen der Hersteller verglichen wurden muss die Radeon8500 sich hier schon den Vergleich mit der Ti4200 gefallen lassen.
Beide mit 179$ Listenpreis.
Händlerpreise werden bei beiden drunter liegen.

Meine Empfehlung:
Definitiv die GF4Ti4200 nehmen. Mehr Performance, bessere IQ weil man sich mehr Einstellungen erlauben kann, die deutlich besseren und problemloseren Treiber, was letztlich in einer besseren Gamekompatibilität mündet.
DVD Wiedergabe ist der Unterschied = 0 weil heutige CPUs für solche Dinge schnell genug sind.
Einzig Tv-Out ist bei der Radeon8500 besser.
Ich würde sagen obige Dinge wiegen für einen Gamer schwerer :)
Tv-Out ist ne nette Beigabe aber nicht mehr und schon gar nicht das Kaufargument. Einfach lächerlich......
Außerdem gibts Proggis wie Tv-Tool die zumindest auf der GF4Ti laufen!

nagus
2002-04-16, 23:13:46
Originally posted by Fullover
Nach diesem Test (http://www.simhq.com/simhq3/hardware/features/8500levti4200/) bin ich mir nun sicher welche Karte ich mir kaufe (habe zwischen den beiden getesteten Karten geschwankt)!
Die GeForce schlägt die Radeon 8500LE um längen!

wenn du dir die 4200 kaufen willst, wirst du wohl noch ca. 4 wochen warten müssen... die kommt nämlich erst mitte mai raus.

Thowe
2002-04-16, 23:34:43
aber es lohnt sich, bei ähnlichem Preis würde ich auch die TI4200 nehmen.

Richthofen
2002-04-17, 12:25:46
warten oder nicht who cars?
Die 4 Wochen hält jeder aus und dafür hat er dann ein Produkt das ausgereift ist und ein absolut solides Gesamtpaket abgibt.
Wer sich jetzt noch ne Radeon kauft......
Das würd ich nur wenn die soviel kostet wie ne MX440 also unter 150 Euro sonst nicht.
Gut ich persönlich würde auch das nicht aber das wäre ein fairer Preis würd ich sagen.

Lightning
2002-04-17, 14:22:42
Der vergleicht die Ti4200 aber auch nur mit einer LE. Und soweit ich weiss wird die Ti4200 mindestens den Preis einer Retail haben.
Zudem muss man noch bedenken dass der Preis für die Radeon in 4 Wochen auch schon wieder deutlich niedriger sein kann.

Quasar
2002-04-17, 14:43:30
Er vergleicht aber in den USA, wo's die Dinger anscheinend schon in den Läden gibt. Außerdem finde ich den Vergleich gerade deshalb interessant, weil hier mal beide Architekturen mit denselben Taktraten antreten, also die theoretischen Voraussetzungen (Füllrate und Bandbreite) identisch sind.

Und wer hier rumtönt, die Radeon sei gar nicht für den Vergleich mit der GF4 TI gemacht, dem sage ich zweierlei:

1) Es sind nunmal die beiden Topprodukte und als solches muss sich ATi bis zum Erscheinen des Nachfolgers eben diesen Vergleich gefallen lassen.

2) Wird doch immer behauptet, die GF4TI habe keine Innovationen zu bieten, insofern ist ein Vergleich mit identischen Taktraten absolut legitim.

Dunkeltier
2002-04-17, 19:05:50
@ Quasar

Nur schade das man die Radeon mit solch beschißenen Technologiedemos in die Knie zwingt, die einfach nur reines Brute Force brauchen (3D Mark 2001SE, Codecreatures, etc.). Würden Techdemos mit 6 lagigen Texturen, PS 1.4 und so weiter kommen...würde die Geforce 4 uralt aussehen.

Aber zum zocken "normaler Spiele" reichen beide Karten, auch mit aF und FSAA.

Quasar
2002-04-17, 19:28:46
Ich finde die Tests von SimHQ eigentlich ziemlich gut, auch wenn die "Schreibe" des Tests ein wenig seltsam ist, und die "features" ohne Kommentar inkl. der Fehler übernommen wurden. Wenigstens hat man hier dazugelernt und im Gegensatz zum V5-GF3 Vergleich nicht einfach Features abgeschaltet, die eine Karte nicht unterstützt, sondern dies klipp und klar gesagt.

Ich begrüße es im Gegenteil ausdrücklich, daß hier mal Tests genutzt werden, auf die kaum, oder nur weniger optimiert seitens der Treiberverbrecher wird.

Wenn du einen Sechs-Layer (single-Pass) Test suchst (inkl. Bump-Mapping und HW-TnL-Unterstützung) dann lass doch mal den Temple-Mark von PowerVR über deine Karte drüberrutschen. SeSam SE kann afaik auch sechs Lagen auf einmal nutzen.

Pixelshader 1.4 würde sicher die ATi dominieren, da nV dies nicht unterstützt und der Test nicht laufen würde.

Richthofen
2002-04-17, 21:01:29
"Nur schade das man die Radeon mit solch beschißenen Technologiedemos in die Knie zwingt, die einfach nur reines Brute Force brauchen (3D Mark 2001SE, Codecreatures, etc.). Würden Techdemos mit 6 lagigen Texturen, PS 1.4 und so weiter kommen...würde die Geforce 4 uralt aussehen.
Aber zum zocken "normaler Spiele" reichen beide Karten, auch mit aF und FSAA."

Also sorry mal das ist ja wohl totaler Quatsch.
Ich bin Käufer einer Graka und da will ich wissen was die Karte kann in derzeit erhältlichen Spielen und nicht in irgendwelchen Technologiedemos. 3DMark und der ganze Scheiss interessiert mich überhaupt nicht.
Deswegen finde ich den SImhQ Test nämlich mal gut.
1. Weniger Techdemos
2. Mal Spieletests abseits des üblichen Q3 / UT /Aquanox Einheitsbreis.

Der Test bei Simhq zeigt doch ziemlich deutlich welche Kargen zum daddeln ohne wenn und aber knallhart vorne liegen.
Da Flusis CPU limitiert sind, kann sich jeder denken, das bei Spielen die mehr auf die Graka gehen, der Abstand größer wird, was ja genügend Benchies auf anderen Seiten zeigen.

Was der PS1.4 in der Theorie kann ist mir doch voll scheiss egal. Der wird am Markt keine Rolle spielen also hat sich das Thema doch schon erledigt. Sowas kann man von mir aus in einem extra Test auf entsprechenden Tekkieseiten wie Beyond3D testen aber wenn es darum geht was kaufe mich mir zum daddeln dann müssen Spieletests her und nicht theoretische PS1.4 Betrachtungen. Nvidia will den PS1.4 nicht also hat sich das Thema erledigt, denn die haben nunmal den dicken Anteil und ohne derren Unterstützung wird keiner auf den PS1.4 im großen Stil setzen.
Man wird noch nichtmal auf den PS1.3 der GF4 setzen, weil auch der nicht verbreitet genug ist.

Außerdem muss ich mal was zu dem BruteForce Kommentar ablassen.
Genügend Tests belegen, das gerade in großen Auflösungen die Radeon8500 schnell einbricht und zwar stärker als die Ti500 die weniger Takt hat als die Radeon.
Die Ti4200 hat genau die selben Taktwerte wie die LE und gerade hier sieht man sehr gut welche Bandbreitenschonende Maßnahmen besser wirken und das sind ziemlich eindeutig die von Nvidia. Klar der Treiber spielt auch mit rein aber wie ich schon sagte. Es wird ein Gesamtpaket bewertet denn nur das interessiert mich als Kunde und nicht die Belobigung einer Einzeldisziplin. Und das GEsamtpaket bei ATI ist für den Spieler nicht in dem Maße ausgereift und stimmig wie bei Nvidia.

zeckensack
2002-04-17, 23:06:15
Richthofen:
Na und?

1)Merkt man ganz deutlich, daß du ATI scheiße findest. Du brauchst das nicht dauernd zu wiederholen.

2)Gibt's auch in Entwicklungsabteilungen haufenweise Leute, die überhaupt keinen Schimmer haben, siehe zB Vulpine GLMark oder eben auch Aquanox. Da kann ich dann ganz toll 'Abseits'-Benchmarks aus dem Hut zaubern und damit 'beweisen', daß ATI-Karten generell lahm sind. NVidia ist im Moment ganz klar Optimierungsziel #1 aller Entwicklungsabteilungen, das merkt man gerade an Minderheits-Benchmarks. Das kann sich aber auch ändern, dafür braucht's halt nur eine einzige Karte, die der Konkurrenz klar überlegen ist. NV hat hier momentan die Oberhand, aber das muß nicht immer so bleiben.

3)Hast du Recht, die 8500 hat Schwächen. Die Sache mit den hohen Auflösungen siehst du IMO ganz richtig. Die AF/FSAA-Geschichten sind auch bekannt. PS1.4 ist für'n Arsch, auch da stimm ich dir zu.

4)Hast du eine komische Vorstellung von 'Gesamtpaket'. Denk doch mal an Otto-Normal-DAU mit 17Zöller und 'ner Geforce1/2MX oder noch schlimmer im Rechner. Der fällt glatt vor Freude vom Stuhl, wenn er 1024x768x32 UT zocken kann. Wenn er 4xFSAA+Aniso will, muß er eben blechen (Gf4Ti), aber eine vergleichsweise billige 8500LE ist deswegen nicht mangelhaft oder minderwertig.

5)Glaub' ich, daß du ein ganz schwerer Fall von "Eigene-Investition-Verteidiger" bist. Sieh das doch nicht so eng!

Thowe
2002-04-17, 23:15:16
Ja, das kann man so sehen. Aber wer Richthofen kennt, der kann mit Punkt 1 und 5 leben. :)

Richthofen
2002-04-18, 00:37:14
Wenn der nur 1024 mal 768 in 32 Bit will kann er auch mit ner GF3Ti200 locker leben die unproblematischer ist und das ist für den DAU Kaufargument Nr 1 weil der eben keinen Plan hat.

Und wenn Spiele besser auf Nvidia optimiert sind so ist das ATIs Problem. Interessiert mich nicht. Ich kaufe ne Graka und bewerte wie sie läuft und warum das so ist geht mir am Arsch vorbei.
Ich kauf nunmal kein Produkt um hier irgendwem seine tollen Bemühungen zu belohnen oder irgendwen am Leben zu erhalten.
Ich kaufe das was am besten läuft und fertig.
Und sowas kannst nunmal nur durch Spieletests bewerten. Da schneidet NV einfach besser ab und das wird ATI auch so einige Kopfschmerzen bereiten wenn die Ti4200 da sind.
In den USA sind die mit 179$ gelistet und das ist schon ein ziemlicher Brocken denn die Radeon8500 ist shipped on revenue grad mal paar Monate und der Preis fällt ins Bodenlose.

Eigene Investitionen muss ich nicht verteidigen. Die haben sich schon lange rentiert und dafür haben die vielen NV Käufer gesorgt
Thx nochmal :)
Warum soll ich auch eigene Investitionen verteidigen. Wenn ich ne Radeon haben will zum testen dann bestell ich mir eine.
Dauert 2 Min und die Sache ist bestellt.
Ich hab vor 3 Wochen ne Ti500 ersteigert zum Testen und weil sie halt günstig war und jetzt ist ne Leadtek 4400 geordert :)
Also ich muss goar nix verteidigen. Schon gar nicht die Leadtek die hab ich noch nichtmal daheim weil der Kack Versand so lange rumeiert.

Exxtreme
2002-04-18, 10:15:55
Originally posted by Richthofen


Und wenn Spiele besser auf Nvidia optimiert sind so ist das ATIs Problem. Interessiert mich nicht. Ich kaufe ne Graka und bewerte wie sie läuft und warum das so ist geht mir am Arsch vorbei.
Siehst du, ich mache nicht für die Unfähigkeit der Spieleprogger den GraKa-Hersteller verantwortlich. Wenn ein Spiel Probleme mit einer meiner GraKas macht dann wird es nicht gekauft, basta. Ich will nämlich Produkt in halbwegs fehlerlosen Zustand. Was meinst du wie geil ich auf AquaNox war. Diese Bugansammlung wird aber erst dann gekauft, wenn die grössten Fehler ausgemerzt sind. Ich sehe es nicht ein, daß ATi die Bugs per Treiber ausgleichen muss. Und hast du mal eine R8500 getestet und bewertet?
Originally posted by Richthofen

Ich kauf nunmal kein Produkt um hier irgendwem seine tollen Bemühungen zu belohnen oder irgendwen am Leben zu erhalten.
Cool, da haben wir was gemeinsam. ;)
Originally posted by Richthofen

Ich kaufe das was am besten läuft und fertig.
Und sowas kannst nunmal nur durch Spieletests bewerten. Da schneidet NV einfach besser ab und das wird ATI auch so einige Kopfschmerzen bereiten wenn die Ti4200 da sind.
Wenn dich ausschliesslich die fps-Zahlen interessieren, dann ja. Ausserdem schläft ATi auch nicht. Die werden bald eine getunte R8500 ins Rennen schicken. Die dürfte dann der GF4Ti4400 Kopfschmerzen bereiten.
Originally posted by Richthofen

In den USA sind die mit 179$ gelistet und das ist schon ein ziemlicher Brocken denn die Radeon8500 ist shipped on revenue grad mal paar Monate und der Preis fällt ins Bodenlose.
Konkurrenz belebt das Geschäft.

Gruß
Alex

Micron
2002-04-18, 23:01:45
Naja ATI8500 und die GF3/TI200/TI500 sind von gestern. GF4 ist das heute und da hat ATI noch nix auf die Beine gestellt. Ausserdem heisst es nicht das ATI nochmal eine so geile Karte wie die R8500 auf den Markt bringen kann. Ich meine alle anderen Karten fande ich persönlich etwas schwach. Im moment hat NV die Nase vorne . Wie es aussieht wenn ATI die neuen Karten rausbring ist die zweite Frage. Ausserdem kann man die TI4200 nur mit der R8500 vergleichen es gibt ja noch nix neues. Also im moment ganz klar die GF4TI4200 das ist meine Meinung. Ich bin aber trotzdem mal auf die neue ATI Karte gespannt. Aber ob eine getunte R8500 so toll ist wage ich zu bezweifeln, die Technologie ist von gestern. Eigentlich macht es dann ATI nicht besser als NV mit der GF3 Ti200/Ti500 aber da haben sich alle drüber aufgeregt.

geforce
2002-04-18, 23:17:32
denke mal die gf4 ist besser/schneller durch overclocken ... ;)

Lightning
2002-04-18, 23:18:01
Originally posted by Blackmagic
Aber ob eine getunte R8500 so toll ist wage ich zu bezweifeln, die Technologie ist von gestern.

Die GeForce4 Ti ist meiner Meinung nach auch nur ein remake der GeForce3(ganz zu schweien von der Gf4mx). Also ist die Technologie davon genauso "von gestern".

aths
2002-04-19, 03:07:03
Blackmagic,

ich würde sagen, dass eine GF3 weniger "von gestern" ist, als eine GF4 MX.

Major
2002-04-19, 19:35:07
Die Listenpreise sind zwar in der USA identisch, aber ich WETTE, das die TI4200 hier, WENN sie denn in 4 Wochen heraus kommt, min 220€, wenn nicht sogar 250€ kostet.
Damit kostet sie dann aber noch ne Ecke mehr als Radeon 8500LE Karten, die es ja schon, dann bestimmt noch weniger, für um 180€ gibt.
Also sind die Karten auch Preislich erstmal nicht vergleichbar, wennschon mit ner 8500er Retail.

StefanV
2002-04-19, 19:49:03
Mich würden mal die Absatzzahlen der ATI basierten Karten in EU/USA gegenüber GF3/GF4 TI Basierten karten Interessieren...

Ich vermute mal, daß hier in EU mehr ATI Karten verkauft werden als in USA, Prozentual gesehen...

Blackhand
2002-04-21, 00:37:25
ALso den Blick in die Zukunft finde ich gar nicht mal so verkehrt. Denn was interessieren mich die Karten bei heutigen Spielen, obwohl beide mehr als schnell genug sind. In Zukunft wird man auch auf die Radeon optimieren und da wird sich zeigen was u.a. die 6 Texturen/Pass bringen werden. Aber dafür kann man die heutigen Games mit FSAA und AF ausstatten und das hat diser Test volle Kanne verfehlt und vergleicht mal wieder nur FSAA Methoden unterschiedlicher Funktionsweise. Außerdem steckt da in der Radeon anscheinend noch Potenzial und Optimierungsbedarf. Und ob der Preis der Ti4200 hier dann wirklich Konkurrenzfähig sein wird, muss sich auch erst zeigen. ATi kann den Preis ja auch noch senken. Zudem haben heutige Games auch noch alle 16bit Support. Habt ihr mal ne R8500 unter 16bit ausprobiert. Das ist die positivste Überraschung die ich je bei Grakkas hatte!


@Richthofen
Ich dachte schon dich müsste ich in keinem Forum mehr ertragen.

Richthofen
2002-04-21, 16:32:35
IN Zukunft ist bei Grakas Käse.
Wenn in 1 Jahr für die Radeon mal optimiert wird, dann ist sie breits zu langsam.
Du kaufst ja deine Radeon nicht um 1 Jahr an den Strand zu fahren und damit zu spielen sondern du kaufst sie dir um jetzt damit zu spielen.
Potential steckt übrigens generell in allen Karten das ist also kein Argument. Wenn du mir erzählst man kann die Radeon noch um 10% steigern dann sage ich das kann man bei der GF4 auch.
Des ist sinnlos damit zu argumentieren.
Der Vergleich des FSAA ist doch vollkommen ok.
Die Jungs bei SimHQ sind von der Qualität her V5 4x FSAA gewohnt, ich glaube die können schon sehr gut einschätzen ob mans vergleichen kann optisch oder nicht. ATIs FSAA ist ja nunmal auch nicht in allen Lagen RG wie wir alle wissen.
Und Nvidia bietet zumindest mal bei Direct3D den 4xS Modus an. Der ist zwar nicht ganz 4x RG aber kommt schon nah ran.
AF hab ich jetzt nicht im Kopf ob er das verglichen hat oder nicht. Ist auch egal. Das kann man sich ohnehin in voller Einstellung bei ner Flusi leisten. Nur sehen wird man nicht viel zwischen 4x und 8x da man die meisste Zeit in der Luft ist und nicht am Boden läuft.
Der Test geht schon in Ordnung und nicht zu letzt wird auch immer genauestens unter die Lupe genommen was funktioniert und was nicht und in diesem Punkt siehts bei ATI generell nicht prall aus wenn mal Spiele getestet werden abseits der üblichen Q3 /Aquanox /UT / 3d Mark Riege.

Blackhand
2002-04-21, 17:13:19
Ich spiele mit der Karte auch JETZT und sie hat mehr Power als mein Prozessor ihr geben kann. Nur mit FSAA und AF zusammen kann man der GF4Ti hier Paroli bieten. Aber ich brauch mich ja nicht wiederholen, wenn du das eh net raffen willst. Und ich meine mit Treiberoptimierung und Game Patches nicht allgemeine Perfomance Steigerung, sondern welche bei einzelnen Games und bei dem Test sieht man, wer da wohl mehr rausholen kann. Denn an der Rohpower der Karten allein liegts nicht, dass die Radeon teilweise so weit hinten liegt. Nur interessiert mich wer hier mehr schlampt, die ATi Treiberingeneure oder die Spieleentwickler. Und im Falle der Spieleentwickler: Wenn das so ist, dann wird halt das Spiel nicht gekauft, statt der GRakka, wie eben schon gesagt. Aber es sind ja teilweise Games dabei, wo die fps nicht so wichtig sind. Aber immerhin ist die Radeon schnell genug. Nur dass sie teilweise die bessere Qualität bietet. AUßerdem zocke ich QUake3 jetzt nur noch in 16bit, merke bis auf den Himmel absolut keinen Quali Unterschied zu 32bit, nur das es schneller läuft. Das sieht allemal so gut aus wie auf ner GeFurce in 32bit. Kein Witz! Und die Spiele unterstüten ALLE noch 16bit, und zwar JETZT! Falls man wirklich mal fps braucht ist das ne gute Alternative zu 32bit. Auf der GF siehts dagegen wieder zum kübeln aus.

Birdman
2002-04-21, 18:27:42
Originally posted by Blackhand
AUßerdem zocke ich QUake3 jetzt nur noch in 16bit, merke bis auf den Himmel absolut keinen Quali Unterschied zu 32bit, nur das es schneller läuft. Das sieht allemal so gut aus wie auf ner GeFurce in 32bit. Kein Witz! Und die Spiele unterstüten ALLE noch 16bit, und zwar JETZT! Falls man wirklich mal fps braucht ist das ne gute Alternative zu 32bit. Auf der GF siehts dagegen wieder zum kübeln aus.

LoooL, aber da kann ich echt nur lachen...den so nen schwachsinn hab ich schon seit längerem nicht mehr gelesen.
Die Radeons habe das deutlich schlechtere 16bit Bild als alle NV karten zusammen, imho sogar das schlechteste 16bit Bild alles karten die es gibt.
Über das ganze Bild legt sich ein deutliches Dither/Rastermuster, und bei sowas muss man dann wirklich kotzen.
btw. hab sogar noch nen screen (wenn auch schlechten) davon gefunden, den ich damals gemacht hab als ich die 8500er neu hatte.
GF3_vs_r200_16bit_q3 (http://saga.interway.ch/test/shot1_2.jpg)
links iss NV rechts Ati, das ditherproblem sieht man hier fast nicht...eigentlich nur am Himmel, doch im spiel sieht man es auf dem ganzen screen sehr deutlich, von szenen wo rocketsmoke zu sehen ist ganz zu schweigen.

ausserdem..."Falls man wirklich mal fps braucht ist das ne gute Alternative zu 32bit"
hrhrhrh, dabei weiss jeder das die Ati in 32bit (fast) genausoschnell ist wie in 16bit, d.h. die Karte beim einschalten von 16bit kein speed gewinnt, bzw. beim benutzen von 32bit kein speed verliert.


nee echt, solche aussagen wie deine wecken in mir immer wieder den verdacht, als müsse ein gedemütigter Ati-Käufer sein selbstwertgefühl wieder heben.

Dunkeltier
2002-04-21, 19:21:54
Zwischen den Wechsel von 16 auf 32 bit verliere ich circa 2% - 5% Leistung. Absolut minimal, so das es sich nicht lohnt auf 16 bit zu schalten.

zeckensack
2002-04-21, 19:30:20
Originally posted by Birdman
links iss NV rechts Ati
Das sieht doch jeder Depp, daß das links ein Shot mit 32bit Farbtiefe ist. Sach mal, willst du uns hier verarschen oder was?
nee echt, solche aussagen wie deine wecken in mir immer wieder den verdacht, als müsse ein gedemütigter Ati-Käufer sein selbstwertgefühl wieder heben.Jaja, und dann Screenshots fälschen, da könnt ich ja kotzen!

Quasar
2002-04-21, 19:33:25
's könnte auch 16Bit mit 32Bit Texturen links sein....fall's du's an den Zahlen am unteren Rand festmachst. Im Himmel links vom Bogen sind jedenfalls ein paar Artefakte zu sehen. Nun weiß ich nicht, ob die von 16Bit, JPEG oder S3TC-Bug herrühren.

Blackhand
2002-04-21, 19:52:42
Haha, da kann ich mich ja nur in die Ecke schmeißen. Dithermuster gibts bei 16bit noch nichtmal in der 3DMurks2k1SE Demo, wo die Statue im Regen gezeigt wird! Ich hab da ein ganz anderes Bild mein Lieber! Ich hatte mal ne Rage128. Die 16bit Quali war das letzte, aber die die ich jetzt habe übertrifft die von der Voodoo, denn bei der war Quake3 immer ziemlich blass. ABer jetzt sind mit 16bit nicht die kleinsten Rasteranzeichen zu sehen , die Texturen sind außerdem knallbunt und scharf wie bei 32bit! Und wenn man die Karte mit FSAA und AF belastet gibt das schon einen nicht zu verachtenden Performanceunterschied, den ich auch beim spielen merk(natürlich nur bei sonstigem grafischen Overkill).

PS: ich benutze sowohl 32bit farbtiefe als auch Texturen.

Edit:Soll natürlich 16bit heißen

Birdman
2002-04-21, 19:52:48
autsch @zeckensack

du kannst ja behaupten was du willst, aber ich weiss dass beide shots in 16bit sind....
Vielleicht erwecken die shots bei dir ja den anschein dass sie in 32bit sind, aber wie ich schon gesagt habe dass beim Ati shot fast alle artefakte weg sind, so sieht auch beim nvshot besser aus als als ingame.
dies kam wohl durch die jpeg kompression zustande und durch den umstand, das hier alle mit ner 1024er oder höheren auflösungen, nen 800er shot betrachten, aber trotzdem find ich deine behauptung ziemlich dreist. ich mag ja die gf karten bevorzuugen (aber aus gutem grund...und ich hatte ja selbt auch für 3 monate ne 8500er) aber screens faken um eine karte besser dastehen zu lassen, sowas wär unter meiner würde.

btw. hab hier sogar noch die originalen gefunden.
16bit_screen_nv_ati_.tga (http://saga.interway.ch/16bit.zip)
Ist ~1MB der download....

zeckensack
2002-04-21, 20:04:35
Originally posted by Birdman
autsch @zeckensack
Ich hab grade nochmal den ultimativen Test gemacht: Desktop auf 16bit runter und nochmal die Screenies angeschaut. Die Farbtreppchen in der Schrift waren tatsächlich nicht zu sehen.

Also, ich lag falsch, du hattest Recht.
Entschuldigung.

Birdman
2002-04-21, 20:11:02
np, das mit dem 32bit desktop iss halt so ne sache... ;)

Richthofen
2002-04-21, 20:49:53
Blackhand wenn du den Unterschied zwischen 16 und 32 Bit nicht siehst musst Tomaten aufn Augen haben.
Vor allem 16 Bit bei ner Radeon, wo die sowohl Bildquali als auch Performance grausig sind.
Da könnt ich jetzt noch paar alte Tests rauskramen, wo eindeutig nachgewiesen wurde das der 16 Bit Modus bei ATI nüscht bringt. Da waren sogar MXen damals schneller in 16 Bit als die Radeon.
Ich möcht echt mal wissen wos das Zeug gibt das du rauchst. Das muss wirklich eine pikante Mischung sein :=)

Dem Birdman darfst übrigens zutrauen das der das einschätzen kann. Der hatte ne Radeon8500.

Und warum die Radeon8500 nicht so rund läuft wie Nvidia interessiert mich eigentlich nicht die Bohne.
Geld kosten beide und da will ich nunmal was gescheites abgeliefert haben. Wenn ATI nicht die Marktdurchdringung hat, dann müssen sie bei Gamedevelopern halt mehr werben. Ist mir eigentlich ziemlich latte warum das so ist wie es ist.
Ich glaube aber eher es liegt an den ihren Treibern als an den Gamedevelopern. Nicht umsonst basteln die da wöchentlich irgendwelche Workarounds rein um dann 1 Woche später festzustellen das irgendwas anderes wieder nicht funktioniert.
In dem Punkt hat Nvidia von Anfang an seine Hausaufgaben deutlich besser gemacht. Den ihr Treiber ist schon ne runde Sache. Im Prinzip sofort mit jeder NV Graka einsetzbar. Ich hab von GF2 auf GF3 und von GF3 auf GF4 den Treiber nicht wechseln müssen. Karte rein und ab ging die Post.
Das in der Radeon Potential steckt wird einem eigentlich erzählt seid dem es die Karte gibt also November 2001.
Nun haben wir fast 5 Monate später und die Karte ist preislich in der Unterliga angelangt und immer noch ist das Potential nicht ausgeshöpft.

Blackhand
2002-04-21, 21:11:31
So, ich hab bei Quake3 nochmal genauer hingesehen. Da sind tatsächlich Raster. Aber da ich mit FSAA spiele ist mir das bis jetzt garnicht aufgefallen. Und so extrem wie im obigen Screenshot sind die Raster dann aber auch lange nicht. Der Rauch sieht zwar auch anders aus als in 32bit, enthält aber insofern keine Raster. In 3DMurks ist der Unterschied noch geringer. In der Demo mit der Statue im Regen hatte ich selbst mit ner Voodoo extreme Raster. Und mit der Radeon in 16bit keine, jedenfalls wenn man nicht genauer hinsieht(was ich noch nicht getan hab da man die Animation auch nicht anhalten kann). Und was die Farben betrifft ist der Unterschied zwischen 16 und 32bit ziemlich gering.

Exxtreme
2002-04-21, 21:41:31
@ Blackhand
So sieht's aus. Auch ich merke bei den allerwenigsten Games starke Unterschiede zw. 16 und 32 Bit. Aber was soll's, die R8500 ist schnell genug um _jedes_ Game mit 32 Bit zu spielen.

@ Richthofen
Du schreibst:
"Da könnt ich jetzt noch paar alte Tests rauskramen, wo eindeutig nachgewiesen wurde das der 16 Bit Modus bei ATI nüscht bringt. Da waren sogar MXen damals schneller in 16 Bit als die Radeon. "
Und ich sage: na und? Die R100 war schon immer eine 32-Bit-Karte. Die damals angekreidete 16-Bit-Schwäche war in der Praxis _niemals_ von Bedeutung.

Gruß
Alex

ow
2002-04-21, 22:02:33
Also auch ich finde 16Bit bei NV wesentlich gelungener als bei ATi.

Bei beiden ist übrigens das Dithering durch alle Chipgenerationen dasselbe geblieben.

Übrigens hilft bei NV das AA gegen die Dithering Artefakte, wie man sie im 3DMark2k1 Fillrate Test bei 16Bit Farbtiefe sieht.
Auf meiner Radeon habe ich die Auswirkungen von AA aufs Dithering noch nicht untersucht.

Birdman
2002-04-21, 22:53:28
also supersampling müsste eigentlich in jedem falle (bei jedem chip) gegen diese dithering artefakte helfen, bei der ati dünke mich es aber noch was anderes als nur dieses dithering...als wären alle 4x4 punkte ein pixel ziemlich danebengeraten....halt so wie bei der voodoo2 jede 4. zeile mistig aussah

Unregistered
2002-04-21, 23:05:55
ich würde natürlich die radeon 8500 nehmen-weil die nicht von nvidia ist :). oser ihr wartet noch auf die kyro 3-die ist dann garantiert schneller

Blackhand
2002-04-21, 23:06:07
ALso durch alle Generationen ist das Dithering gewiss nicht dasselbe geblieben. Jedenfalls hat die R8500 keinesfalls das gleiche wie die Rage128. Denn diese war extrem schlecht in 16bit und vor allem der Rauch hat extreme Raster gezeigt. Auf der R8500 ist aber gerade der Rauch in 16bit um einiges besser. Aber auch das Gesamtbild. Aber die größte Veränderung zur Radeon ist die bessere Farbqualität und Schärfe der Texturen, wo es wirklich sehr wenig Unterschied zu 32bit gibt. Und das Dithering fällt mit FSAA beim puren zocken kein bischen auf, da sieht die Welt nur schnell und bunt aus. Das ist aber nur meine subjektive Meinung. 32bit sind qualitativ natürlich vorzuziehen, aber fürs schnelle Zocken sind 16bit trotzdem eine Option.

Edit: Was natürlich keinesfalls bedeuten soll, das 32bit zu langsam wären.

Exxtreme
2002-04-21, 23:22:21
Also gut, ich habe jetzt 2 Screenshots vom Fillrate-Test im 3DMark2001SE gemacht.

1024'er Auflösung bei 16 Bit ohne AntiAliasing:

Exxtreme
2002-04-21, 23:23:43
Und hier kommt eins mit AntiAliasing.

1024'er Auflösung, 16 Bit Farbtiefe, 4x AA:

aths
2002-04-22, 04:51:44
ow,

du hast geschrieben: "Übrigens hilft bei NV das AA gegen die Dithering Artefakte, wie man sie im 3DMark2k1 Fillrate Test bei 16Bit Farbtiefe sieht."

Wie soll bei NV (genauer NV17, NV20, NV25) AA gegen Dithering-Artefakte helfen? Texturen bleiben doch ungefiltert.

Unregistered
2002-04-22, 06:47:35
Originally posted by Richthofen
warten oder nicht who cars?
Die 4 Wochen hält jeder aus und dafür hat er dann ein Produkt das ausgereift ist und ein absolut solides Gesamtpaket abgibt.
Wer sich jetzt noch ne Radeon kauft......
Das würd ich nur wenn die soviel kostet wie ne MX440 also unter 150 Euro sonst nicht.
Gut ich persönlich würde auch das nicht aber das wäre ein fairer Preis würd ich sagen.

Jojo schon Recht Richthofen.
Wirst Du eigentlich noch im Schlafe eingesungen?

Eine R8500 auf MX 440 Niveau stellen ist lächerlich.
Was sollte dann die MX440 kosten?

Eines ist klar die Radeon ist technisch noch immer besser als die Komplette GeForce4 Serie.

TruForm, PS1.4, DVD per Hardware Beschleunigen. (Nein kann die GeForce4 noch immer nicht.(Auser die MX Serie)

Also kann die Karte ruhig das gleiche Preis Niveau haben.

Preis /Leistung gesehen muss ich aber auch anerkennen das die Ti4200 absolut Top ist.

Wer andere Sachen machen will ausser zocken kommt um die R8500 wieder nicht rum.
Schade eigentlich das nVIDIA noch immer so stur ist.

@An den Thread suchenden.

Wenn Du rein nur zockst. Dann die GeForce 4 Ti4200

Ansonsten die R8500

Gruss Labberlippe

Meta
2002-04-22, 09:02:47
Ich würd an deiner Stelle noch etwas länger warten, oder zumindest auf die nächste Spielemesse. Und zwar mal sehen was Matrox, Trident, S3 und der Kyro III noch alles bringen. Jetzt ne Graka zu kaufen find ich nicht so gut, weil wir dieses Jahr in der Hinsicht mehr erleben könnten als in den vergangenen...

Aber ansonsten, wenn du's eilig hast, würd ich ne G4 kaufen, is halt schneller und zum DVD schauen wirds wohl auch noch reichen, für TV-Out gibts Progs und alles is in Ordnung. Was wollt ihr denn, G4 is zur Zeit in der Praxis halt schneller, auch wenn die R8500 PS 1.4 usw, wem bringt das was, wer nützt es, kein Mensch und in einem Jahr kauft man sich vielleicht eh wieder ne Neue und dann vielleicht endlich MATROX.

Euer Meta

ow
2002-04-22, 09:33:49
Originally posted by Blackhand
ALso durch alle Generationen ist das Dithering gewiss nicht dasselbe geblieben


Ist es doch.

Ich habe hier RagePro, Rage128Pro und Radeon1 getestet und das Dithering ist exakt dasselbe auf all diesen Karten.

Und ebenso ist das Dithering von meinem RivaTNT und meiner GF2MX absolut identisch.

ow
2002-04-22, 09:35:24
Originally posted by aths
ow,

du hast geschrieben: "Übrigens hilft bei NV das AA gegen die Dithering Artefakte, wie man sie im 3DMark2k1 Fillrate Test bei 16Bit Farbtiefe sieht."

Wie soll bei NV (genauer NV17, NV20, NV25) AA gegen Dithering-Artefakte helfen? Texturen bleiben doch ungefiltert.


Genauer: Ich bezog mich auf das Supersampling-AA, haette ich wohl dabeischreiben sollen.

Exxtreme
2002-04-22, 09:47:28
Originally posted by ow

Ich habe hier RagePro, Rage128Pro und Radeon1 getestet und das Dithering ist exakt dasselbe auf all diesen Karten.


Zw. der R100 und der R200 gibt es aber einen Unterschied. Man sieht zwar, daß es keine 32 Bit sind, es tritt aber kein Dithering-Raster auf. Rauch z.B. sieht dann zwar "merkwürdig" aus, rastert aber nicht.

Gruß
Alex

Unregistered
2002-04-22, 09:48:10
Originally posted by ow



Ist es doch.

Ich habe hier RagePro, Rage128Pro und Radeon1 getestet und das Dithering ist exakt dasselbe auf all diesen Karten.

Und ebenso ist das Dithering von meinem RivaTNT und meiner GF2MX absolut identisch.

Du hast beim Radeon Treiber unter D3D 3 Auswahl möglichkeiten.
Je nach Game bringt es eine Top Bildqualität.

Unter OpenGL stimme ich Dir zu.
Warum das so ist weiss anscheinend nur ATi alleine.

Gruss Labberlippe

ow
2002-04-22, 09:59:28
Originally posted by Exxtreme

Zw. der R100 und der R200 gibt es aber einen Unterschied. Man sieht zwar, daß es keine 32 Bit sind, es tritt aber kein Dithering-Raster auf. Rauch z.B. sieht dann zwar "merkwürdig" aus, rastert aber nicht.

Gruß
Alex

Unter ogl und/oder d3d?
Von meiner Radeon weiss ich, dass sich das Dithering unter D3D aendern laesst (d3d Treiberoptionen). Unter OGL jedoch nicht AFAIK.

ow
2002-04-22, 10:04:47
Originally posted by Unregistered


Du hast beim Radeon Treiber unter D3D 3 Auswahl möglichkeiten.
Je nach Game bringt es eine Top Bildqualität.

Unter OpenGL stimme ich Dir zu.
Warum das so ist weiss anscheinend nur ATi alleine.

Gruss Labberlippe

ah ja, thx.

Hab die Dithering Optionen der ATi noch nicht getestet.
Ich weiss, das meine Voodoo sowas aehnliches kannte.
Und zwar wie bei der Radeon gab's da sowas wie "kein dithering bei alpha-blending". Hat zwar die Dithering Artefakte (beim Blending) reduziert, dafuer traten aber recht scharfe Color-bandings auf.

Bei der Radeon duerfte 16Bit Farbtiefe mit 32Bit Texturen ohne Dithering beim Blending recht gut aussehen. Werd das demnaechst mal testen.

Aber IMO ist die 16/32Bit Diskussion bei GF/Radeon Karten eh etwas ueberfluessig.;);)

Gruss,
ow

zeckensack
2002-04-22, 11:10:20
Jau, über den 16bit-Modus zu streiten bringt nicht viel. Die Radeon produziert hier doch ein sehr merkwürdiges Bild und ist auch nicht wesentlich schneller als in 32bit. Punkt für NVidia.

@ow:
Die Option, die im Deutschen recht merkwürdig 'Farbmischung bei Alpha-Blending deaktivieren' heißt, finde ich immer noch am besten. Zu finden in den D3D-Optionen der Radeon.

Unter OpenGL gibt's sowas nicht, daher sieht zum Beispiel Team Arena in den Außenlevels richtig scheiße aus.

ow
2002-04-22, 11:27:12
@ Zeckensack

Wie ist denn der 9026 Treiber auf der Radeon1?

Will evtl. heute abensd mal meine Radeon wieder etwas testen, der offizielle 9016 & 9021 konnte mich nicht so ueberzeugen (fullscreen DDraw = crash), der 9023 ist wenigstens stabil.

thx:),
ow

zeckensack
2002-04-22, 11:37:55
Originally posted by ow
@ Zeckensack

Wie ist denn der 9026 Treiber auf der Radeon1?

Will evtl. heute abensd mal meine Radeon wieder etwas testen, der offizielle 9016 & 9021 konnte mich nicht so ueberzeugen (fullscreen DDraw = crash), der 9023 ist wenigstens stabil.

thx:),
ow

Der 9026er ist auf jeden Fall deutlich schneller als der 9021er. Den 9023er hatte ich nur recht kurz im Betrieb, wie da die Relation ausschaut, kann ich also nicht sagen.
Ich spiele momentan nicht sonderlich viel, mir ist aber beim Benchen von MaxPayne was ganz übles aufgefallen:
Spielstand für die Endsequenz geladen, da kommen in der Animation mehrere sekundenlange Aussetzer/Hänger, das ist so schlimm, daß die Sounduntermalung völlig aus dem Tritt gerät.
Der Rauch und der Himmel in Dragothic werden jetzt korrekt dargestellt, ich glaub mit dem 9016er war das noch kaputt.
Ansonsten sind alle mir bekannten Bugs noch drin.
Außerdem sind die Abstürze jetzt 'kreativer' geworden. Aber im Gegensatz zu dir hab ich keine Crashes im regulären Betrieb, sondern nur wenn meine App mal wieder was ganz dummes macht und den OpenGL-Treiber zu einer tödlichen Schutzverletzung überredet :biggrin:

Unregistered
2002-04-23, 07:18:14
Originally posted by ow


ah ja, thx.

Hab die Dithering Optionen der ATi noch nicht getestet.
Ich weiss, das meine Voodoo sowas aehnliches kannte.
Und zwar wie bei der Radeon gab's da sowas wie "kein dithering bei alpha-blending". Hat zwar die Dithering Artefakte (beim Blending) reduziert, dafuer traten aber recht scharfe Color-bandings auf.

Bei der Radeon duerfte 16Bit Farbtiefe mit 32Bit Texturen ohne Dithering beim Blending recht gut aussehen. Werd das demnaechst mal testen.

Aber IMO ist die 16/32Bit Diskussion bei GF/Radeon Karten eh etwas ueberfluessig.;);)

Gruss,
ow

Also unter D3D sind die div. Dithering Optionen ein Hammer, gerade bei alten Games welche nur auf 16 Bit gesetzt haben.
Dark Projekt oder Shadows of the Empire etc.

Kein Dihtering bei Alpha Blending ist unter OpenGL und das sind heftige Color Bandings. :-(
Warum ATi hier nicht gleich verfährt wie unter D3D kann ich nicht nachvollziehen.
Unter D3D ist die Bildqualität unter 16 Bit gegenübern nVIDIA um Welten besser.
Gerade bei einer Auflösung von 640x480 in 16 Bit sieht man es.

Allerdings ist das bei einer Radeon/GeForce3 überflüssig da die Karten eh nicht mehr einbrechen.

Gruss Labberlippe

Dunkeltier
2002-04-24, 14:34:38
Originally posted by zeckensack
Jau, über den 16bit-Modus zu streiten bringt nicht viel. Die Radeon produziert hier doch ein sehr merkwürdiges Bild und ist auch nicht wesentlich schneller als in 32bit. Punkt für NVidia.

@ow:
Die Option, die im Deutschen recht merkwürdig 'Farbmischung bei Alpha-Blending deaktivieren' heißt, finde ich immer noch am besten. Zu finden in den D3D-Optionen der Radeon.

Unter OpenGL gibt's sowas nicht, daher sieht zum Beispiel Team Arena in den Außenlevels richtig scheiße aus.


Die Option "Farbmischung bei Alpha Blending deaktivieren" gibt es sehr wohl auch unter OpenGL! Und das in den Standardtreibern. Du gucken hier:

ow
2002-04-24, 15:02:19
*Verwirrung*

Wie heisst's denn jetzt:

anisotropes oder anisotropisches Filtern?

Andre
2002-04-24, 15:22:14
Originally posted by ow
*Verwirrung*

Wie heisst's denn jetzt:

anisotropes oder anisotropisches Filtern?

Bin mir fast sicher, dass es ersteres ist.
Tropisch erinnert mich irgenwie zu sehr an den Dschungel.

zeckensack
2002-04-24, 15:24:46
Originally posted by Black Cow
Die Option "Farbmischung bei Alpha Blending deaktivieren" gibt es sehr wohl auch unter OpenGL! Und das in den Standardtreibern. Du gucken hier:
Ey, du hast Recht! Sorry ... hab wahrscheinlich geschielt oder sowas. Ich Deggel hab die Option auch! Da lasse ich mich doch gern von dir korrigieren =)

zeckensack
2002-04-24, 15:25:36
Originally posted by Andre


Bin mir fast sicher, dass es ersteres ist.
Tropisch erinnert mich irgenwie zu sehr an den Dschungel. Und nach hirntoter Übersetzungsabteilung ??? *eg*

Dunkeltier
2002-04-24, 16:04:35
Meine Nachforschungen haben ergeben, das man anisotropies, anisotropisches und anisotropes schreiben kann und alles wohl letztendlich eins umschreibt. 8)

ow
2002-04-24, 16:59:12
AFAIK heisst's isotrop bzw. anisotrop als Adjektiv.

-> isotropes/anisotropes Filtern.

Thowe
2002-04-24, 21:34:25
ow hats erfasst.

Ansonsten heisst es eigentlich auch z.B. 8fache Anisotropie, aber was immer falsch gesagt wird, wird irgendwann automatisch richtig.

Liszca
2002-05-01, 18:58:36
Originally posted by Thowe
Ja, das kann man so sehen. Aber wer Richthofen kennt, der kann mit Punkt 1 und 5 leben. :)

Dieses verhalten von ihm ist aber krankhaft. Aber das können wir hier jetzt nicht beurteilen, vielleicht ist er wirklich ein kranker psycho, dem sein Mann entlaufen ist!

matzew
2002-05-02, 15:28:23
wann kommt die GF4 TI4200 genau raus? die will ich mir auch kaufen!!!

Major
2002-05-02, 16:13:35
von Gainward und Powercolor sind bereits Ti4200 Karten angekündigt und wie es aussieht werden die dann wohl in 2-3 Wochen verfügbar sein.

Unregistered
2002-05-02, 16:24:39
Originally posted by ow
AFAIK heisst's isotrop bzw. anisotrop als Adjektiv.

-> isotropes/anisotropes Filtern.


Naja, kann sein ;) .

Aber "die Tropen" und "tropisches Wetter" ... okay nicht vergleichbar, da vmtl. :D nicht gleicher Wortstamm

mirp
2002-05-02, 20:35:57
Da es im Englischen 'anisotropic' heisst, müsste es doch eigentlich 'anisotropisch' sein. Wie es zum Beistpiel bei 'static' oder 'dynamic' der Fall ist.

Thowe
2002-05-02, 20:55:32
engl. Anisotropic = Anisotrop

matzew
2002-05-03, 12:43:04
winfast will eine Geforce 3Ti500 anfang mai auf den Markt bringen. sie wird 199 Eurp kosten!!!

http://www.pcgames.de/index.cfm?menu=030101&article_id=45591

zum nachlesen

ZilD
2002-05-12, 01:24:46
siehe gamecube

jedi
2002-05-13, 17:34:46
Originally posted by ow
AFAIK heisst's isotrop bzw. anisotrop als Adjektiv.

-> isotropes/anisotropes Filtern.

Genau. So steht's übrigens auch im Fachwörterbuch. "Isotrop" und "anisotrop" gibt es in der Technik und in den Naturwissenchaften übrigens schon seit vielen Jahren.