PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R9700 - eine ehrliche Betrachtung eines Nvidioten


KAMPFWURST
2002-09-09, 22:16:51
Moin.

Mit Erheiterung verfolge ich seit einigen Tagen die kontroversen Diskussionen über die ATI9700 und deren Probleme. Als alter Nvidiot, der seit der GF1 so ziemlich jede Karte haben musste, möchte ich euch meine Erfahrungen mit der Radeon 9700 mal aus meiner Warte schildern.

Ich habe mit der R9700 eine Geforce4 4600TI ersetzt, wobei zu sagen wäre, dass die GF4 wirklich eine prächtige Karte ist, die nie Probleme machte. Der Wechsel zur R9700 geschah also nicht aus Notwendigkeit, sondern eher aus Neugierde. Naja... die 10 Bit DACs spielten auch eine Rolle... da kommt 'ne DVD einfach besser.

Zunächst einmal fiel mir auf, daß die Desktop-Bildqualität dieser beiden Karten praktisch identisch sind. Betrachtet auf einem SONY 24 Zoll-Monitor sind praktisch keine Unterschiede feststellbar. Auch die teilweise in anderen Beiträgen angesprochene "Trägheit" der R9700 bei GDI+ (also normalem Fensterhandling) kann ich nicht nachvollziehen. Die GF4 ist vielleicht ein Hauch "geschmeidiger" beim Verschieben von Fenstern, aber ich sitze eigentlich nicht vor dem Monitor, um stundenlang Fenster hin und her zu schieben.

Die in einem anderen Beitrag angesprochenen Probleme mit Photoshop Paletten und Premiere-Timeslidern sind Blödsinn. Vermutlich wollte sich da einer der famosen Unregs ein bißchen wichtig machen und Unruhe schüren.

Kurzum: Im 2D-Bereich grünes Licht für die Radeon. Keinerlei Probleme. Bild auf der gewohnten ATI-Qualität mit deutlichem Vorsprung bei DVD dank ICDT und 10 Bit Farbgenauigkeit.

Im Spielebereich siehts etwas schlechter aus. Ich möchte jetzt nicht alle Problemberichte wiederholen, aber tatsächlich laufen die meisten Spiele (ob alt oder neu) eine Ecke hackliger, als auf der GF4. Kurioserweise hängt die R9700 meine alte GF4 beim 3DMark in einer Weise ab, die man schon fast als unerhört betrachten kann. Merkwürdigerweise scheint dieser Vorsprung unter realen Bedingungen aber dahin zu schmelzen. Abgesehen von kleineren Bildfehlern (die ATI wohl per Treiber in den Griff kriegt), zeigt die R9700 eine deutliche Tendenz zu höchst variablen Frameraten, deren Spitzenwerte zwar deutlich über der GF4 liegen, aber im Durchschnitt leider weitaus öfter auch unter der GF4 - dadurch spielt sich im direkten Vergleich mit der GF4 beispielsweise UnrealTournament (auch mit neuem OGL-DLL), als würde man mit der Maus in Butter rühren. Ständig hinkt der Bildaufbau einen Hauch hinter der Mausbewegung hinterher.

Auch Neverwinternights zeigt ähnliche Symptome. Morrorwind hab ich nicht getestet, aber es soll eines der Games sein, die auf der R9700 besser laufen, als auf einer GF4. Vielleicht kann das ja jemand bestätigen.

Ansonsten aber: Mehr oder weniger alle (meine) Spiele liefen auch unter der R9700. Die Horrormeldungen über permanente BSODS und Lockups kann man also unter Gerüchte und Flamerei abhaken. Jedenfalls auf meinem System. Ich will nicht behaupten, daß alle Fehlermeldungen gefaked waren. Ich denke eher, daß einfach zu oft eine unglückliche Hard-Software-Kombination oder einfach ein DAU das Problem darstellt.

Mein Fazit bisher: Nach 3 Tagen quasi Dauer-Computerei habe ich den Kauf der Radeon nicht bereut. Sie ist leider nicht der Quantensprung, den ich mir erhoffte, aber sie ist definitiv nicht schlechter als eine GF4, und wenn die Treiber etwas ausgefeifter werden, wird sie die GF4 wohl in den Sand stecken.

Lethargica
2002-09-09, 22:24:40
Achja, würde mich mal interessieren, ob du ne Orginal ATI hast, oder von einem 2. Hersteller...bis jetzt hab ich die Probs mit der 2D Quali usw. nur bei Powercolor (u.a.) gehört.

mapel110
2002-09-09, 22:26:08
Originally posted by KAMPFWURST
Mein Fazit bisher: Nach 3 Tagen quasi Dauer-Computerei habe ich den Kauf der Radeon nicht bereut. Sie ist leider nicht der Quantensprung, den ich mir erhoffte, aber sie ist definitiv nicht schlechter als eine GF4, und wenn die Treiber etwas ausgefeifter werden, wird sie die GF4 wohl in den Sand stecken.

mal ne dumme frage: hast du die 9700er auch mit AA und AF benutzt ?
da sollte sie doch bei jedem game deutlich schneller sein als eine 4600er.
die überschüssige leistung kann man in bildquali stecken. das ist der quantensprung. 1600x1200 mit 4xAA und 16xAF !!!
ich kann mir kaum vorstellen, dass du bei diesen einstellungen keine performance-gewinne hast.

Unregistered
2002-09-09, 22:26:38
Stell mal 6xFSAA und 16xFSAA dann erlebst du ne Verdopplung der Performance und genau darum hab ich meine Geforce4 Ti4600 auch gegen die Radeon9700 ersetzt und ich kann nur sagen trotz Betatreibern gute Arbeit ATI Nvidia is destroyed for the next Time!

Quasar
2002-09-09, 22:33:56
Originally posted by Unregistered
Nvidia is destroyed for the next Time!

:)

Naja, 6xFSAA wird sicher keine Verdopplung erleben, da nV keinen solchen Modus anbietet. Allerdings muss ich sagen, dass ich in-Game so gut wie keine Unterschiede im Bild zwischen 4x und 6x FSAA (Quality!) der Radeon9000 sehe. Mal schauen, was die R9700 in der Beziehung bringt.

zeckensack
2002-09-09, 22:36:18
Im anderen Thread kamen auch mal fragen zur 2D-Performance auf.

Originally posted by Speckpfannekuchenkrümel
Ich gebe nur das wieder, was ich von Erfahrungsberichten weiß, also dass die 2D-Geschwindigkeit sehr schlecht ist und keiner von den ATi-Programmierern daran irgendwas ändern will.
Leider wird ja von fast niemandem mehr die 2D-Geschwindigkeit gemessen. Ich kannte von damals (TNT1 und TNT2) die Mercury-Benchmarks, und die TNTs haben alles hinter sich gelassen, darunter auch die Millenium 2.

Wie umfangreich und zuverlässig der WB99 ist, kann ich nicht sagen.
Vielleicht könnte jemand mal einen Test mit Fresh Diagnose (aktuelle Version 4.80, http://www.freshdevices.com/) je für eine GF und eine R9700 durchführen. Die 2D-Einheit ist AFAIK in allen GF-Chips identisch.

Wär nett, wenn du das mal testen könntest (da du ja offenbar keine Probleme mit 2D-Speed hast) =)

KAMPFWURST
2002-09-09, 22:50:36
Originally posted by J0hN|Cl4rK
Achja, würde mich mal interessieren, ob du ne Orginal ATI hast, oder von einem 2. Hersteller...bis jetzt hab ich die Probs mit der 2D Quali usw. nur bei Powercolor (u.a.) gehört.

Ist eine HIS Excalibur 9700 Pro (http://www.enmic.de)


Originally posted by mapel110
mal ne dumme frage: hast du die 9700er auch mit AA und AF benutzt ?
da sollte sie doch bei jedem game deutlich schneller sein als eine 4600er.
die überschüssige leistung kann man in bildquali stecken. das ist der quantensprung. 1600x1200 mit 4xAA und 16xAF !!!
ich kann mir kaum vorstellen, dass du bei diesen einstellungen keine performance-gewinne hast.

Stimmt. Daran hätte ich denken sollen. Ich habe die Radeon nämlich mit Standart-Einstellungen getestet. Werde ich bei Gelegenheit noch mal mit maximaler Qualität wiederholen.

Unregistered
2002-09-09, 22:51:03
Ich hab 645 als Benchmark

Cutter Slade
2002-09-09, 22:54:15
Hmmm.... jetzt wo du es sagst, das mit den variablen Frameraten könnte stimmtn, ich möchte es aber nicht beshcwören.
Wenn ich meine Radeon wiederhabe, werd ich das mal genauer untersuchen. Unter 1600x1200 mit 2xAA und 8xQAF lief UT zumindestens genau so gut wie es mit meiner Geforce3 unter 1024x768 lief...
Allerdings hab ich max. fps von über 300 und min. von knapp über 30 (auf deck16 ->Stresstest mit 8 Spielern auf dem Bildschirm die alle mit Raketenwerfer schiessen)....

Ich denke, das hängt eher mit der CPU - Limitierung von UT zusammen, oder was meinen die Experten?
Obwohl, eigentlich sprechen meine max. fps eher dagegen... ???

Cutter Slade
2002-09-09, 22:56:44
Beim 3d-Mark ist mir das mit den variablen Frameraten aufgefallen. Da hatte ich unter High-detail am Ende des Car-benchmarks nur knapp 26 fps für eine kurze Zeit. Ich meine, sogar meine Geforce3 hätte da mehr fps gehabt (straft mich Lügen falls ich mich falsch entsinne).

myMind
2002-09-09, 23:03:44
Originally posted by KAMPFWURST
dadurch spielt sich im direkten Vergleich mit der GF4 beispielsweise UnrealTournament (auch mit neuem OGL-DLL), als würde man mit der Maus in Butter rühren. Ständig hinkt der Bildaufbau einen Hauch hinter der Mausbewegung hinterher.

Das sollte auf gar keinen Fall so sein. Gerade UT sollte mit OpenGL flüssigst laufen. Allerdings muss ich sagen, dass die Version 9 der OpenGL DLL zusammen mit der Radeon 8500 nicht zu gebrauchen ist. Die vorige Version 8 läuft bei mir deutlich besser. Mouselag solltest du aber bei beiden Versionen nicht haben.

Lightning
2002-09-09, 23:04:16
Originally posted by Cutter Slade
Beim 3d-Mark ist mir das mit den variablen Frameraten aufgefallen. Da hatte ich unter High-detail am Ende des Car-benchmarks nur knapp 26 fps für eine kurze Zeit. Ich meine, sogar meine Geforce3 hätte da mehr fps gehabt (straft mich Lügen falls ich mich falsch entsinne).

Ich schätze mal dass du genau so viel fps hattest. Diese Szene ist nämlich wirklich CPU limitiert (zumindest kenn ich jemanden, der dort mit einem XP 1800+ und einer Gf2 mehr fps hat als ich mit meiner R8k5).

Cutter Slade
2002-09-09, 23:10:09
Das würde einiges erklären! Danke für die Aufklärung, hätte ich auch drauf kommen können! :)

mapel110
2002-09-09, 23:43:29
Originally posted by Lightning


Ich schätze mal dass du genau so viel fps hattest. Diese Szene ist nämlich wirklich CPU limitiert (zumindest kenn ich jemanden, der dort mit einem XP 1800+ und einer Gf2 mehr fps hat als ich mit meiner R8k5).

naja, ich hab nen xp2000+ und ne 8500. und bei mir sackt die framerate dort auch auf ca 25 ab.
wenn eine geforce2 da mehr fps hat, dann weisst du ja, in welcher richtung dieser benchmark optimiert ist.

Matrix316
2002-09-09, 23:52:14
Also ich würde mir sicher für ca. 4xx € keine Radeon 9700 kaufen, nur damit man besser DVDs abspielen kann... :lol: Da gibts stationäre Player die billiger und besser sind...aber das nur nebenbei.:D

Cutter Slade
2002-09-09, 23:54:03
??????????????

Matrix316
2002-09-09, 23:57:16
Naja... die 10 Bit DACs spielten auch eine Rolle... da kommt 'ne DVD einfach besser.
[...]
Bild auf der gewohnten ATI-Qualität mit deutlichem Vorsprung bei DVD dank ICDT und 10 Bit Farbgenauigkeit.

KAMPFWURST
2002-09-10, 00:32:34
Originally posted by Matrix316
Also ich würde mir sicher für ca. 4xx € keine Radeon 9700 kaufen, nur damit man besser DVDs abspielen kann... :lol: Da gibts stationäre Player die billiger und besser sind...aber das nur nebenbei.:D

Dann hast du noch nie eine DVD gesehen, die von ner GF4 oder ner Radeon via progressivem Projektor ausgegeben wird. Und 400 Euro sind noch ne ganze Ecke billiger, als ein proggressiver DVD-Hardwareplayer.

diedl
2002-09-10, 00:37:05
und gibt es die überhaupt endlich in pal?
Und bei den Preisen ist die 9700 ja geradezu ein
Sonderangebot.

mfg diedl

Unregistered
2002-09-10, 10:28:17
Originally posted by diedl
und gibt es die überhaupt endlich in pal?
Und bei den Preisen ist die 9700 ja geradezu ein
Sonderangebot.

mfg diedl

Alle Radeon 9700-Versionen sollten mit dem PAL-Standard zurechtkommen (auch die aus den USA).

Alexander

ow
2002-09-10, 11:37:17
Originally posted by mapel110


naja, ich hab nen xp2000+ und ne 8500. und bei mir sackt die framerate dort auch auf ca 25 ab.
wenn eine geforce2 da mehr fps hat, dann weisst du ja, in welcher richtung dieser benchmark optimiert ist.


Hö??
3DMark ist ein DX8 Bench und nutzt auch DX8 Funktionen in den high-detail Tests, wie soll das auf eine Gf2 optimiert sein?

Keiner der 3DMarks ist auf irgendeinen Chip optimiert.
Die Chiphersteller können höchstens ihre Treiber auf die im 3DM genutzten Funktionen optimieren. Aber auch hier müssen sie Kompromisse eingehen, weil die anderen 3D-Funktionen ebenfalls schnell ablaufen müssen.
Eine Karte soll ja jede mögliche 3D Szene so schnell wie möglich darstellen können.

diedl
2002-09-10, 13:30:27
______________________________________________________________________
Alle Radeon 9700-Versionen sollten mit dem PAL-Standard zurechtkommen (auch die aus den USA).

Alexander
______________________________________________________________________

Danke für die Antwort, aber eigentlich hatte ich Hardware DVD Player
gemeint mit progressiven Pal Ausgang.

mfg diedl

Lightning
2002-09-10, 14:47:58
Originally posted by ow



Hö??
3DMark ist ein DX8 Bench und nutzt auch DX8 Funktionen in den high-detail Tests, wie soll das auf eine Gf2 optimiert sein?

Keiner der 3DMarks ist auf irgendeinen Chip optimiert.
Die Chiphersteller können höchstens ihre Treiber auf die im 3DM genutzten Funktionen optimieren. Aber auch hier müssen sie Kompromisse eingehen, weil die anderen 3D-Funktionen ebenfalls schnell ablaufen müssen.
Eine Karte soll ja jede mögliche 3D Szene so schnell wie möglich darstellen können.

Eben. Ich würde auch nicht sagen dass es auf einen bestimmten Chip optimiert ist. Es ist nur z.B. an der angesprochenen Stelle ziemlich CPU limitiert.

mapel110
2002-09-10, 16:03:56
Originally posted by ow



Hö??
3DMark ist ein DX8 Bench und nutzt auch DX8 Funktionen in den high-detail Tests, wie soll das auf eine Gf2 optimiert sein?

Keiner der 3DMarks ist auf irgendeinen Chip optimiert.
Die Chiphersteller können höchstens ihre Treiber auf die im 3DM genutzten Funktionen optimieren. Aber auch hier müssen sie Kompromisse eingehen, weil die anderen 3D-Funktionen ebenfalls schnell ablaufen müssen.
Eine Karte soll ja jede mögliche 3D Szene so schnell wie möglich darstellen können.

wäre nett, wenn jemand mit einer geforce2 karte mal nachmessen könnte. dann hätten wir klarheit. mich würde es auch überraschen, wenn eine geforce2 an dieser stelle des benchmarks schneller wäre. aber wenn dem so ist, dann kann die performance nur softwareseitig kommen.

ow
2002-09-10, 16:23:46
Originally posted by Lightning


Eben. Ich würde auch nicht sagen dass es auf einen bestimmten Chip optimiert ist. Es ist nur z.B. an der angesprochenen Stelle ziemlich CPU limitiert.


Die high detail Szenen sind CPU-limitiert, das ist richtig, insbesondere auf den car chase trift das zu (dragothic & lobby weniger).

Radeonator
2002-09-10, 16:28:36
Kann man auch ganz einfach Testen: Auf normaler speed (1,6GHz) habe ich locker 1000 3d-Murks weniger als auf 1,9-2GHz.

ow
2002-09-10, 16:29:40
Originally posted by mapel110


wäre nett, wenn jemand mit einer geforce2 karte mal nachmessen könnte. dann hätten wir klarheit. mich würde es auch überraschen, wenn eine geforce2 an dieser stelle des benchmarks schneller wäre. aber wenn dem so ist, dann kann die performance nur softwareseitig kommen.


Fragt sich nur um welchen Teil der Szene es geht.

Kurz vor Ende, beim Umschnitt auf die Perspektive von hinter diesem Roboter bricht meine Gf2MX auf 9fps ein.
Die letzten Bilder bevor die Szene endet wird mit etwa 19fps gerendert.
Im Schnitt ereicht meine Gf2MX 22,5fps, Kyro1 15,5fps, Radeon1 DDR 28fps.

mapel110
2002-09-10, 16:58:32
Originally posted by ow



Fragt sich nur um welchen Teil der Szene es geht.

Kurz vor Ende, beim Umschnitt auf die Perspektive von hinter diesem Roboter bricht meine Gf2MX auf 9fps ein.
Die letzten Bilder bevor die Szene endet wird mit etwa 19fps gerendert.
Im Schnitt ereicht meine Gf2MX 22,5fps, Kyro1 15,5fps, Radeon1 DDR 28fps.

ja, mit meiner kyro2 hatte ich an besagter stelle afaik 13 fps. hm, das war mit einem athlon c 1200. jetzt hab ich den xp2000+ und an der stelle wie gesagt ca 25 fps. kommt irgendwie hin mit der cpu-limitierung.

btw warum ist diese szene cpu-limitiert ?

Exxtreme
2002-09-10, 17:01:38
Originally posted by mapel110


ja, mit meiner kyro2 hatte ich an besagter stelle afaik 13 fps. hm, das war mit einem athlon c 1200. jetzt hab ich den xp2000+ und an der stelle wie gesagt ca 25 fps. kommt irgendwie hin mit der cpu-limitierung.

btw warum ist diese szene cpu-limitiert ?
Sehr viele Polygone. Und da man unter DX8 die Erzeugung der Eckpunkte nicht der GraKa überlassen kann, ist diese Szene sehr CPU-limitiert weil die CPU arg schuften darf.

[DH]Avenger
2002-09-10, 17:22:53
Originally posted by zeckensack
Im anderen Thread kamen auch mal fragen zur 2D-Performance auf.



Wär nett, wenn du das mal testen könntest (da du ja offenbar keine Probleme mit 2D-Speed hast) =)

Es gab doch schonmal vor einigen Monaten einen Thread mit diesem FreshDevices 2D Test....die 8500er deklassierte die GF4 da teilweise um den Faktor 2.5 bis 3. Da die 9700er ja den gleichen 2D Teil hat, sollte sich an dieser Sache nichts geändert haben ;)