PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi vs nVidia vs XGI - Welcher Treiber rockt momentan?


Sir Integral Wingate Hellsing
2003-09-17, 12:04:44
Nachdem soviel über Detonator-Gecheate, Catalyst-Bugs etc geredet wurde, würde ich gern den aktuellen Stand der Treiberentwicklung mal allgemein hören.

Letztes Jahr, zur selben Zeit hiess es definitiv:

- Der Detonator hat weniger Bugs und ist kompatibler
- Der Catalyst leidet unter Stuttering und diversen Bugs
- Der Xabre-Treiber (hat der nen Namen?) leidet massiv unter TurboTex

Wie schaut es nun, im September 2003 aus?
Ich selbst habe eine R9000 Mobillity mit Omega Cat 3.7 und bin zufrieden, war aber mit meiner GF 4 Ti4200 und dem Det 43.45 auch nicht unzufrieden. Was hat sich bei XGI getan?
Was könnte die momentane Treibersituation für Folgen für künftige Chips haben (R360/R420/NV38/NV40/Volari-Series)?

Hoffe auf eine flamefreie Diskussion :)

Exxtreme
2003-09-17, 12:09:33
Also ich spreche mal für den CAT3.7.

Läuft sehr flüssig und ich habe keinerlei Kompatibilitätsprobleme bemerkt, die man IMHO dem Treiber anlasten könnte.

Einige Schwächen hat er aber. Die grösste ist, daß dieser Treiber unter OpenGL nur 16-Bit-Texturen nutzt wenn die Applikation nicht explizit 32-Bit-Texturen anfordert. Leider trifft das auf viele Applikationen zu.

Terry Makedon hat aber versprochen, daß diese "Schwäche" im CAT3.8 nicht mehr auftreten wird.

Radeonator@Work
2003-09-17, 12:16:36
ATi und NV sind in etwa auf gleichem Niveau, die Xabre Treiber sind i.O. aber nicht so ausgereift (funktionen etc.) d.H. das man manchmal die Configs der Games anpassen muss. Die Quality Settings gibt es dort schon seit langem, nur keine echten HighQuality settings. Aber ich denke der "Reactor" wird besser als der "XminatorII" , obwohl wissen kann mans nie...

Tesseract
2003-09-17, 12:38:51
von der kompatiblität/problemlosigkeit her sind die treiber ziemlich ähnlich - zumindest meiner erfahrung nach


aber mir sind die catas mom. viel sympatischer als die detos weil mehr zum einstellen ist und cheaterein/spezielle optimierungen nicht so ein gewaltiges ausmaß angenommen haben
ati verfolgt da eine bessere politik

beide sind aber ein ziemliches stück von der perfektion (wie ich sie gerne hätte) entfernt

Colin MacLaren
2003-09-17, 20:57:57
Der Cat. 3.7 ist recht schnell und macht in D3D keine Zicken. Momentan haperts aber zum einen daran, daß die Gamma-Einstellung im Control-Planel ingame ohne Wirkung bleibt zum anderen ist der OGL-Treiber noch etwas verbuggt (16Bit, Blitzen in JA bei dynamischn Leuchten).

Auf meiner Ti-4200 war ich bis zum 44.90 zufrieden und hatte keine Probleme (von den ersten Dets. der 40er Reihe mal abgesehen), ab 45.23 ging die Performance allerdings in den Keller (von besserer IQ hab ich da nix gesehen), den 51.75 konnte ich nicht testen, da ich jetzt ja ne Radeon 9800 Pro hab =)

stickedy
2003-09-18, 03:10:49
XGI scheint sich nicht um Xabre zu kümmern! Wenn man den Webseiten etc. glauben schenken darf, dann scheint sich SiS selbst noch direkt um die Xabre-Treiber zu kümmern (oder nicht - wie mans sieht). So verweisen alle email-Adressen etc. auf xabre.com auf SiS, während auf xgitech.com weder etwas von SiS noch von Xabre zu lesen ist. Scheinbar will man da einen radikalen Schnitt machen...

Ich würde also nicht unbedingt von den SiS Xabre-Treiber auf die kommenden XGI Reactor-Treiber schließen!

Gast
2003-09-18, 10:21:44
Original geschrieben von Exxtreme
[...]Einige Schwächen hat er aber. Die grösste ist, daß dieser Treiber unter OpenGL nur 16-Bit-Texturen nutzt wenn die Applikation nicht explizit 32-Bit-Texturen anfordert. [...]

Das kann man nie und nimmer dem Treiber anlasten, das beim erstellen des Texturobjektes explizit 32 Bit angefordert werden soll als internes Format, steht u.a. im Red Book, sprich, jeder der Lesen kann und was mit OpenGl, vorallem im professionellen Bereich (also hier z.B. bei Spielen) gemacht hat, sollte mindestens einmal über diese obige Stelle im Buch gestolpert sein.

Kennung Eins
2003-09-18, 14:47:32
Original geschrieben von Gast
Das kann man nie und nimmer dem Treiber anlasten, das beim erstellen des Texturobjektes explizit 32 Bit angefordert werden soll als internes Format, steht u.a. im Red Book, sprich, jeder der Lesen kann und was mit OpenGl, vorallem im professionellen Bereich (also hier z.B. bei Spielen) gemacht hat, sollte mindestens einmal über diese obige Stelle im Buch gestolpert sein. Man könnte aber zum Beispiel dem User die Wahl lassen (d.h. einstellbar im Treiberpanel, was default sein soll).

Topic:
Ich kann zwar nicht über Bugs am NV-Treiber klagen (höchtens über "Cheats"), doch finde ich, man kann viel zu wenig Einstellungen im Panel ändern.
Mag sein, daß man an die meisten Einstellungen normalerweise eh nicht ran muß, aber wenn sie schon im Treiber vorhanden sind, warum dann nicht auch im Panel?
Dann brauchts auch keine Tweak-Tools :)

Exxtreme
2003-09-18, 14:53:50
Original geschrieben von Gast
Das kann man nie und nimmer dem Treiber anlasten, das beim erstellen des Texturobjektes explizit 32 Bit angefordert werden soll als internes Format, steht u.a. im Red Book, sprich, jeder der Lesen kann und was mit OpenGl, vorallem im professionellen Bereich (also hier z.B. bei Spielen) gemacht hat, sollte mindestens einmal über diese obige Stelle im Buch gestolpert sein.
Ich sage ja nicht, daß das ATis Schuld ist.

Leider initialisieren/definieren viele Entwickler einige Sachen nicht weil sie davon ausgehen, daß es schon passen wird. :bonk:

Ein ähnliches Problem hatte Serious Sam2 in Verbindung mit einer GF4Ti. Die Programmierer haben zwar Farbtiefe angeordert, die Z-Buffer-Genauigkeit aber nicht. Auf der GF3 hat das noch sehr gut gefunzt weil diese keinen 16-Bit-Z-Buffer in Verbindung mit 32-Bit-Farbtiefe gemeldet hat. Das hat sich aber mit der GF4Ti geändert und deswegen gab es Z-Buffer-Fehler.

Ailuros
2003-09-18, 16:55:48
Die GF4Ti laeuft auf dem generic GF3 path in SS:SE. Wenn man das ini des Spiels modifiziert, wird der 24bit Z buffer eingeschaltet und jegliche Z-aliasing Nebeneffekte sind weg.

Exxtreme
2003-09-18, 16:58:49
Original geschrieben von Ailuros
Die GF4Ti laeuft auf dem generic GF3 path in SS:SE. Wenn man das ini des Spiels modifiziert, wird der 24bit Z buffer eingeschaltet und jegliche Z-aliasing Nebeneffekte sind weg.
Ich weiss. :)

Man konnte den 24-Bit-Z-Buffer auch per Console im Spiel einschalten. :)

Aber wie gesagt, eine falsche Annahme der Programmierer hat zu diesen Merkwürdigkeiten geführt.

Ailuros
2003-09-18, 17:00:56
Oder sie waren einfach zu faul einen GF4Ti path mit einem patch einzufuehren?

ow
2003-09-18, 19:00:08
Original geschrieben von Exxtreme

Aber wie gesagt, eine falsche Annahme der Programmierer hat zu diesen Merkwürdigkeiten geführt.

Jein.:D
IIRC wurde in älteren Detos dann automatisch 24Bit Z genutzt. NV hat das 'Default'-Verhalten im Treiber umgestellt.

Exxtreme
2003-09-18, 19:19:30
Original geschrieben von ow
Jein.:D
IIRC wurde in älteren Detos dann automatisch 24Bit Z genutzt. NV hat das 'Default'-Verhalten im Treiber umgestellt.
Trotzdem hätten die Programmierer das vom Treiber anfordern sollen, was sie zum einwandfreien Betrieb brauchten.

Auf ein bestimmtes "Standardverhalten" darf man sich bei sowas nicht verlassen.

Ailuros
2003-09-20, 13:06:36
Zum Thema Treiber zwischen Detonators und Catalysts: ich war so verrueckt und hab den 2.4 nochmal ausprobiert und ATI ist tatsaechlich um einige Laengen besser geworden in den beiden letzten Treiber-revisionen (3.6/7).

Wie dem auch sei (und ich moechte hier betonen dass es sich nur um einen kleinen Unterschied handelt, der dem Durchschnitts-user vielleicht gar nicht auffallen koennte), Detonator Treiber sind im guten ganzen ein bisschen schneller in "response time" was windows GUI (siehe speziell XP) oder loading times in Spielen betrifft auch heute noch. In den meisten Faellen sind die paar Nanosekunden aber nicht immer zum Vorteil. Nothing is perfect ;)

Was ich liebend gerne wissen wuerde ist was Detonatoren seit irgendwann 4X.xx mit AGP texturing angerichtet haben. Von einem gewissen Punkt und aufwaerds war der AGP Anteil an texture memory auf einen Wert festgenalget und da machte jegliche aperture size Aenderung im BIOS keinen Unterschied mehr.

zeckensack
2003-09-20, 13:13:36
Original geschrieben von ow
Jein.:D
IIRC wurde in älteren Detos dann automatisch 24Bit Z genutzt. NV hat das 'Default'-Verhalten im Treiber umgestellt. AFAIK war NV20 der erste NV-Chip, der überhaupt 32 bit Farbe + 16 bit Z konnte.
SeSam 2's Verhalten ist da mehr auf Gf2 ausgerichtet. Viele andere Apps machen das auch so, obwohl's falsch ist.
Die Auswahl der 'am besten passenden' Bit-Tiefe wird btw nicht vom Treiber geregelt. Es gibt dafür einen Automatismus in der Opengl32.dll, die bekanntlich von Micros~1 kommt, und seit ca dreitausend Jahren nicht mehr gepflegt wird. Und das ist das Problem.

Man kann das auch selbst machen, nur ist's eben Aufwand. Außerdem kommt man dann als Programmierer in Kontakt mit der Win32-API und ihren Eigenheiten, und da kann einem schnell übel werden.

ow
2003-09-20, 13:51:48
Original geschrieben von zeckensack
AFAIK war NV20 der erste NV-Chip, der überhaupt 32 bit Farbe + 16 bit Z konnte.
SeSam 2's Verhalten ist da mehr auf Gf2 ausgerichtet. Viele andere Apps machen das auch so, obwohl's falsch ist.
Die Auswahl der 'am besten passenden' Bit-Tiefe wird btw nicht vom Treiber geregelt. Es gibt dafür einen Automatismus in der Opengl32.dll, die bekanntlich von Micros~1 kommt, und seit ca dreitausend Jahren nicht mehr gepflegt wird. Und das ist das Problem.

Man kann das auch selbst machen, nur ist's eben Aufwand. Außerdem kommt man dann als Programmierer in Kontakt mit der Win32-API und ihren Eigenheiten, und da kann einem schnell übel werden.


Ok, thx4Erklärung.=)

Und noch eine kleine Korrektur: Der NV11 aka GF2MX kann auch schon 16Bit Z bei 32Bit FB, der NV15 aka GF2 kann dies nicht. Erst ab NV20 geht´s dann wieder (und die können dann auch noch 24Bit Z bei 16Bit FB).

ow
2003-09-20, 13:56:00
Original geschrieben von Ailuros


Was ich liebend gerne wissen wuerde ist was Detonatoren seit irgendwann 4X.xx mit AGP texturing angerichtet haben. Von einem gewissen Punkt und aufwaerds war der AGP Anteil an texture memory auf einen Wert festgenalget und da machte jegliche aperture size Aenderung im BIOS keinen Unterschied mehr.


Kann ich nicht bestätigen. Nach wie vor verhält sich der Deto auf meinem Sys so wie er soll. Wert der AGP aperture aus dem BIOS wird korrekt übernommen.

Ailuros
2003-09-21, 10:57:10
Original geschrieben von ow
Kann ich nicht bestätigen. Nach wie vor verhält sich der Deto auf meinem Sys so wie er soll. Wert der AGP aperture aus dem BIOS wird korrekt übernommen.

Komischerweise blieb bei mir texture memory auf ~250+ egal ob ich jetzt 64 oder 256 aperture einsetzte. Ich bestehe auch nicht absolut darauf denn die NV25 um die es geht ist auch ausgebrannt *hust*

Winter[Raven]
2003-09-21, 11:16:21
hmmm ...

Ich bin derzeit für den Detonator. Auch wenn er in der Beta Version einige kleine Bugs hat, so bittet er ein haufen neue möglichkeiten, und eine bessere 2D BQ.

Ailuros
2003-09-21, 11:41:37
Original geschrieben von Winter[Raven]
hmmm ...

Ich bin derzeit für den Detonator. Auch wenn er in der Beta Version einige kleine Bugs hat, so bittet er ein haufen neue möglichkeiten, und eine bessere 2D BQ.

Na das mit der 2D BQ ist ein Kapitel fuer sich. Mit den erschreckend hohen Transistoren Anzahl und zahllosen extra Einheiten auf neuesten high end Karten wurde 2D auch nicht gerade besser.

Es wuerde mich nicht wundern wenn eine G450 z.B. tatsaechlich eine bessere Signalqualitaet als eine Parhelia, R3xx oder NV3x haette.

Ich konnte keine wahren Unterschiede zwischen der NV31 (die ich ausprobiert hatte) und der R300 in 2D sehen, aber ich verwende auch keine verrueckt hohen Aufloesungen fuer den Desktop. Wenn man ueberhaupt Unterschiede finden koennte dann eher >1280*960, was mich gerade nochmal daran errinnert dass ich mir schon seit langem einen 19 incher haette besorgen sollen *aechz*.

Winter[Raven]
2003-09-21, 15:53:36
Also, ich habe ja normale auflösung von 1280*1024 @ 90 hz. Und nachdem ich den neuen Detonator 51.71 installiert habe, muss ich sagen das die BQ sich wirklich gebessert hat, die Schrift ist viel schärfer und allgemein ist das bild ned so verschwomen.

Hier muss ich schon sagen das Nvidia gute arbeit gleistet hat.

Aquaschaf
2003-09-21, 16:04:32
Inwiefern hat der Treiber überhaupt Einfluss auf die 2D-Bildqualität?

Winter[Raven]
2003-09-21, 16:06:26
Original geschrieben von Aquaschaf
Inwiefern hat der Treiber überhaupt Einfluss auf die 2D-Bildqualität?

Da fragst du aber den Falschen ;)

Ich gebe nur das weiter was ich beobachtet habe bzw. beobachte.

Tesseract
2003-09-21, 16:08:04
Original geschrieben von Winter[Raven]
Also, ich habe ja normale auflösung von 1280*1024 @ 90 hz. Und nachdem ich den neuen Detonator 51.71 installiert habe, muss ich sagen das die BQ sich wirklich gebessert hat, die Schrift ist viel schärfer und allgemein ist das bild ned so verschwomen.

Hier muss ich schon sagen das Nvidia gute arbeit gleistet hat.

kann es sein das du vergessen hast höher als auf 60Hz zu stellen? :D

je höher die Hz umso unschärfer wird nämlich das bild bei CRTs

btw. kann es sein das ati beim cata 3.7 etwas rot beim tv-out weggenommen hat?

früher hatte der nämlich einen rotstich den ich jetzt nichtmehr feststellen kann

Winter[Raven]
2003-09-21, 16:10:22
kann es sein das du vergessen hast höher als auf 60Hz zu stellen?

Nö ... vorher hatte ich ja den 45.23 und 45.33 drauf, bei der selben auflösung bei 90hz. Also unter gleichen Bedinungen wie jetzt nur jetzt mit dem 51.71

betasilie
2003-09-21, 16:46:47
Also es handelt sich um meine erste ATI-Karte und ich war auch sekptisch bzgl. der ATI-Treiber.

Ich war eigentlich von Anfang an positiv überrascht. Das anfängliche Stuttering was allerdings störend.

Mitlerweile hat imho ATI NV in Sachen Treiber überholt. Wenn ich daran denke wie lange NV insbesondere früher und auch noch heute auf Regelmäßigkeit bei den Releases von offiziellen Treibern warten lässt, finde ich, dass ATI da ganz klar vorbildlich ist. Die offiziellen Treiber kommen in Regelmäßigen Abständen und bieten konsequent Verbesserungen.

Ich persönlich habe z.Zt. einfach keine Kritik anzumelden bei den Treibern von ATI.

Radeonator
2003-09-21, 23:52:42
Das schönste 2D Bild aller Matrox Karten hat die G550 , da könnten einige Hersteller sich mal ein bis zwei Scheibchen abschneiden!!!

Ailuros
2003-09-22, 06:12:09
Original geschrieben von Aquaschaf
Inwiefern hat der Treiber überhaupt Einfluss auf die 2D-Bildqualität?

Auf jeden Fall weniger als in 3D hehehe :D

Uebrigens war der RAMDAC und die VPE eigentlich in relativem Sinn ein copy/paste job von der Spectre auf NV25. Auf NV3x ist es eine Weiterentwicklung.

Das schönste 2D Bild aller Matrox Karten hat die G550 , da könnten einige Hersteller sich mal ein bis zwei Scheibchen abschneiden!!!

Matrox ist nach wie vor IMO der Koenig im 2D und multi-display Bereich, aber leider nur da *seufz* :(

Mordred
2003-09-30, 10:48:25
Original geschrieben von Ailuros
Auf jeden Fall weniger als in 3D hehehe :D

Uebrigens war der RAMDAC und die VPE eigentlich in relativem Sinn ein copy/paste job von der Spectre auf NV25. Auf NV3x ist es eine Weiterentwicklung.



Matrox ist nach wie vor IMO der Koenig im 2D und multi-display Bereich, aber leider nur da *seufz* :(

Naja mAtrox hat wohl net wirklich Bock drauf sich auf den 3DMarkt zu werfen. Man sieht ja wies NV und ATI geht... Cheaten hier Cheaten da. Naja wenn man Mtrox heisst kann man sich das net erlauben weil dann der Ruf im Arsch ist, aber ohne cheats kann man bei den Benchmarks kaum mithalten was auch verständlich ist.
Was ich gerne mal sehen würde ist ne Karte die DirectX und OpenGL Perfect unterstüzt ohne Cheats arbeitet und ne Hammerquali bringt DAS wäre das gebiet für MAtrox. Da wäre mir auch der Speed soweit egal wenn die neuen Games hre 60FPS kriegen binsch gkücklich. Aber leider dürfte ausser mir keiner ne Matrox zum Zocken kaufen :(

Frank
2003-09-30, 11:41:39
Original geschrieben von Exxtreme
Also ich spreche mal für den CAT3.7.

Läuft sehr flüssig und ich habe keinerlei Kompatibilitätsprobleme bemerkt, die man IMHO dem Treiber anlasten könnte.Also ich finde die Kompatibelitätsprobleme schon fast nervtötend. Am besten man installiert zu einer AllInWonder schon mal gar nicht mehr den CaptureTreiber und lötet den TV Tuner am besten einfach ab. Spart enorm Nerven & Zeit.