PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : News:Ati und die OpenGL-Treiber


radioactiveman24
2004-07-28, 18:30:47
Nachdem nVidia in einer Pressemitteilung verlauten liess, "NVIDIA GeForce 6800 Ultra und GeForce 6800 GT GPUs stellen vergleichbare Lösungen des Mitbewerbs bei Blockbuster PC-Spiel in den Schatten", konterte ATi:"Dies ist kein Grund zur Aufregung - [...] Wir werden in den nächsten Wochen ein Update unserer Treiber herausbringen."

nVidia meinte, bei den Benchmarks bei [H]ard|OCP um 40 - 70% schneller zu sein. Das konnte ATi natürlich nicht auf sich sitzen lassen. ATi gab bekannt, "daß die ATI-Performance alles andere als schlecht ist" und "daß die meisten Spiele heutzutage auf ATI-Hardware schneller laufen und Ihr könnt darauf vertrauen, daß sich das auch bei den noch in diesem Sommer erscheinenden, großen Spieletiteln nicht ändern wird"

Dass dies natürlich der Richtigkeit entspricht, mag nicht bezweifelt werden, jedoch sind ATi's OpenGL-Treiber einen Blick wert. Da Doom³ auf OpenGL und nicht, wie Half-Life 2, auf DirectX basiert, wird es für den geneigten Gamer schwer, sich zu entscheiden. 'The Inquirer' erfuhr aus eigenen Quellen, dass ATi schon seit einem Jahr nicht mehr an dem eigenen OpenGL-Treiber gearbeitet hat. Auf das Nachfragen von 'The Inquirer' bestätigte ATi dieses. Sehr microsoftfreundlich, da es nur noch zwei große Engines gibt, die auf OpenGL setzen: John Carmack's Doom³ und Tim Sweeney's Unreal Engine.

ATi werkelt nun fleissig daran, diesen Missstand mit einem neuen Treiber aufzuholen. Ob dies jedoch nach so langer Zeit noch zu schaffen ist, bleibt fraglich. Wann genau der neue Doom³-nVidia-Killer-Treiber kommt, ist bisher noch offen. Aber ATi bleibt nicht mehr so viel Zeit. Ab Montag gibt es Doom³ in den USA zu kaufen.




edit: @mods, gehört das nicht doch besser ins Technologie-Forum?

edit2: was ist mit dem 4.8 beta?Wisst ihr, ob da schon was neues drin is?

Schrotti
2004-07-28, 18:48:30
Original geschrieben von radioactiveman24

'The Inquirer' erfuhr aus eigenen Quellen, dass ATi schon seit einem Jahr nicht mehr an dem eigenen OpenGL-Treiber gearbeitet hat.



Ganz toll.

Meine Games basieren überwiegend auf OpenGL (Medal of Honar Reihe/Call of Duty/HL Day of Defeat) und nur eine Handvoll auf DirectX (FarCry /NfS Underground).

ATI soll zusehen.

Mfg Schrotti

Gast
2004-07-28, 19:26:56
* Flame *

Gast
2004-07-28, 20:12:22
Original geschrieben von radioactiveman24 edit2: was ist mit dem 4.8 beta?Wisst ihr, ob da schon was neues drin is?

Nein. (laut Catalyst Maker)

zeckensack
2004-07-28, 20:30:17
Es liegt nicht am Treiber. Es liegt an der Hardware.
Die vielbeschworene allgemeine OpenGL-Schwäche bei ATI ist ein moderner Mythos. Sie existiert nicht. Bitte lesen (http://www.beyond3d.com/forum/viewtopic.php?t=14354).

BlackArchon
2004-07-28, 23:58:38
Bei deinem Link kommt das:

phpBB : Critical Error

Could not connect to the database

huha
2004-07-29, 00:24:54
zeckensack: Ist es technisch überhaupt möglich, einen Chip so zu designen, daß er unter OpenGL respektive Direct3d Schwächen zeigt? Wenn ja, wie?

-huha

kmf
2004-07-29, 01:04:58
Original geschrieben von zeckensack
Es liegt nicht am Treiber. Es liegt an der Hardware.
Die vielbeschworene allgemeine OpenGL-Schwäche bei ATI ist ein moderner Mythos. Sie existiert nicht. Bitte lesen (http://www.beyond3d.com/forum/viewtopic.php?t=14354).

Schade, daß es der Link nicht tut. Hätte mich zu gern informiert, da ich noch eine 64MB ATI 7500 im 2t-Rechner habe, mit der ich bis auf den OGL-Kram eigentlich super zufrieden bin.
Wenn du Lust hast, kannst du es uns bitte mit ein paar Worten erklären.

zeckensack
2004-07-29, 01:10:30
Original geschrieben von huha
zeckensack: Ist es technisch überhaupt möglich, einen Chip so zu designen, daß er unter OpenGL respektive Direct3d Schwächen zeigt? Wenn ja, wie?

-huha IMO nein. Beide APIs bilden die gleichen grundsätzlichen Abläufe ab. "Vertex processing" (T&L oder vertex shader) füttert "primitive assembly", und daraus erhält man die einzelnen Pixel ("fragments" in OpenGL-Linguistik), aus denen sich ein Polygon zusammensetzt. Diese durchlaufen ein "pixel processing", wodurch aus den hereinkommenden Parametern in Kombination mit Texturen und Konstanten eine Farbe errechnet wird. Dieses grundlegende Modell ist bei beiden APIs gleich, also ist es auch für die Hardware weitgehend egal, wie das programmiert wird.

Es gibt natürlich Unterschiede im (nutzbaren) Featureset, was sich aus den unterschiedlichen Mechansismen (Extensions vs Caps) zur Erkennung und Nutzung derselben ergibt.

Es ist IMO aber quasi unmöglich einen Chip zu bauen, der nur für eine der beiden APIs zu gebrauchen ist. Wenn man für einen Chip einen OpenGL-Treiber schreiben kann, dann kann man auch einen D3D-Treiber schreiben (und umgekehrt). Man baut schliesslich keine Chips für D3D oder OpenGL. Man baut Chips mit bestimmten Fähigkeiten. Die APIs machen diese Fähigkeiten nur für Applikationen verfügbar.

zeckensack
2004-07-29, 01:20:13
Original geschrieben von kmf
Schade, daß es der Link nicht tut. Hätte mich zu gern informiert, da ich noch eine 64MB ATI 7500 im 2t-Rechner habe, mit der ich bis auf den OGL-Kram eigentlich super zufrieden bin.
Wenn du Lust hast, kannst du es uns bitte mit ein paar Worten erklären. Der Link behandelt eine Newsmeldung von DriverHeaven, in der ein Zusammenhang mit der Performance in Doom 3 und ATI's OpenGL-Treibern gezogen wird. Die Performancewerte, auf die sich das ganze stützt, stammen von hardocp.com, und dürften mittlerweile bekannt sein. DH behauptet nun, das sei ein Beweis für ATI's angeblich schlechte OpenGL-Treiber, weil die Geforce 6800-Reihe hier deutlich besser abschneidet.

Diese Argumentation ist allerdings Käse, denn die X800-Reihe zeigt sich in Doom 3 eindeutig füllratenlimitiert. Angenommen, ich optimiere den OpenGL-Treiber dahingehend, dass er meinetwegen 50% weniger CPU-Last verballert. Es sollte offensichtlich sein, dass dadurch die Performance in CPU-limitierten Szenarien stark ansteigt.

Es steigt aber nicht die Füllrate des Chips. Füllrate ergibt sich ausschliesslich aus aus architektonischen Merkmalen und dem Takt. Es ist höchstens indirekt möglich die Füllrate zu erhöhen, indem der Treiber Filtereinstellungen runterschraubt, sodass der Chip im Mittel weniger von seiner ihm inhärent gegebenen Füllrate verbraucht (was ein kleiner, aber feiner Unterschied ist). Nach der reinen Lehre ist es schlicht unmöglich, per Treiber Einfluss auf die Füllrate zu nehmen.

Und selbst wenn ich mir wünschen würde, dass ATI im speziellen Doom 3 mit neuen Treibern beschleunigt, dann würde ich nicht wollen, dass dies durch noch weiter reduzierte Filterqualität gemacht wird.

Da ich hier klar erkennen kann, wie sich der Performanceunterschied zwischen den beiden getesteten X800-Derivaten im Rahmen ihres Füllratenunterschieds bewegt, kann ich die durch den GL-Treiber verblasene CPU-Leistung als "zu gering um messbar zu sein" einstufen. Warum sollte eine weitere Reduzierung der Last hier noch Vorteile bringen?

Zauberer
2004-07-29, 01:34:23
ATI gibt sogar offiziell an OGL2.0 zu unterstützen.
Vielleicht wird ATI mit dem OGL2.0 Pfad in DOOM³ schneller?

Unterstützung des Standards DirectX® 9.0
Rüsten Sie sich für aktuelle und künftige Spielegenerationen, insbesondere für High-Definition-Anwendungen! Bereits seit mehreren Jahren setzen alle ATI Hochleistungs-Produkte auf den Microsoft® DirectX® Standard. Selbstverständlich unterstützt die RADEON™ X800 die aktuellen DirectX® 9.0- und OpenGL® 2.0-Shader Versionen.

http://www.ati.com/de/products/radeonx800/index.html
http://www.ati.com/products/radeonx800/index.html

iam.cool
2004-07-29, 01:37:47
Diese Argumentation ist allerdings Käse, denn die X800-Reihe zeigt sich in Doom 3 eindeutig füllratenlimitiert. Angenommen, ich optimiere den OpenGL-Treiber dahingehend, dass er meinetwegen 50% weniger CPU-Last verballert. Es sollte offensichtlich sein, dass dadurch die Performance in CPU-limitierten Szenarien stark ansteigt.


Aber die R420er haben den gleichen Speicher mit den gleichen zugriffszeiten und ein 256BIT Interface genau wie die 6800er Karten, wie können dann die 420er füllratenlimitiert sein und
die 6800er nicht? Auch sieht man unter DX keine limitierung bei den ATI Karten, warum dann bei OpenGL?

Ich möchte eigendlich nur verstehn, und im Moment fehlen mir noch ein paar Elemente damit das ganze ein Bild ergibt.




MFG

zeckensack
2004-07-29, 03:11:41
Original geschrieben von iam.cool
Aber die R420er haben den gleichen Speicher mit den gleichen zugriffszeiten und ein 256BIT Interface genau wie die 6800er Karten, wie können dann die 420er füllratenlimitiert sein und
die 6800er nicht?Das ist eine ganz andere Architektur.
Es sollte hinlänglich bekannt sein, dass NVIDIA mit dem Begriff "UltraShadow" einige Optimierungen der eigenen Chips bewirbt, und die bringen eben einen sehr grossen Vorteil bei Stencil- und Z-Füllrate etc. Das sind sehr gute Voraussetzungen für hohe Leistung in Doom 3.
Auch sieht man unter DX keine limitierung bei den ATI Karten, warum dann bei OpenGL?Warum glaubst du, dass das was mit OpenGL zu tun hat? Warum schlägt eine X800 Pro in 1600x1200 eine Geforce 3 in Quake 3? Ganz einfach weil der Chip das Spiel schneller rendern kann, und nicht wegen der API.
In 640x480x16 Bit mag es umgekehrt sein (die Zahlen weiss ich jetzt nicht, in Quake 2 ist's aber zB so, dass in extrem niedrigen Auflösungen beliebige NVIDIA-Karten beliebige ATI-Karten um ca 10% schlagen). Das liegt dann an effizienteren Treibern, einfach weil die Chipleistung in so geringen Auflösungen keine Rolle mehr spielt, und die durch den Treiber verursachte CPU-Last dann in den Vordergrund tritt. Das nennt man dann CPU-Limitierung. Der Begriff sollte bekannt sein :)

In Doom 3 gibt's aber keine Anzeichen dafür.

smockdogx
2004-07-29, 03:17:55
die nvidia treiber sind ja auch doom 3 optimiert ati hatte dazu noch keine chance und doom wurde auf nvidia karten programmiert
wenn ati zeit hat treiber an zu passen ist bestimmd kaum noch unterschied zwichen denn karten er ist ja jetzt schon gering

mich würds freuen wenn ati die nvidia karten noch in doom
basht das wer geil nach dem sich nvidia so aus denn fehnster hengt

zeckensack
2004-07-29, 03:40:12
Original geschrieben von smockdogx
die nvidia treiber sind ja auch doom 3 optimiert ati hatte dazu noch keine chance und doom wurde auf nvidia karten programmiertBla. Genau das sind die Momente, wo ich mich frage warum ich mir überhaupt noch die Mühe mache irgendwas zu erklären.

Glaub' doch was du willst. Aber tu nicht so als wären das Tatsachen, belegen kannst du nämlich nichts davon. Und wenn es tausendmal irgendwo im Netz steht, wird es dadurch auch nicht logischer.

smockdogx
2004-07-29, 03:52:24
edit *gelöscht*

habs mir nochmal alles durchgelsen
drotzdem sag ich erstmal auf benchmarks warten die von anderen quellen kommen und auf neue treiber warten

und was soll ich beweisen nvidia arbeiteet eng mit it zusammen ist doch wohl klar wer was anderes glaubt ist ein fanboy oder in ist einfach nicht mehr zu helfen
ati wird wohl auch treiber besser an hl2 angepasst haben

MadManniMan
2004-07-29, 04:54:35
Sagen wir es so: nVs Vorteil in Doom3 ist keine OpenGl-Schwäche von ATi, sonder eine Doom3-Schwäche ... nein halt, besser nV-Stärke.

That's it!

zeckensack
2004-07-29, 06:47:10
Original geschrieben von smockdogx
edit *gelöscht*

habs mir nochmal alles durchgelsen
drotzdem sag ich erstmal auf benchmarks warten die von anderen quellen kommen und auf neue treiber warten

und was soll ich beweisen nvidia arbeiteet eng mit it zusammen ist doch wohl klar wer was anderes glaubt ist ein fanboy oder in ist einfach nicht mehr zu helfenDas hat mit Fanboy oder nicht wenig zu tun. Ich halte das für logisch nachvollziehbar. Vielleicht solltest du dich einfach mal fragen, warum du erwartest, dass ATI's Doom 3-Leistung durch neue Treiber noch steigen soll.

Warum?

Ernsthafte Frage, inklusive theoretischer Antwort, der du auch gerne widersprechen darfst:
Weil in vielen anderen Benchmarks die X800-Serie schneller ist als die 6800-Serie. Und nun erwartest du, dass das auch in Doom 3 so sein müsste, ist es aber nicht. Und dafür brauchst du eine Erklärung (und nicht nur du, sondern auch die vielen anderen Leute die sowas in der Art wie die hier oben zu lesenden "News" im Netz verbreiten).

Was wäre wenn Doom 3 einfach ein anderes Anforderungsprofil an die Hardware stellt als "die anderen" in der Mehrzahl von der X800-Serie gewonnenen Benchmarks? Reicht das nicht als Erklärung?

Natürlich ist diese Position quasi "hoffnungslos", weil sie zukünftige Verbesserungen ausschliesst. Das ist wahrscheinlich auch der Grund warum das keiner hören will ...
ati wird wohl auch treiber besser an hl2 angepasst haben Und auch das sehe ich anders. ATI hat einfach nur eine viel performantere Shaderarchitektur als NVIDIA. Bezogen auf R3xx vs NV3x jedenfalls, bei der aktuellen Generation ist's ja nicht mehr ganz so dramatisch.

Original geschrieben von MadManniMan
Sagen wir es so: nVs Vorteil in Doom3 ist keine OpenGl-Schwäche von ATi, sonder eine Doom3-Schwäche ... nein halt, besser nV-Stärke.

That's it! Genau das wollte ich damit sagen. Danke ;(

Mumins
2004-07-29, 07:02:55
Ich weiss sowieso nicht wo das Problem ist. Mit einer X800XT PE lässt sich das Spiel in höchster Auflösung mit 4AA+8AF flüssig spielen. Mit einer X800Pro muss man eben eine Auflösung runtergehen. Das erachte ich nicht als Beinbruch. Dieser sture Bilck auf die Balkenlänge ist völlig kurzsichtig. Ich denke nicht, dass die Treiber von Nvidia für Doom 3 optimiert sind, sondern der NV40 ist für das Spiel einfach optimal.

Dr.Dirt
2004-07-29, 07:23:32
Original geschrieben von Mummins Dieser sture Bilck auf die Balkenlänge ist völlig kurzsichtig.


Stimmt. Betrachtet man zusätzlich noch die Preise für die Karten, wird der Unterschied noch eklatanter.

aRKeycH
2004-07-29, 07:53:22
Sagen wir es so: nVs Vorteil in Doom3 ist keine OpenGl-Schwäche von ATi, sonder eine Doom3-Schwäche ... nein halt, besser nV-Stärke.


lol ?

Naja weder ne spezielle, stärke des noch eine spezielle schwäche des anderen, wohl eher vernachlässigt, des anderen, und das geben Sie ja auch selbst zu...


Ich mein jetzt ma zum Beispiel, die Workstation Karten bieten ein gutes Preis/leistungs verhältniss, zu NV WS Karten, aber auch da kostet das Flaggschiff, knapp 600-700 Euro(ok immer noch verdammt wenig im vergleich zu den vergleichenden NV pendanten).

Aber gerade da könnte Sie in sachen OGL ein wenig mehr machen, oder allgemein, für die FireGL's sieht man mit glück 2-3 Treiber im Jahr wenns hochkommt,wobei ich den aktuellsten schon wieder kicken musste, weill mein LW damit derbe probs hatte(schmierte unvorgesehen ab, also ganze Kiste *g*).

Und die Normale X2 gibts nicht mal mehr zu kaufen(wie lange gabs die 1 jahr knapp, lol? ) :D

Aber bei games hatt ich mit dieser Karte wirklich keine probleme, und vom Speed her(also in Games), ist Sie ein wenig schneller als ne 9700pro(wohlgemerkt, mit GL treibern), komische sache dass ^^

MadManniMan
2004-07-29, 08:25:51
zecki wird müßig sein, das zu schreiben, aber ich machs gerne nochmal...

Ja, die ATi-Treiber erzeugen ne höhere CPU-Last ... aber bei CPU limitierten Szenen ist sowieso jedwessen Leistung mehr als ausreichend.

Aber hier geht es um die Aussage, ATis OpenGL-Treiber wären generell schwächer in Spielen. Und das ist ganz einfach nicht so!

Nimm mal als Parallele FarCry ... ok der Vergleich ist ein wenig weit hergeholt, zeigt aber, was ich mein ...
Ein NV3X ist dort langsamer, als ein sonst vergleichbarer R3XX - und das nicht, weil nVs D3D-Treiber schlechter wären, als ATis, nein schlicht und ergreifend deshalb, weil die ATis besser mit den Anforderungen eines FarCry klarkommen, die Hardware eher für das Spiel geeignet ist. Umgekehrt verhält es sich mit Doom3 ... ist das sooo schwer zu verstehen :ratlos:

LovesuckZ
2004-07-29, 09:08:42
Das Beispiel mit Farcry zeigt nur, dass die Leistungsprobleme, welche Nvidia unter D3D hat, auf einzelne Spiele beschraenkt sind.
ATi Karten dagegen, vorallen die jetzigen R420 im Vergleich mit den NV40 Karten, verlieren in fast jedem OpenGL Game fast schon sehr deutlich.
Das erweckt schon den Eindruck, dass es sich hier um eine Treiberschwaeche handeln koennte.
Leider liegt es wohl an der Hardware :(

][immy
2004-07-29, 09:18:46
Original geschrieben von LovesuckZ
Das Beispiel mit Farcry zeigt nur, dass die Leistungsprobleme, welche Nvidia unter D3D hat, auf einzelne Spiele beschraenkt sind.
ATi Karten dagegen, vorallen die jetzigen R420 im Vergleich mit den NV40 Karten, verlieren in fast jedem OpenGL Game fast schon sehr deutlich.
Das erweckt schon den Eindruck, dass es sich hier um eine Treiberschwaeche handeln koennte.
Leider liegt es wohl an der Hardware :(

wie viele opengl spiele kennst du eigendlich derzeit, die nicht auf der Quake 3 engine basieren?

also mir fallen da nicht so viele ein
Doom 3 is da jetzt halt neu

LovesuckZ
2004-07-29, 09:25:03
Original geschrieben von ][immy
wie viele opengl spiele kennst du eigendlich derzeit, die nicht auf der Quake 3 engine basieren?


City of Heros
KotoR.
Auch Spiele, welche die Engine modifizierten, muss man dazurechnen (CoD, Jedi Knight:JA etc).
Alles Spiele, welches letztes Jahr bzw. dieses Jahr sich sehr gut verkauft haben und in jedem ist Nvidia schneller.

Super Grobi
2004-07-29, 09:31:23
Guten morgen,
ach soll doch Doom3 auf NV40 schneller laufe, ist mir Latte, wenn dann HL² auf R420 die Nase vorne hat. So hat jeder der beiden Hersteller was zum protzen. Und wirklich ruckelig wird Domm auf keinen Fall auf modernen Radeon Karten laufen (9700+). Was mich viel mehr stört ist dieses rumgeprotze von NV40 Usern die meinen sie hätten die weltbeste Karte, weil sie da 250fps haben und die R420 "nur" 200fps (ist nen beispiel).

Also ruhig Blut und Ball flach halten. Wenn Ati lange nicht mehr an den GL Treibern gearbeitet hat, hat das ja auch was gutes. Den dann wurden alle verfügbaren Kräfte in die D3D Treiber investiert.

Gruss
SG

][immy
2004-07-29, 09:40:34
Original geschrieben von LovesuckZ
City of Heros
KotoR.
Auch Spiele, welche die Engine modifizierten, muss man dazurechnen (CoD, Jedi Knight:JA etc).
Alles Spiele, welches letztes Jahr bzw. dieses Jahr sich sehr gut verkauft haben und in jedem ist Nvidia schneller.
KotoR basiert meines wissens auf der Quake 3 engine
auch wenn diese stark modifiziert wurde, ist es immernoch die Q3 engine
übrigends, scheint KotoR generell etwas gegen ATi karten zu haben. das die ganzen abstürze an den ati-treibern liegen glaube ich kaum. da wird wohl eher bioware misst gebaut haben und fixen es nicht.

wegen modifizierten engines Q3-eninge bleibt in ihrem grundgerüst die Q3-engine. im übrigen hab ich schon lange mit meiner ATi karte in jedem Q3 eninge spiel nach längererzeit mit komplettabstürzen zu tun. wenn ich z.B. 2-3 stunden Enemy territory spiele hängt sich der komplette pc auf. dieses problem hatte ich aber auch schon mit der radeon 8500 und immernoch mit der 9500 pro. also würd ich mal eher auf eine generelle ati schwäche bei der q3 engine tippen. denn mit andern opengl spiele die nicht auf der q3 engine basieren hatte ich nie probleme
.. obwohl mir immoment keines einfällt das nicht auf der q3 engine basiert

auf opengl-schwäche würd ich gar nicht mal tippen
in Q2-benchmarks kann man zwischen ati und nvidia kaum einen unterschied ausmachen. würd mal eher sagen es ist eine generelle Q3-engine schwäche. naja.. mit doom isses natürlich mal wieder was anderes da hier nvidia noch andere vorteile hat

aRKeycH
2004-07-29, 09:57:40
wegen modifizierten engines Q3-eninge bleibt in ihrem grundgerüst die Q3-engine. im übrigen hab ich schon lange mit meiner ATi karte in jedem Q3 eninge spiel nach längererzeit mit komplettabstürzen zu tun. wenn ich z.B. 2-3 stunden Enemy territory spiele hängt sich der komplette pc auf. dieses problem hatte ich aber auch schon mit der radeon 8500 und immernoch mit der 9500 pro. also würd ich mal eher auf eine generelle ati schwäche bei der q3 engine tippen. denn mit andern opengl spiele die nicht auf der q3 engine basieren hatte ich nie probleme
.. obwohl mir immoment keines einfällt das nicht auf der q3 engine basiert


Hmm ich würd es nicht als generelles Ati Problem betrachten, ich hatte bisher, ne Ati Rage Fury Maxx,ne Radeon 9700pro, und jetzt(für DCC) ne Fire GL X 2 256(basis R350), und hatte bis jetzt noch bei keinem Spiel das auf einer Quake(1,2,3) engine basiert probleme.

Einzig CoD hatte ich probleme, aber das lag an meiner Soundkarte. *g*


Gibt solche Fälle, und solche, aber wie immer keine Regel. ;)

cl55amg
2004-07-29, 10:02:49
wie HL 2 auf dem nv 40 laufen wird, wird sich ja noch zeigen...spekulieren bringt da wenig.

x800xt und die 6800GT sind hervorragende karten.
die eine hat einen "lautstärke vorteil und ist relativ klein.
die andere lässt sich höher übertakten und läuft gut in verbindung mit ID software Engines.

in direkt 3d laufen beide sehr gut, mal gewinnt der eine, mal der andere...
als wo ist das problem?

@zeckensack
cool das du dir so viel mühe gibst!

joe kongo
2004-07-29, 10:08:07
Man sieht sowas auch bei FarCry: Obwohl sich Crytek mit den Patches 1.1 und 1.2 die Mühe gemacht hatte NV Karten zu beschleunigen, konnten sie nicht viel ausrichten.
Kann sein das bei Doom3 eine ähnliche Situation für Ati
besteht.
Aber die CPU-Last durch die Treiber bei einem KI- und Physik-aufwendigen Spiel zu senken könnte im echten Spiel (und nicht in irgend einem Timedemo) spürbare Verbesserungen erzielen, möglicherweise wird der Unterschied sogar egalisiert.

Grestorn
2004-07-29, 10:12:13
Original geschrieben von ][immy
KotoR basiert meines wissens auf der Quake 3 engine
auch wenn diese stark modifiziert wurde, ist es immernoch die Q3 engine
übrigends, scheint KotoR generell etwas gegen ATi karten zu haben. das die ganzen abstürze an den ati-treibern liegen glaube ich kaum. da wird wohl eher bioware misst gebaut haben und fixen es nicht.
Nein, KotoR basiert auf der NWN Engine, welche *nicht* auf Quake3 basiert (was man auch mehr als deutlich sieht).

Und, nein, Bioware ist nicht Schuld an der Instabilität von KotoR auf ATI Karten. Für harte Crashes der Grafikkarte ist IMMER der Treiber verantwortlich, niemals die Applikation.

cl55amg
2004-07-29, 10:26:55
Original geschrieben von joe kongo
Man sieht sowas auch bei FarCry: Obwohl sich Crytek mit den Patches 1.1 und 1.2 die Mühe gemacht hatte NV Karten zu beschleunigen, konnten sie nicht viel ausrichten.
Kann sein das bei Doom3 eine ähnliche Situation für Ati
besteht.
Aber die CPU-Last durch die Treiber bei einem KI- und Physik-aufwendigen Spiel zu senken könnte im echten Spiel (und nicht in irgend einem Timedemo) spürbare Verbesserungen erzielen, möglicherweise wird der Unterschied sogar egalisiert.

farcry läuft in verbindung mit dx9c, 61.76 und 61.77 treiber mit aktiviertem (pseudo 3.0 pfad;-)) auf dem nv 40 am schnellsten...
oder irre ich mich?so war es in jedem review das ich sah...

wenn nicht dann postet mal links...

Nazar
2004-07-29, 10:31:19
Original geschrieben von zeckensack
Das hat mit Fanboy oder nicht wenig zu tun. Ich halte das für logisch nachvollziehbar. Vielleicht solltest du dich einfach mal fragen, warum du erwartest, dass ATI's Doom 3-Leistung durch neue Treiber noch steigen soll.

Warum?

Ernsthafte Frage, inklusive theoretischer Antwort, der du auch gerne widersprechen darfst:
Weil in vielen anderen Benchmarks die X800-Serie schneller ist als die 6800-Serie. Und nun erwartest du, dass das auch in Doom 3 so sein müsste, ist es aber nicht. Und dafür brauchst du eine Erklärung (und nicht nur du, sondern auch die vielen anderen Leute die sowas in der Art wie die hier oben zu lesenden "News" im Netz verbreiten).

Was wäre wenn Doom 3 einfach ein anderes Anforderungsprofil an die Hardware stellt als "die anderen" in der Mehrzahl von der X800-Serie gewonnenen Benchmarks? Reicht das nicht als Erklärung?

Natürlich ist diese Position quasi "hoffnungslos", weil sie zukünftige Verbesserungen ausschliesst. Das ist wahrscheinlich auch der Grund warum das keiner hören will ...
Und auch das sehe ich anders. ATI hat einfach nur eine viel performantere Shaderarchitektur als NVIDIA. Bezogen auf R3xx vs NV3x jedenfalls, bei der aktuellen Generation ist's ja nicht mehr ganz so dramatisch.

Genau das wollte ich damit sagen. Danke ;(

Versteh mich bitte nicht falsch... aber das du im vorhinein sagst das es durch einen angepassten treiber keine wesentlichen verbesserungen für ati in doom3 geben kann, ist totaler blödsinn....
Du tust das was du anderen vorwirfst... ohne jegliche kenntnis behauptungen aufstellen..

Natürlich sollte man keine wunder erwarten... ultrashadow ist nunmal eine tolle sache und bringt enorm viel (sieht man ja in den benches)... aber das du nun einfach mal so behauptest, die bandbreitenlimitierung (wo auch immer die standfinden soll) verhindere eine bessere performance der ati-karten geht ein wenig zu weit.

Aber vielleicht hast du einblicke in die treiberentwicklung im zusammenhang mit der harware von ati, die mir bisher verborgen blieb?!

StefanV
2004-07-29, 10:35:32
Original geschrieben von Nazar
Versteh mich bitte nicht falsch... aber das du im vorhinein sagst das es durch einen angepassten treiber keine wesentlichen verbesserungen für ati in doom3 geben kann, ist totaler blödsinn....

Nein, ists nicht.

Blödsinn ist zu erwarten, daß ein neuer Treiber noch viel reißen kann (ohne an der Bildqualität zu rütteln).

Und ja, ich denke schon, daß Zecke weiß, was er sagt, zumindest hält er sich an den Spruch, den ich mir mal von ihm geborgt hab und momentan in meiner Signatur verewigt ist...

StefanV
2004-07-29, 10:38:19
Original geschrieben von grestorn
Für harte Crashes der Grafikkarte ist IMMER der Treiber verantwortlich, niemals die Applikation.

Nein, nicht unbedingt.

Man kann auch etwas so schreiben, daß es nicht wirklich mit einem gewissen Treiber harmoniert.

Oder andersrum:

Man kann durch irgendwelche Blödheten das Spiel so hinbiegen, daß einige eigenheiten des Treibers es schaffen die Anwendung abzuschießen...

In dem Fall liegt das dann an schlampiger Programmierung der Anwendung.

Und seien wir mal ehrlich, was ist wahrscheinlicher:

Das die Progger des Spieles Mist gebaut haben oder der Hersteller der Karte?

'Dank' des Druckes seitens der Publisher und sonstigem shit, würd ich eher auf die Game Progger tippen...

Nazar
2004-07-29, 10:38:48
Original geschrieben von grestorn
Nein, KotoR basiert auf der NWN Engine, welche *nicht* auf Quake3 basiert (was man auch mehr als deutlich sieht).

Und, nein, Bioware ist nicht Schuld an der Instabilität von KotoR auf ATI Karten. Für harte Crashes der Grafikkarte ist IMMER der Treiber verantwortlich, niemals die Applikation.

Ähm.. das ist jetzt nicht dein ernst?
Bitte, bitte sag das das nicht dein ernst ist... wenn das unsere progger lesen, dann bekomme ich es nie wieder hin, dasss sie die aplikation fixen, wenn das system aufgrund des proggerfehlers einfriert. :O

StefanV
2004-07-29, 10:39:12
Original geschrieben von cl55amg
farcry läuft in verbindung mit dx9c, 61.76 und 61.77 treiber mit aktiviertem (pseudo 3.0 pfad;-)) auf dem nv 40 am schnellsten...
oder irre ich mich?so war es in jedem review das ich sah...

Ja, da irrst du dich, zumal die x800 mit dem PS2B Profil deutlich aufgeholt hat und wieder meistens schneller ist als die NV40.

Nazar
2004-07-29, 10:47:56
Original geschrieben von Stefan Payne
Nein, ists nicht.

Blödsinn ist zu erwarten, daß ein neuer Treiber noch viel reißen kann (ohne an der Bildqualität zu rütteln).

Und ja, ich denke schon, daß Zecke weiß, was er sagt, zumindest hält er sich an den Spruch, den ich mir mal von ihm geborgt hab und momentan in meiner Signatur verewigt ist...

Dann sagt mir mit welcher gewissheit ihr das so sagen könnt?
Eine quellenangabe wäre sehr nett.
Ich lass mich gern eines besseren belehren.
Was ich allerdings auch nicht mache... das jemand ohne bewqeise hier behauptungen in den raum stellt, gleichzeitig aber anderer leute meinung, die ohne beweise daherkommen, einfach so als unwahr abschmettert!

Mumins
2004-07-29, 10:50:32
Die Doom3 Benchmarks wurden doch schon mit nem Cat. 4.9beta durchgeführt. Grossartige Sprünge durch nen neuen Treiber gabs noch nie und wird es auch nicht geben, zumindest nicht solange man nicht an der Bildquali dreht.

Nazar
2004-07-29, 11:00:42
Original geschrieben von Mummins
Die Doom3 Benchmarks wurden doch schon mit nem Cat. 4.9beta durchgeführt. Grossartige Sprünge durch nen neuen Treiber gabs noch nie und wird es auch nicht geben, zumindest nicht solange man nicht an der Bildquali dreht.

Ich glaube hier sollte mal ein definition für "großartige sprünge", "schneller" und "mehr leistung" gemacht werden.

Zur zeit scheinen mir hier ein paar korinthenkacker unterwegs zu sein.

So langsam sollte es klar sein, dass selbst ein steigerung von 2 FPS eine leistungsteigerung sind.... klar isr es nicht gewaltig... zumindest in doom3... aber es wäre eine leistungssteigerung... oder sehe ich das falsch?

Und um diese sache geht es mir... mit welchem wissen sprecht ihr im vorhinein davon, das dieses nicht möglich ist... oder anders ausgedrückt... wieso wären diese 2 FPS eurer meinung nach keine leistungsteigerung.

Ich persönlich behaupte nicht, dass hier berge versetzt werden müssen oder können.... was mich negativ anspricht ist eurer "angebliches" wissen, was bei den treibern noch geht und ab welchem FPS-gewinn, dieser als leistungssteigerung zu werten ist.

Das was ihr den anderen absprecht, nämlich die kenntniss der genauen umstände und zusammenhänge bei ati mit den treibern und der hardware, das solltet ihr euch selber mal zu herzen nehmen!

Hellknight[FA]
2004-07-29, 11:27:40
no spam, please

DrFreaK666
2004-07-29, 11:50:42
Also ich kann mir auch nicht vorstellen, dass keine Leistungssteigerung mehr möglich ist.
Ich denke nicht, dass ATI von Treiber zu Treiber Schritt für Schritt die IQ gesenkt hat um eine höhere Performance zu erreichen.
Allerdings muss ich auch zugeben, dass ich von Bandbreite und co. wenig Ahung haben. Deshalb also imho

cl55amg
2004-07-29, 12:11:03
Original geschrieben von Stefan Payne
Ja, da irrst du dich, zumal die x800 mit dem PS2B Profil deutlich aufgeholt hat und wieder meistens schneller ist als die NV40.

bei aktiviertem 2.0b path:

in 1024x768 4AA 8AF ist der r420 schneller.

bei 1280x1024 4AA 8AF(und die höheren auflösungen ist der NV 40 schneller.

damit ist der NV 40 overall schneller in farcry...

http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/

Gast
2004-07-29, 12:43:32
Original geschrieben von cl55amg
bei aktiviertem 2.0b path:

in 1024x768 4AA 8AF ist der r420 schneller.

bei 1280x1024 4AA 8AF(und die höheren auflösungen ist der NV 40 schneller.

damit ist der NV 40 overall schneller in farcry...

http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/

Es geht hier um ATI's OGL Driver und nicht um dein NV40 Far Cry Posting. Diskutiere das bitte in den entsprechenden Threads.

Als Besitzer einer X800pro war ich zunächst auch nicht gerade begeistert über deren Abschneiden in Doom 3. Andererseits ist das ein Spiel. Nicht mehr, nicht weniger.
Klar, nun werden wieder Postings kommen à la, die D3 Engine wird in x verschiedenen Games eingesetzt werden und dann stinkst Du mit deiner luschen X800pro ab. Aber das wäre dann ja bestenfalls mein Problem.

Ob die D3 Engine den Verbreitungsgrad der Q3 Engine erreichen wird, bezweifle ich. Weil die Engine, einmal mehr, doch sehr auf Innenräume fixiert ist. Der Trend geht jedoch klar dahin, dass die Spiele mehr Freiheiten bieten. Und zu Freiheit gehört für mich auch räumliche Freiheit, die sich mit der D3 Engine vermutlich nicht oder nur beschränkt realisieren lässt.

OGL scheint auch immer weniger Verwendung zu finden, so dass ich hier für ATI's Verhalten durchaus Verständnis habe.
Aber mittlerweise ist die Industrie derart verkorkst, dass die Hardware an Spiele angepasst wird -statt umgekehrt.
Der Tag ist nicht mehr weit, wo es nicht mehr heissen wird "lege CD 2 ein", sondern installiere die passende Grafikkarte.

Spätestens dann werde ich wieder den guten alten Amiga 500 zum Zocken nutzen. :)

Grestorn
2004-07-29, 12:48:53
Original geschrieben von Stefan Payne
Man kann durch irgendwelche Blödheten das Spiel so hinbiegen, daß einige eigenheiten des Treibers es schaffen die Anwendung abzuschießen...

Die Anwendung abschießen... ja sicher.

Aber bei KotoR crasht die Grafikkarte. Vollständig. Man bekommt nur noch Zufallsmuster in schnellem Wechsel zu sehen und irgendwann ist ganz Schluß. Der Rest des Rechners läuft weiter.

DAS darf niemals passieren. Wenn ich eine API falsch bediene kann es sein, dass mir meine Anwendung um die Ohren fliegt. Also einen Crash to Desktop meinetwegen. Aber der GraKa-Treiber darf sich einfach nicht verabschieden, sonst hat er einen Fehler, Punkt.

Die einzige Situation in der ein Treiber abstürzen "darf", ist wenn die Hardware nicht mehr korrekt läuft (wegen Defekt oder OC).

Grestorn
2004-07-29, 12:50:05
Original geschrieben von Nazar
Ähm.. das ist jetzt nicht dein ernst?
Bitte, bitte sag das das nicht dein ernst ist... wenn das unsere progger lesen, dann bekomme ich es nie wieder hin, dasss sie die aplikation fixen, wenn das system aufgrund des proggerfehlers einfriert. :O
Du wirst es als normaler Anwendungs"progger" kaum schaffen, das System zu einfrieren zu bekommen! Es sei denn, Du legst es darauf an, und nützt irgendeine Lücke des Systems aus.

iam.cool
2004-07-29, 13:10:05
Original geschrieben von zeckensack
Das ist eine ganz andere Architektur.
Es sollte hinlänglich bekannt sein, dass NVIDIA mit dem Begriff "UltraShadow" einige Optimierungen der eigenen Chips bewirbt, und die bringen eben einen sehr grossen Vorteil bei Stencil- und Z-Füllrate etc. Das sind sehr gute Voraussetzungen für hohe Leistung in Doom 3.
Warum glaubst du, dass das was mit OpenGL zu tun hat? Warum schlägt eine X800 Pro in 1600x1200 eine Geforce 3 in Quake 3? Ganz einfach weil der Chip das Spiel schneller rendern kann, und nicht wegen der API.
In 640x480x16 Bit mag es umgekehrt sein (die Zahlen weiss ich jetzt nicht, in Quake 2 ist's aber zB so, dass in extrem niedrigen Auflösungen beliebige NVIDIA-Karten beliebige ATI-Karten um ca 10% schlagen). Das liegt dann an effizienteren Treibern, einfach weil die Chipleistung in so geringen Auflösungen keine Rolle mehr spielt, und die durch den Treiber verursachte CPU-Last dann in den Vordergrund tritt. Das nennt man dann CPU-Limitierung. Der Begriff sollte bekannt sein :)

In Doom 3 gibt's aber keine Anzeichen dafür.


Also erstmal fettes THX, ich denke ich welze mich mal durch Infos über die Architektur der neuen Karten, ist zwar ziemlich trockene Kost aber das solte meinem verständnis auf die sprünge helfen.:)


auf jedenfall gut erklärt!!!!

Exxtreme
2004-07-29, 13:11:02
Original geschrieben von zeckensack
Der Link behandelt eine Newsmeldung von DriverHeaven, in der ein Zusammenhang mit der Performance in Doom 3 und ATI's OpenGL-Treibern gezogen wird. Die Performancewerte, auf die sich das ganze stützt, stammen von hardocp.com, und dürften mittlerweile bekannt sein. DH behauptet nun, das sei ein Beweis für ATI's angeblich schlechte OpenGL-Treiber, weil die Geforce 6800-Reihe hier deutlich besser abschneidet.

Diese Argumentation ist allerdings Käse, denn die X800-Reihe zeigt sich in Doom 3 eindeutig füllratenlimitiert. Angenommen, ich optimiere den OpenGL-Treiber dahingehend, dass er meinetwegen 50% weniger CPU-Last verballert. Es sollte offensichtlich sein, dass dadurch die Performance in CPU-limitierten Szenarien stark ansteigt.

Es steigt aber nicht die Füllrate des Chips. Füllrate ergibt sich ausschliesslich aus aus architektonischen Merkmalen und dem Takt. Es ist höchstens indirekt möglich die Füllrate zu erhöhen, indem der Treiber Filtereinstellungen runterschraubt, sodass der Chip im Mittel weniger von seiner ihm inhärent gegebenen Füllrate verbraucht (was ein kleiner, aber feiner Unterschied ist). Nach der reinen Lehre ist es schlicht unmöglich, per Treiber Einfluss auf die Füllrate zu nehmen.

Und selbst wenn ich mir wünschen würde, dass ATI im speziellen Doom 3 mit neuen Treibern beschleunigt, dann würde ich nicht wollen, dass dies durch noch weiter reduzierte Filterqualität gemacht wird.

Da ich hier klar erkennen kann, wie sich der Performanceunterschied zwischen den beiden getesteten X800-Derivaten im Rahmen ihres Füllratenunterschieds bewegt, kann ich die durch den GL-Treiber verblasene CPU-Leistung als "zu gering um messbar zu sein" einstufen. Warum sollte eine weitere Reduzierung der Last hier noch Vorteile bringen?
Zecki, du unterstellst hier aber, daß der Treiber keine Handbremsen drinne hat wie z.B. eine ineffiziente Ansteuerung des Speichercontrollers etc. Wenn sowas nicht gelöst wurde dann wird der Treiber den Chip ausbremsen.


Ein anderes Thema, welches speziell für OpenGL zutrifft sind Extensions. Die Q3A-Engine nutzt IIRC viele NV-Extensions aber keine von ATi. Die NWN-Engine läuft mistig auf allem was nicht von NV ist etc.

Mr. Lolman
2004-07-29, 13:21:55
Original geschrieben von cl55amg
damit ist der NV 40 overall schneller in farcry...

http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/

Auch wenns OT ist. So kann man das einfach nicht stehen lassen. Zumindest mit AA/AF ist der R420 fast durchgehend schneller bis deutlich schneller lt xbitlabs und firingsquad. Bei den elitebastards kommt eine x800pro schon gefährlich nahe an eine 6800 Ultra.

cl55amg
2004-07-29, 13:22:37
mein post war nicht so weit vom thema entfernt...
ausserdem wollte ich nur zeigen das die annahme falsch ist, dass ati eine opengl schwäche und nvidia eine direkt 3d schwäche hat. dem ist nicht mehr so und deshalb sind die karten gleichwertig.


ich denke das man durch treiber optimierungen ein paar frames rausholen kann in diversen opengl apps. aber wunder kann man nicht erwarten...

cl55amg
2004-07-29, 14:19:07
leider hat es firingsquad mit einem etwas älterem treiber getestet...61.45


der 61.77 hat in farcry nochmal deutlich zugelegt, und ati wird vielleicht auch mal wieder zulegen mit neuem treiber...

man kann sich auf einen gleichstand einigen.

MadManniMan
2004-07-29, 14:51:31
Es wurde nicht ausgeschlossen, daß ATi nicht noch ein paar wenige Prozentpünktchen ohne Qualiverlust hinbekommt - auch nicht von zeckensack.

Aber darum ging es in diesem Thread auch nicht, sondern um das grundsätzliche Kräfteverhältnis der beiden Großen - nicht mehr und nicht weniger.

:wink:

][immy
2004-07-29, 14:59:53
Original geschrieben von grestorn
Du wirst es als normaler Anwendungs"progger" kaum schaffen, das System zu einfrieren zu bekommen! Es sei denn, Du legst es darauf an, und nützt irgendeine Lücke des Systems aus.

mhh.. du hast noch nicht mit pointern gearbeitet, oder?
damit geht es ansich recht leicht

KotoR hat ziemlich viel macken was ati karten betrifft
so kann es passieren, das nach dem laden auf einmal man nur noch braun sieht ansonsten noch figuren usw
ändert man dann die auflösung im menü, sieht alles wieder korrekt aus.. hört sich für mich nicht nach einem treiberfehler an

gesichter arme usw hatten bei mir nicht selten überlänge. so stand ein ohr ab, oder das ohr hatte eine laaaaaaaaannnge spitze so das der charakter gleich doppelt so groß durch seine ohren war
solche fehler waren nicht selten. das der grafiktreiber daran schuld sein soll, diesen vorwurf kann ich nicht verstehen. vor allem ist es das erste spiel, wo ich sowas jemals gesehen hab, das einfach die proportionen nicht stimmen. an der stelle ist es wirklich schlampige programmierung. wahrscheinlich irgendwo eine mathematische formel falsch gesetzt, wo ein zufallswert genutzt wird und nicht abgefangen wird ob dieser wert unter umständen zu groß ist oder dergleichen

vor allem das der während der ladezeiten abstürzt kann ich ganz und gar nicht verstehen. an dieser stelle sollte die grafikkarte eigendlich nicht viel zu tun haben, außer vielleicht texturen schonmal in den speicher zu laden, und das ati an der stelle einen fehler im treiber hat glaube ich kaum

ist doch echt seltsam das dieses spiel nur auf nvidia karten "fehlerfrei" funktioniert. da hat nvidia meiner meinung nach ein wennig zu viel den entwicklern unter die arme gegriffen, denn durch die patches die angeblich derartige fehler beheben sollen, hat sich auch nichts getan

Riipa
2004-07-29, 15:24:25
Das ist die große Weltverschwörung des Evil-OpenGL-Empires gegen ATI. Nicht mehr und nicht weniger. *grins & duck*

deekey777
2004-07-29, 16:11:24
Original geschrieben von MadManniMan
Sagen wir es so: nVs Vorteil in Doom3 ist keine OpenGl-Schwäche von ATi, sonder eine Doom3-Schwäche ... nein halt, besser nV-Stärke.

That's it!

Das wird dir - leider - aber keiner hier abkaufen... ;(

NWN ist kein gutes Beispiel, wenn um die Liebe zw. Bioware und ATi geht.
Und im Fall der auf Quake 3 basierten Spielen ist es auch nicht so, dass diese Spiele auf einer Radeon unspielbar sind.
Kritik:
Ich habe JK:JA auf drei verschiedenen Radeons gespielt: 9100, 9600XT und 9800 Pro. Von der Performance her ohne irgendwelche Probleme oder ähnliches - bis auf eins: Egal mit welcher der 3 Radeons, egal mit welchem Treiber hatte ich immer einen Bug in JK:JA, wenn ich die Macht Schub in einigen Missionen einsetzte, kam es zum heftigen Stottern.

StefanV
2004-07-29, 16:26:01
Original geschrieben von grestorn
Die Anwendung abschießen... ja sicher.

Aber bei KotoR crasht die Grafikkarte. Vollständig. Man bekommt nur noch Zufallsmuster in schnellem Wechsel zu sehen und irgendwann ist ganz Schluß. Der Rest des Rechners läuft weiter.

DAS darf niemals passieren. Wenn ich eine API falsch bediene kann es sein, dass mir meine Anwendung um die Ohren fliegt. Also einen Crash to Desktop meinetwegen. Aber der GraKa-Treiber darf sich einfach nicht verabschieden, sonst hat er einen Fehler, Punkt.

Die einzige Situation in der ein Treiber abstürzen "darf", ist wenn die Hardware nicht mehr korrekt läuft (wegen Defekt oder OC).

1. nagut, mann kanns dann halt eben so hinbiegen, daß die Anwendung sich selbst abschießt, wenn eine kleinigkeit nicht wie erwartet auftritt...

2. NEIN!
Denn wenn dem so wäre, dann müssten die Probleme bei anderen OGL Spielen/Programme ebenso auftreten, tun sie aber nicht.
Desweiteren: wenn die GraKa schon abschmiert, dann richtig, was du beschreibst klingt eher danach, daß Kotor nicht genug auf ATI Karten getestet wurde...
Wobei auch interessant wäre, wie Kotor auf der DC läuft...

3. der Grafiktreiber verabschiedet sich ja anscheinend auch nicht wirklich, denn das hat meist andere Konsequenzen.
Was du beschreibst klingt eher danach, als ob jemand bei Bioware 'nen ganz großen Bock geschossen hat...
Wäre ja auch nicht das erste mal, siehe NWN -> wie lang hats gedauert, bis man auf der R200 auch dieses PS Wasser sehen konnte?!
AFAIK hat BIOWARE das erst kurz vor Erscheinen der R300 bzw dem Umbenennens der 8500 zur 9100 geschafft...
Was nicht gerad dafür spricht, daß Bioware viel Rücksicht auf ATI HW nimmt...

4. Wie es ausschaut sind die Treiber von ATI eher weniger für die ganzen Fehler in Kotor verantwortlich, das hat eher Bioware verbockt...

5. richtig, nur hat ATi für diesen Fall eine 'innovative Funktion' eingebaut, schimpft sich VGA Recover oder so ähnlich und funzt meist auch ;)


Du siehst also, daß der ATi Treiber eher weniger für die Fehler verantwortlich ist als vielmehr Bioware...

mbee
2004-07-29, 16:54:30
Original geschrieben von Nazar
Zur zeit scheinen mir hier ein paar korinthenkacker unterwegs zu sein.
So langsam sollte es klar sein, dass selbst ein steigerung von 2 FPS eine leistungsteigerung sind.... klar isr es nicht gewaltig... zumindest in doom3... aber es wäre eine leistungssteigerung... oder sehe ich das falsch?


Ja, das siehst Du falsch!
Denn genau das wäre die von Dir angesprochene "Korinthenkackerei" und Du müßtest Dich dann auch als Korinthenkacker bezeichnen lassen: Unter einer (spürbaren) Leistungssteigerung versteht jeder normale Mensch i.d.R. mehr als ein/zwei FPS.
Ich finde es eh bemerkenswert, was Du hier für einen Ton gegenüber Leuten anschlägst, die ne ganze Ecke länger als Du registriert sind und mir persönlich auch um einiges kompetenter erscheinen.

kmf
2004-07-29, 17:22:15
* Leute, es reicht jetzt! An alle, die meinen, sich hier nicht benehmen zu müssen - Der Nächste der sich nochmal erlaubt zu flamen, wird einen Punkt kassieren. Punkt! *

MadManniMan
2004-07-29, 22:14:44
Ich habe eine Vermutung bezüglich KOTOR und dem mäßigen Abschneiden der ATis:

KOTOR war ja vorrangig ein X-Box Spiel und daher natürlich auch explizit auf nV-Extensions hinprogrammiert ... von daher ist es IMHO gar nicht so unlogisch, daß das Prog mies läuft. Die Schatten sollen ja auch auf nV-HW besser aussehen(hat sich das geändert?).

koke
2004-07-30, 05:55:05
Mal eine kurze Zwischenfrage. Die meisten hier werden sicher Counterstrike kennen. Warum haben hier _viele_ ATI besitzer probleme mit den fps? Ich hatte selber eine geforce2 und konstant 99FPS, mit der 9800pro hingegen stellenweise "nur" 60.

Ich meine, wie kann es möglich sein, dass eine wesentlich leistungsfähigere grafikkarte schlechter abschneidet?

Dieses alte spiel wird wohl kaum irgendwelche füllraten der 9800pro übersteigen, welche die gf2 hingegen ohne probleme geschafft hat oder?

Ich kann es mir nur so erklären, dass es an den OGL treibern der ATI liegen muss.

Oder kann es hier wirklich an der hardware liegen? (Im Steam forum gibt es einen thread mit ~1700 antworten, fast alle haben eine ATI karte)

P.S.: Ich habe meine ganze hoffnung in die neuen "super" Treiber gelegt, macht sie mir nicht kaputt :p

Grestorn
2004-07-30, 07:34:35
Original geschrieben von ][immy
mhh.. du hast noch nicht mit pointern gearbeitet, oder?
damit geht es ansich recht leicht
Der war gut. Ich programmiere seit 1986 in C und verdiene heute mein Geld mit Softwareentwicklung.

Wenn eine Applikation mit Pointern Mist baut, stürzt sie ab (die Applikation), nicht jedoch der Rechner (wenn das OS vernünftig ist).
Original geschrieben von ][immy
KotoR hat ziemlich viel macken was ati karten betrifft
so kann es passieren, das nach dem laden auf einmal man nur noch braun sieht ansonsten noch figuren usw
ändert man dann die auflösung im menü, sieht alles wieder korrekt aus.. hört sich für mich nicht nach einem treiberfehler an
Doch, genau das tut es.

Offenbar macht KotoR irgendetwas beim Laden oder Levelwechsel, ich nehme an bestimmte Initialisierungen. Der ATI Treiber kommt damit nicht klar, der nVidia Treiber schon. Theoretisch ist es denkbar, dass Bioware die OpenGL API nicht korrekt bedient, das halte ich aber für eher unwahrscheinlich. Auffallend ist dann aber, dass es wohl ATI OpenGL Treiber Versionen gibt, die mit KotoR keinerlei Probleme haben. Nur die neuesten Treiber zeigen die genannten Effekte.
Original geschrieben von ][immy
...an der stelle ist es wirklich schlampige programmierung. wahrscheinlich irgendwo eine mathematische formel falsch gesetzt, wo ein zufallswert genutzt wird und nicht abgefangen wird ob dieser wert unter umständen zu groß ist oder dergleichen...
Falscher Schluss, denn wäre es so, mossten die Effekte auf allen Platformen gleichermassen auftreten. Bei NV Karten treten die Probleme aber nicht auf.

Meiner Meinung ist das Problem eher, dass nach einer bestimmten Neuinitialisierung der OpenGL Treiber von ATI bestimmte Sachen "vergisst" (sprich: seine eigenen Daten teilweise korrumpiert) so dass diese Effekte auftreten.

Grestorn
2004-07-30, 07:42:53
Original geschrieben von Stefan Payne
2. NEIN!
Denn wenn dem so wäre, dann müssten die Probleme bei anderen OGL Spielen/Programme ebenso auftreten, tun sie aber nicht.
Falscher Schluss: Wenn nur ein einziges Programm die API auf eine bestimmte Weise benutzt und der Treiber deswegen abstürzt, ist dennoch der Treiber fehlerhaft. Er darf schlicht nicht crashen. Wenn die Verwendung der API falsch ist, darf der Treiber meinetwegen einen Fehler zurückliefern oder irgendein anderes, definiertes Verhalten zeigen, aber er darf niemals crashen!

Und die Tatsache, dass Quake3-basierte Spiele keine Probleme haben, zeigt nur, dass Bioware etwas anders macht als id, aber nicht notwendiger Weise falsch.

Von aussen sieht die Sache so aus, als würden zumindest bestimmte Teile des Treibers bei einem Levelwechsel oder nach dem Laden eines Spielstandes neu initialisiert. Und das schmeckt dem ATI Treiber nicht, er crasht manchmal oder zeigt hinterher nur noch teilweise kaputte Darstellungen.
Original geschrieben von Stefan Payne Desweiteren: wenn die GraKa schon abschmiert, dann richtig, was du beschreibst klingt eher danach, daß Kotor nicht genug auf ATI Karten getestet wurde...
Es gibt ATI Treiber auf denen KotoR einwandfrei läuft. Nur die letzten Treiber-Versionen (ab 4.x glaub ich, bin mir nicht ganz sicher) zeigen diese Probleme. Also nicht Biowares Schuld (die können schliesslich nicht in die Zukunft sehen beim Testen ihrer Software).
Original geschrieben von Stefan Payne 5. richtig, nur hat ATi für diesen Fall eine 'innovative Funktion' eingebaut, schimpft sich VGA Recover oder so ähnlich und funzt meist auch ;)Die bloße Existenz dieser Funktion spricht Bände ... Wobei man ATI hier zugute halten kann, dass sie auch dann helfen kann, wenn der Treiber wegen zu hoch getakteter Karte crasht.

Grestorn
2004-07-30, 07:48:06
Original geschrieben von MadManniMan
Ich habe eine Vermutung bezüglich KOTOR und dem mäßigen Abschneiden der ATis:

KOTOR war ja vorrangig ein X-Box Spiel und daher natürlich auch explizit auf nV-Extensions hinprogrammiert ... von daher ist es IMHO gar nicht so unlogisch, daß das Prog mies läuft. Die Schatten sollen ja auch auf nV-HW besser aussehen(hat sich das geändert?). Es lief nicht mieß mit den Cat 3.x Treibern, die zum Zeitpunkt des Releases von KotoR aktuell waren. De facto lief KotoR besser auf ATI (da schneller trotz AA und AF) als auf nVidia Karten.

Es stimmt, dass mit den Cat 3.x die Option "weiche Schatten" nicht funktionierte. Bioware meinte, sie würden eine in OpenGL ganz legale Methode dafür verwenden, die auch die ATI korrekt anzeigen würde, aber mit unakzeptablen Frameraten, weswegen die Option bei einer ATI Karte nicht angeboten wird.

In einem späteren Treiber hat ATI dieses Problem korrigiert, so dass die Frameraten auch mit "weichen Schatten" nicht nennenswert eingebrochen ist, und Bioware hat in einem Patch diese Option auch für ATI Karten freigschaltet.

Erst bei den aktuellen Cat Treibern kommt es zu den Stabilitätsproblemen mit KotoR.

][immy
2004-07-30, 08:01:18
Original geschrieben von grestorn
Es lief nicht mieß mit den Cat 3.x Treibern, die zum Zeitpunkt des Releases von KotoR aktuell waren. De facto lief KotoR besser auf ATI (da schneller trotz AA und AF) als auf nVidia Karten.

Es stimmt, dass mit den Cat 3.x die Option "weiche Schatten" nicht funktionierte. Bioware meinte, sie würden eine in OpenGL ganz legale Methode dafür verwenden, die auch die ATI korrekt anzeigen würde, aber mit unakzeptablen Frameraten, weswegen die Option bei einer ATI Karte nicht angeboten wird.

In einem späteren Treiber hat ATI dieses Problem korrigiert, so dass die Frameraten auch mit "weichen Schatten" nicht nennenswert eingebrochen ist, und Bioware hat in einem Patch diese Option auch für ATI Karten freigschaltet.

Erst bei den aktuellen Cat Treibern kommt es zu den Stabilitätsproblemen mit KotoR.

guck dich bitte mal in den offiziellen foren von kotor um. bisher wurde kein ati-treiber gefunden, mit dem das spiel problemlos läuft

einzige was ich sagen kann.. wenn kotor mit ner ati-karte problemlos ne zeit lang läuft, ist das purer zufall. zudem gibt es nicht nur mit ati-karten probleme. seltsamerweise läuft es einzig auf nvidia karten problemlos.

willst du jetzt etwa behaupten das nvidia als einziger alles richtig macht?


gerade wenn es fehler beim laden gibt bzw abstürze weißt das darauf hin das es ein programmierfehler ist

nebenbei, wenn die grafikkarte abstürzen würd bzw der treiber, würde vpu recover anspringen müssen, damit du überhaupt wieder nach windows kommen würdest ohne einen kompletten neustart in kauf zu nehmen.
allerdings muss man einfach eine taste drücken um eine fehlermeldung von kotor im hintergrund zu schließen. ergo.. der fehler liegt bei der applikation

Grestorn
2004-07-30, 08:23:43
Original geschrieben von ][immy
guck dich bitte mal in den offiziellen foren von kotor um. bisher wurde kein ati-treiber gefunden, mit dem das spiel problemlos läuft
Komisch, wieso hab ich's dann ohne ein einziges Problem auf meiner 9700Pro durchgespielt (2x)?

Du darfst nicht vergessen, dass es auch andere Probleme als den Treiber gibt, und Du zu jedem Spiel immer Leute im Forum findest, die Probleme haben (meist instabile Hardware aus dem einen oder anderen Grund).
Original geschrieben von ][immy
einzige was ich sagen kann.. wenn kotor mit ner ati-karte problemlos ne zeit lang läuft, ist das purer zufall. zudem gibt es nicht nur mit ati-karten probleme. seltsamerweise läuft es einzig auf nvidia karten problemlos.

willst du jetzt etwa behaupten das nvidia als einziger alles richtig macht?
Nein, wieso sollte ich das behaupten? Was ich behaupte, und da bin ich nicht der einzige, ist dass die OpenGL Treiber von ATI nicht sonderlich stabil sind. Und das die Stabilität in den 4.x Cats eher abgenommen hat.
Original geschrieben von ][immy
gerade wenn es fehler beim laden gibt bzw abstürze weißt das darauf hin das es ein programmierfehler ist
Wieso denn das?
Original geschrieben von ][immy
nebenbei, wenn die grafikkarte abstürzen würd bzw der treiber, würde vpu recover anspringen müssen, damit du überhaupt wieder nach windows kommen würdest ohne einen kompletten neustart in kauf zu nehmen.
allerdings muss man einfach eine taste drücken um eine fehlermeldung von kotor im hintergrund zu schließen. ergo.. der fehler liegt bei der applikation
Du hast schon eine tolle Argumentationskette... :)

Aber lassen wir das. Irgendwie meidest Du konsequent alle Argumente von mir, die Du nicht wiederlegen kannst, und bringst eigene Scheinargumente. So kann man leider nicht diskutieren.

Du kannst gerne weiter der Meinung sein, dass die ATI OpenGL Treiber perfekt sind, und das ATI keinen Grund hat etwas daran zu verbessern.

Ich für meinen Teil würde es lieber sehen, wenn ATI tatsächlich wieder an den OpenGL Treibern arbeitet, deren Stabilität und Performance verbessert, so dass ich bzw. meine Freundin wieder KotoR spielen kann und Doom3 gut läuft. Wenn alle so denken würden wie Du, würde das aber kaum passieren, es ist ja alles in Butter...

][immy
2004-07-30, 09:41:46
Original geschrieben von grestorn
Du kannst gerne weiter der Meinung sein, dass die ATI OpenGL Treiber perfekt sind, und das ATI keinen Grund hat etwas daran zu verbessern.

Ich für meinen Teil würde es lieber sehen, wenn ATI tatsächlich wieder an den OpenGL Treibern arbeitet, deren Stabilität und Performance verbessert, so dass ich bzw. meine Freundin wieder KotoR spielen kann und Doom3 gut läuft. Wenn alle so denken würden wie Du, würde das aber kaum passieren, es ist ja alles in Butter...
jetz wüsste ich mal gerne wo ich das behauptet habe?

ich mecker nur an KotoR rum, das das derbe programmierfehler enthält, die dazu führen, das es auf nicht-nvidia karten viele fehler gibt (bzw ist es wohl zu sehr auf nvidia hardware optimiert)

das die ati-treiber speziell opengl perfekt sind habe ich nie behauptet. nur suche ich die ursache wenn alles dagegen spricht im gegensatz zu dir nicht nur beim treiber

ati, darf noch einiges am opengl treiber werkeln. stabilitätsprobleme außer das mit der q3 engine (komplettabstürze nach einer weile) hab ich ansonsten keine

vor allem denke ich das noch ein wenig geschwindigkeit mittels treiber drin ist. zumindest in quake 2 & 3 sollte in etwa ein gleichstand mit nvidia wohl drin sein, ohne das die qualität verringert wird

Gast
2004-07-30, 09:45:28
Naja wahrscheinlich ist das die Rache dafür das ATI die Doom3 Alpha damals geleaked hat.

Was mich viel mehr traurig macht ist das Managment bei ATI den dieses ist sehr schlampig wenn erst kurz vor Release eines langerwarteten Titels die Köpfe hochgehoben werden.

Nicht nur, das es anscheinend in der Entwicklung der OGL treiber schon seit 1 Jahr nix mehr gemacht wird, nein - will man jetzt auf biegen und brechen uns ATI besitzern nen Treiber reindrücken der zwar gleichauf ist mit NV Karten aber an Qualität eventuell einzubüßen hat. Sorry ich hab mir die X800pro geholt wegen der besseren BQ und nicht weil sie schneller ist auf die paar frames kann ich verzichten solange das game gut läuft.

Ich hoff das ATI uns da nicht ein Ei legt.

Gast
2004-07-30, 09:58:05
bessere bildquaili -> LoeL, hast dich ja gut informiert !

Geh mal auf die Seite (ja is nicht sehr bekannt) www.3d-center.org und schau dir die Tests von der tollen R420 an....... nix bessere Bildquali (höchstens schneller und dann halt aa/af hochschrauben)

Gast
2004-07-30, 10:29:12
Original geschrieben von Gast
bessere bildquaili -> LoeL, hast dich ja gut informiert !

Geh mal auf die Seite (ja is nicht sehr bekannt) www.3d-center.org und schau dir die Tests von der tollen R420 an....... nix bessere Bildquali (höchstens schneller und dann halt aa/af hochschrauben)

Naja ist bei Ut2004 schon das Skyboxes Problem auf den NV Karte behoben? Und wie schauts aus mit sonstigen Sachen wie z.B. partial precision bei LockOn? Hier ist Ati sicher besser dran mit der BQ.

Ausserdem ist das AA nutzbarer. Und die AF Optimierungen kann man über die Registry genauso ausschalten.

reunion
2004-07-31, 13:05:49
Naja, dann bleibt allerdings noch immer die Frage warum die FireGl karten von der Quadro Konkurrenz derartig deklassiert werde? Ist das auch ein hardwareproblem?

StefanV
2004-07-31, 13:17:20
Original geschrieben von Gast
Nicht nur, das es anscheinend in der Entwicklung der OGL treiber schon seit 1 Jahr nix mehr gemacht wird, (...)

Wer hat diesen Müll nur in die Welt gesatzt?!

Nimm dir mal 'nen 3er Cata und einen 4er Cat mit gleicher Zahl hinten und benutze mal den OGL Caps Viewer, das sollte eigentlich Beweis genug sein, daß diese Aussage schlicht falsch ist, denn vor einem Jahr konnten die ATI Treiber weniger OGL Extensions als die aktuellen...

radioactiveman24
2004-07-31, 18:01:20
Wer hat diesen Müll nur in die Welt gesatzt?!

Our sources claim that ATI is doing something about performance on Doom 3 but that it hasn't done anything to its Open GL driver for almost a year now. The ATI lad confirmed these claims.

http://www.theinquirer.net/?article=17495

allerdings weiß man nie, was "Unsere Quellen" bei the inquirer heißt...

InsaneDruid
2004-07-31, 18:49:32
Dann frag ich mich warum zb Il2 Sturmovik so EXTREM unterschiedlich performt mit den diversen Treibern, seit 3.7 zb. Schwankungen von >50% FPS Verlust in 3 Treibern, später wieder ausgeglichen.