PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : OpenGL-Optimierung bei X1k Karten = Marketingtrick?


Die gelbe Eule
2005-10-22, 12:24:43
Korrigiert mich wenn ich falsch liege.
Laut den mir bekannten Informationen, werden nur die X1k Karten von einer Leistungssteigerung in OpenGL profitieren.
"Zwingt" sozusagen ATI dann alle Endkunden auf eine neuere Karte umzusteigen, nur um mehr Performance unter OpenGL zu haben?

Wenn wir schon soweit sind, das Vorteile in Treibern, wo wohlgemerkt ATI seit Jahren hinterherhinkt, nur noch aktuellen Karten vorbehalten ist, wird es dann nicht viele verärgern?

Das ist kein Trollthread oder rumgeflame, also bleibt bitte sachlich. Die Fanboys aus anderen Threads die mir ständig nachlaufen um zu flamen, sollten sich besser bedeckt halten.

MikBach
2005-10-22, 12:32:05
Korrigiert mich wenn ich falsch liege.
Laut den mir bekannten Informationen, werden nur die X1k Karten von einer Leistungssteigerung in OpenGL profitieren.
"Zwingt" sozusagen ATI dann alle Endkunden auf eine neuere Karte umzusteigen, nur um mehr Performance unter OpenGL zu haben?
LOL, du denkst dir Sachen aus.
Das liegt am besseren Speichercontroller der X1k-Karten.

Wenn wir schon soweit sind, das Vorteile in Treibern, wo wohlgemerkt ATI seit Jahren hinterherhinkt, nur noch aktuellen Karten vorbehalten ist, wird es dann nicht viele verärgern?

Das ist kein Trollthread oder rumgeflame, also bleibt bitte sachlich. Die Fanboys aus anderen Threads die mir ständig nachlaufen um zu flamen, sollten sich besser bedeckt halten.
Wenn das kein Troll-Thread werden soll, dann unterlasse solche Behauptungen, weil sonst inspiriest du selbst einen... :rolleyes:

BTW wer hat dir gesagt, dass ATI in sachen Treiber hinter Nvidia hinkt?
Das ist nämlich Bullshit.

edit: edit wieder weg, da der Bezugspost gelöscht wurde.

Demirug
2005-10-22, 12:32:58
Da wurde an den OpenGL Treibern selbst überhaupt nichts optimiert. ATI hat lediglich das vergessene neue Memorycontroller Profil für 4xAA nachträglich eingebracht.

deekey777
2005-10-22, 12:39:19
Bevor du einen neuen Thread eröffnest, solltest du in andere Threads reinschauen, denn es wäre uU möglich, daß dieses Thema schon an- und besprochen wurde.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3572575#post3572575
Korrigiert mich wenn ich falsch liege.
Ja, du liegst falsch.

Laut den mir bekannten Informationen, werden nur die X1k Karten von einer Leistungssteigerung in OpenGL profitieren.
Weil nur die X1000 einen programmierbaren Speichercontroller haben soll.

"Zwingt" sozusagen ATI dann alle Endkunden auf eine neuere Karte umzusteigen, nur um mehr Performance unter OpenGL zu haben?
Niemand wird zu irgendwas gezwungen, oder braucht eine Radeon 10 SPF?

Wenn wir schon soweit sind, das Vorteile in Treibern, wo wohlgemerkt ATI seit Jahren hinterherhinkt, nur noch aktuellen Karten vorbehalten ist, wird es dann nicht viele verärgern?
Wo hinkt ATi in Treibern hinterher? In OpenGL? Gibt es Beispiele dafür, die dies eindeutig belegen? Oder sollen jetzt Inhaber einer 9800Pro einen Lötkit von ATi bekommen und den neuen Speichercontroller auf die Karte löten?
Nur weil die Radeon-Grafikkarten in einigen OpenGL-Anwendungen hinter nVidia zurückliegen, sagt das nichts über die OpenGL-Performance aus.
Haben sich die Besitzer einer 5900Ultra geärgert, als im April 2004 die NV40er Serie kam?

Das ist kein Trollthread oder rumgeflame, also bleibt bitte sachlich. Die Fanboys aus anderen Threads die mir ständig nachlaufen um zu flamen, sollten sich besser bedeckt halten.
Nein, das ist kein Flamethread...

Überhaupt: Wer sagt eigentlich, daß diese Verbesserungen am Speichercontroller nur für OpenGL-Spiele vorbehalten bleiben? Auf den OpenGL-Wundertreiber werden wir noch lange warten müssen.

Demirug
2005-10-22, 12:41:01
Überhaupt: Wer sagt eigentlich, daß diese Verbesserungen am Speichercontroller nur für OpenGL-Spiele vorbehalten bleiben? Auf den OpenGL-Wundertreiber werden wir noch lange warten müssen.

Diese Verbesserung schon weil im D3D Treiber das Profil schon von Anfang an vorhanden war.

Die gelbe Eule
2005-10-22, 12:45:31
OffTopic:

Ich wußte es, so einige warten nur darauf das ich was poste, schon nehmen sie mich auseinander. Habt ihr nichts anderes zu tun?

OnTopic:

Der Thread bezieht sich nur auf OpenGL und zwar jedes einzeln geschriebene Wort. Also lasst D3D und anderen Kram heraus, danke.

deekey777
2005-10-22, 12:49:22
OffTopic:

Ich wußte es, so einige warten nur darauf das ich was poste, schon nehmen sie mich auseinander. Habt ihr nichts anderes zu tun?

OnTopic:

Der Thread bezieht sich nur auf OpenGL und zwar jedes einzeln geschriebene Wort. Also lasst D3D und anderen Kram heraus, danke.

Du bezichtigst eine Firma wieder der Kundentäuschung und wunderst dich noch? Warum hast du überhaupt diesen Thread eröffnet?

Antworte doch einfach auf die Posts.

Ailuros
2005-10-22, 12:50:33
OffTopic:

Ich wußte es, so einige warten nur darauf das ich was poste, schon nehmen sie mich auseinander. Habt ihr nichts anderes zu tun?

OnTopic:

Der Thread bezieht sich nur auf OpenGL und zwar jedes einzeln geschriebene Wort. Also lasst D3D und anderen Kram heraus, danke.

Ach und Du wunderst Dich darueber wenn Du Dich so ausdrueckst wie im ersten Post? Bleib sachlich, dann hast Du auch mehr Chancen mehr sachliche Antworten zu bekommen.

Die gelbe Eule
2005-10-22, 12:53:30
Kundentäuschung? Wo wird hier was vorgetäuscht? Und warum wieder? Warum soll ich mich wundern? Das Du etwa wieder mir hinterherennst, um rumzuflamen?
Wenn jemand sagt, ich bringe einen Treiber raus, der auf aktuellen Karten 30% mehr Peroformance bringt, behält man dann anderen Endkunden nicht etwas vor?
Das ATI unter OpenGL NV hinterherhinkt, hat wohl jeder mitbekommen, nur akzeptieren kann es wohl keiner.

Ach und Du wunderst Dich darueber wenn Du Dich so ausdrueckst wie im ersten Post? Bleib sachlich, dann hast Du auch mehr Chancen mehr sachliche Antworten zu bekommen.

Der letzte Absatz war für Leute wie Deekey777 bestimmt, da sie nur darauf aus sind mich anzuflamen. Niemand muss darauf eingehen, aber einige brauchen den Adrenalinschub wohl.

MikBach
2005-10-22, 12:55:11
OffTopic:

Ich wußte es, so einige warten nur darauf das ich was poste, schon nehmen sie mich auseinander. Habt ihr nichts anderes zu tun?
Eule, niemand will dich hier auseinander nehmen. :)
Du schreibst sehr provokativ. Ausserdem nutzst du jede Gelegenheit, um ATI zu bashen.

OnTopic:

Der Thread bezieht sich nur auf OpenGL und zwar jedes einzeln geschriebene Wort. Also lasst D3D und anderen Kram heraus, danke.
OK, wenn es NUR um OGL geht, dann muss ich ein wenig zurückrudern.
Da hatte ATI vor Jahren echt Probleme. Mittlerweile sind die Unterschiede eher gering.

Die gelbe Eule
2005-10-22, 12:57:28
Ich kann gar nicht ATI bashen, da ich selbst beide Hersteller auf 2 PCs habe. Ich bin eher kritisch allem gegenüber und jubel nicht sofort wenn eine Folie auftaucht.

dildo4u
2005-10-22, 12:59:59
OK, wenn es NUR um OGL geht, dann muss ich ein wenig zurückrudern.
Da hatte ATI vor Jahren echt Probleme. Mittlerweile sind die Unterschiede eher gering.
Die Unterschiede sind ebend nicht Gering siehe Quake4 als Aktuellstes Beispiel hier ist sogar eine 6800GT einer X850XTPE überlegen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3598172#post3598172

Mit der X800pro ist 1280*1024 mit 4XAA eigentlich unspielbar meistens hat man 20-30fps mit der GT eher 30-50 hab ich selber getestet.

MikBach
2005-10-22, 13:01:20
Ich kann gar nicht ATI bashen, da ich selbst beide Hersteller auf 2 PCs habe.
Naja, wenn so viele hier der Meinung sind, dann wird wohl was dran sein... :rolleyes:


Ich bin eher kritisch allem gegenüber und jubel nicht sofort wenn eine Folie auftaucht.
Marketing-Folien von IHVs sollte man eh meiden. Steht meistens Mist drin.

deekey777
2005-10-22, 13:02:09
Kundentäuschung? Wo wird hier was vorgetäuscht? Und warum wieder? Warum soll ich mich wundern? Dass Du etwa wieder mir hinterherennst, um rumzuflamen?
=>

Wenn jemand sagt, ich bringe einen Treiber raus, der auf aktuellen Karten 30% mehr Peroformance bringt, behält man dann anderen Endkunden nicht etwas vor?

Du solltest, bevor du einen neuen Thread zu einem Thema, das schon sehr ausführlich besprochen wurde, eröffnest, entweder die SuFu anwerfen oder das Posten gleich lassen.
Es wird nichts, gar nichts vorbehalten. Nur die neue Generation hat diesen programmierbaren Speichercontroller.

Das ATI unter OpenGL NV hinterherhinkt, hat wohl jeder mitbekommen, nur akzeptieren kann es wohl keiner.
Quatsch! Absoluter Quatsch!
Oder kannst deinen Quatsch irgendwie begründen?


Der letzte Absatz war für Leute wie Deekey777 bestimmt, da sie nur darauf aus sind mich anzuflamen. Niemand muss darauf eingehen, aber einige brauchen den Adrenalinschub wohl.

Ein ganzer Absatz nur für mich? Danke... :ulol:

Die Unterschiede sind eben nicht gering, siehe Quake4 als aktuellstes Beispiel. Hier ist sogar eine 6800GT einer X850XTPE überlegen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3598172#post3598172

Mit der X800pro ist 1280*1024 mit 4XAA eigentlich unspielbar meistens hat man 20-30fps mit der GT eher 30-50 hab ich selber getestet.

Ihr reduziert OpenGL nur auf Spiele, deren Spieleengine nunmal nVidia-Grafikkarten besser liegt.

Die gelbe Eule
2005-10-22, 13:06:57
Sry, aber welche OpenGL Spiele liegen ATI besser?

Übrigens:

Man kann auch den Eingansposts ganz anders lesen, aber da mein Name hier ja als "ATI-Basher" bekannt ist, sind einige darauf aus, alles schlechtzureden was dort steht, zustimmen aus der ATI Fraktion wird keiner ...

MikBach
2005-10-22, 13:08:19
Die Unterschiede sind ebend nicht Gering siehe Quake4 als Aktuellstes Beispiel hier ist sogar eine 6800GT einer X850XTPE überlegen

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3598172#post3598172

Mit der X800pro ist 1280*1024 mit 4XAA eigentlich unspielbar meistens hat man 20-30fps mit der GT eher 30-50 hab ich selber getestet.
Vielleicht fehlt ja Shaderreplacement... :biggrin:
Aber das ist schon Heavy. :eek:
Nur sind die Unterschiede in anderen OGL-Spielen deutlich geringer.

deekey777
2005-10-22, 13:12:15
Sry, aber welche OpenGL Spiele liegen ATI besser?

Fast keine. Vor langer Zeit hat man sich bei CoD gestritten, wer da besser ist, sonst fällt mir nichts ein. Man findet beinhae in jedem OpenGL-Spiel einen Stolperstein, warum die Performance auf Radeons niedriger ist als auf nVidias Grafikkarten.

http://www.beyond3d.com/forum/showthread.php?t=24420

Vielleicht fehlt ja Shaderreplacement... :biggrin:
Aber das ist schon Heavy. :eek:
Nur sind die Unterschiede in anderen OGL-Spielen deutlich geringer.
Shaderreplacement? Nur Shaderreplacement? ;)

Die gelbe Eule
2005-10-22, 13:15:48
Wieso sagst dann das wir OpenGL nur auf Spiele reduzieren die Nvidia besser liegen? Sagst selbst das es fast keine gibt, eingentlich gar keine, weil Dir nichts einfällt.
Die Stoplersteine baut man bestimmt nicht extra ein und ATI hätte sie auch aus dem Weg räumen können oder?

Und schon sind wir wieder beim Thema.


Shaderreplacement? Nur Shaderreplacement? ;)

Rumgetrolle oder? Spar es Dir.

MikBach
2005-10-22, 13:23:06
Sry, aber welche OpenGL Spiele liegen ATI besser?

Es behauptet hier niemand, dass ATI bei OGL besser ist.
Nur ist das nicht so dramatisch wie bei Q4.
Beispiel:
http://www.xbitlabs.com/images/video/radeon-x1800/d3dm4_candy.gif


Wobei hier noch nicht mit dem Fix für X1K-Karten gebencht wurde, die Ergebnisse können sich da noch ändern.


edit: OGL wird im Spielesektor wahrscheinlich eh aussterben, dann hat sich Thema eh erledigt.
ATI hat glaube ich keinen Bock für die paar OGL-Spiele, die im Jahr erscheinen, sich extra anzustrengen.
Man konzentriert sich auf das Wesentliche und das ist D3D.

Super-S
2005-10-22, 13:28:42
:cool: Muss da die Gelbe Eule in Schutz nehmen.... finde auch das in OGL der Unterschied schon mehr wie Spürbar ist zwischen ATI & NV.

Will nicht mit Links um mich schmeissen... aber da war doch erst vorn Paar Tagen nen Bench zwichen X1800XL und 7800GT , hmmm ...lag da die XL nicht knapp 19% hinter der GT in Quake4 ????? Bin nicht sicher ob genau 19% .... aber selbst gespürt habe ich es auch ... in Dumm 3 , zwischen 5900XT und 9800pro .... ansonsten lag ja immer die 9800er vorne in D3D... aber in D3 unter OGL die 5900XT.

Ist ja egal ob Hardware-Nachteil oder-Treiber , Nachteil ist Nachteil .... kann es Technisch nicht erklären, da fehlt mir das Know-How in dem Gebiet.

Ich lasse mich gerne eines Besseren belehren.... :D

Spasstiger
2005-10-22, 13:29:08
Fast keine. Vor langer Zeit hat man sich bei CoD gestritten, wer da besser ist, sonst fällt mir nichts ein.

Zumindest der Vergleich Radeon 9800 Reihe vs. GeForce FX 5900 Reihe ging an ATI, weil sei einfach mit den verwendeten Shadern besser klarkamen.

@DieGelbeEule: So wie die neue OpenGL-Optimierung beworben wird, könnte man schon von einem Marketing-Trick sprechen. Denn es wurde lediglich noch etwas mit in den Treiber gepackt, was für die meisten Fälle schon vorhanden war, siehe Demirugs Postings hier.
Da man nun halt mit den neuen X1800-Karten unter OpenGL (Doom 3, Quake 4) ziemlich ins Hintertreffen geriet (mehr als üblich), sobald man 4xAA verwendete, ist das natürlich eine unangenehme Situation für ATI, die sie schnellstmöglich wieder zurechtbügeln musste.
P.S.: Mit einer X800 XT kann man Quake 4 mit aktiviertem VSync flüssig spielen in 1280x1024 high mit 2xAA, wie ich gestern erleben durfte. Dem für OpenGL optionalen Triple Buffering sei Dank. ;)

deekey777
2005-10-22, 13:45:37
Wieso sagst dann das wir OpenGL nur auf Spiele reduzieren die Nvidia besser liegen? Sagst selbst das es fast keine gibt, eingentlich gar keine, weil Dir nichts einfällt.
Die Stoplersteine baut man bestimmt nicht extra ein und ATI hätte sie auch aus dem Weg räumen können oder?

Und schon sind wir wieder beim Thema.

Nein, ich sagte, daß ihr OpenGL nur auf Spiele reduziert. Und die meisten dieser Spiele liegen nunmal nVidia-Grafikkarten. Absichtliche Stolpersteine gibt es nicht, aber Unfähigkeit/Faulheit einiger Programmierer ihre Spiele so zu programmieren, daß diese (von Anfang an) auch auf Radeons problemslos laufen: Wie oft mußten Besitzer einer Radeon auf einen neuen Treiber warten, damit ihr frischgekauftes Spiel vernünftig läuft?


Rumgetrolle oder? Spar es Dir.
Wenn du etwas nicht verstanden hast, dann überlies es nächstes Mal einfach.

Spasstiger
2005-10-22, 13:48:18
Wie oft mußten Besitzer einer Radeon auf einen neuen Treiber warten, damit ihr frischgekauftes Spiel vernünftig läuft?

Ich bisher gar nicht. Bisher ging jedes neue Spiel mit aktuellen Treibern.

Coda
2005-10-22, 13:53:54
Wie oft mußten Besitzer einer Radeon auf einen neuen Treiber warten, damit ihr frischgekauftes Spiel vernünftig läuft? Das Problem beruhte auf Gegenseitigkeit von ATi und den Spieleentwicklern. Vor allem die GL-Treiber von ATi waren früher eher etwas problematisch.

Da würde ich also mal nicht so mit Pauschalaussagen kommen. Ein Spieleentwickler kann gar nicht so blöd sein ;)

deekey777
2005-10-22, 13:56:01
Ich bisher gar nicht. Bisher ging jedes neue Spiel mit aktuellen Treibern.

Du hast die falschen Spiele gespielt... :biggrin:
Selbst Doom 3* machte Ärger auf einigen 9800XT, daß diese heruntergetaktet werden mußten. Und was ist mit KotOR? NWN?
Nur die Q3 basierten Spiele machen selten Ärger, denn für diese Engine wurde optmiert bis zum Erbrechen.



*Eigentlich eines der wenigen Spiele, daß auch ohne Patches problemlos gespielt werden kann.

Die gelbe Eule
2005-10-22, 13:56:02
Nein, ich sagte, daß ihr OpenGL nur auf Spiele reduziert. Und die meisten dieser Spiele liegen nunmal nVidia-Grafikkarten. Absichtliche Stolpersteine gibt es nicht, aber Unfähigkeit/Faulheit einiger Programmierer ihre Spiele so zu programmieren, daß diese (von Anfang an) auch auf Radeons problemslos laufen: Wie oft mußten Besitzer einer Radeon auf einen neuen Treiber warten, damit ihr frischgekauftes Spiel vernünftig läuft?


Ein Treiber kann nicht die Spieleengine verändern. Wenn ein Hersteller zu blöd ist, ist egal woher und nicht die Informationen liefert, die der Spieleprogrammierer braucht, läuft es halt nur so gut, wie es eben geht.

Oder warum brauchte man den Hotfix für 5.10? Bestimmt nicht weil ID schlampig programmiert ...

Die meisten Spiele brauchen 2-3 Jahre, wer da nicht hinzuarbeitet, der gehört geschlagen.

Gandharva
2005-10-22, 13:58:56
Wo hinkt ATi in Treibern hinterher? In OpenGL? Gibt es Beispiele dafür, die dies eindeutig belegen? Oder sollen jetzt Inhaber einer 9800Pro einen Lötkit von ATi bekommen und den neuen Speichercontroller auf die Karte löten?
Nur weil die Radeon-Grafikkarten in einigen OpenGL-Anwendungen hinter nVidia zurückliegen, sagt das nichts über die OpenGL-Performance aus.

AMDzone hat Q4 mal mit verschiedenen Karten Gebencht


http://www.amdzone.com/pics/gaming/quake4/quake4aaoff.jpg

Entgegen dem was das steht ist das whol mit 4XAA
http://www.amdzone.com/pics/gaming/quake4/quake4aaon.jpg

Zum vorschein kommt mal wieder die Opengl Schwäche der ATI karten eine X850XT PE liegt hinter einer 6800GT.


http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=191&page=2

Die gelbe Eule
2005-10-22, 14:01:41
Das ist eindeutig und jetzt soll keiner kommen, Quake4 wäre nur ein Lichtblick. Enemy Territory: Quake Wars wird auch BF2 zusetzen und bestimmt nicht in D3D kommen.

Gandharva
2005-10-22, 14:05:20
mich würden benches mit x1800xl in q4 interessieren. leider konnte ich auf die schnelle keine finden.

Spasstiger
2005-10-22, 14:06:04
Du hast die falschen Spiele gespielt... :biggrin:
Selbst Doom 3* machte Ärger auf einigen 9800XT, daß diese heruntergetaktet werden mußten.

Jo das stimmt, als Mod in einem Doom-3-Forum kenn ich das Problem nur noch allzu gut. Gabs aber nur bei Radeon 9800 Pros und XTs, nicht bei 9700ern, wie ich eine habe. ;)
Und bei Quake 4 gibts das gleiche Problem auch wieder, da hab ich auch schon den ersten Problemthread in Behandlung. ;)

Das einzige Problem, das ich je hatte, war vor drei Jahren, als ich meinen Dell neu bekommen hatte und noch die Dell-Treiber für die Graka drauf waren. UT2003 hatte damit so seine Probleme. Hab dann die offiziellen Treiber von ATI installiert und die Probleme waren weg.

Gandharva
2005-10-22, 14:09:42
Selbst Doom 3* machte Ärger auf einigen 9800XT, daß diese heruntergetaktet werden mußten.

um noch weniger performance zu bekommen? meine 9800pro hatte damals das gleiche problem. doom3 war das einzige spiel bei dem ich mit der taktrate nicht so hoch gehen konnte wie in allen anderen games die ich hatte, ohne fehler in der darstellung zu bekommen.

Spasstiger
2005-10-22, 14:12:03
Oder warum brauchte man den Hotfix für 5.10? Bestimmt nicht weil ID schlampig programmiert ...

Den braucht man auf 99,9% der unter Spielern vorhandenen ATI-Karten nicht, da das Spiel absolut keine Probleme macht (abgesehen von Überhitzung bei Radeon 9800ern). Nur mit 4xAA kann man auf X1800 XL und XT Karten noch etwas mehr Performance rausholen mit dem Treiber.

P.S.: Dieser Thread erinnert mich wieder an die Treiber-Diskussionen, die zu GeForce FX Zeiten aufkamen. Da hat man krampfhaft versucht, den Kauf einer GeForce FX wegen der besseren Treiber zu rechtfertigen.
In Sachen Treibern machen sowohl ATI als auch Nvidia einen guten Job, auch wenns hier und da mal Probleme gibt (HL2 z.b. wollte mit etlichen Treiberversionen von Nvidia nicht richtig funktionieren, gelbes Wasser, fehlerhafte Shadereffekte, und zu der Zeit hat ein offizieller, neuer Treiber lange auf sich warten lassen).

Die gelbe Eule
2005-10-22, 14:14:59
Ist die AAx4 Community so groß, das man so schnell handeln musste? Viele spielen nur default und 10x7.

Spasstiger
2005-10-22, 14:16:56
Ist die AAx4 Community so groß, das man so schnell handeln musste? Viele Spielen nur default un 10x7.

Mit einer X1800 XL?
Frag mal misterh, ob der in 1024x768 default spielt ...

Gandharva
2005-10-22, 14:17:57
Ist die AAx4 Community so groß, das man so schnell handeln musste?

na alle x1800 besitzer eben. :rolleyes:

Die gelbe Eule
2005-10-22, 14:18:38
Misterh bencht mehr als das er spielt ;)
Und Q4 hat er gar nicht.

Q4 lebt vom esport, nicht vom single player ...

Gandharva
2005-10-22, 14:19:09
Q4 lebt vom esport, nicht vom single player ...

das wird sich erst zeigen ;)

deekey777
2005-10-22, 14:19:31
Ein Treiber kann nicht die Spieleengine verändern. Wenn ein Hersteller zu blöd ist, ist egal woher und nicht die Informationen liefert, die der Spieleprogrammierer braucht, läuft es halt nur so gut, wie es eben geht.
Das Treberentwicklerteam kann wieder das hinbiegen, woran die Spieleentwickler nicht gedacht haben.
Siehe NWN.

Oder warum brauchte man den Hotfix für 5.10? Bestimmt nicht weil ID schlampig programmiert ...
Raven hat Q4 programmiert und nicht id!
Wozu der Hotfix nötig war? Vielleicht dafür:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600286&postcount=3


Die meisten Spiele brauchen 2-3 Jahre, wer da nicht hinzuarbeitet, der gehört geschlagen.
Und?
Siehe Doom 3: Hier sollen die Kalifornier einen sechsmonatigen Vorsprung gehabt haben.

Spasstiger
2005-10-22, 14:20:10
Misterh bencht mehr als das er spielt ;)
Und Q4 hat er gar nicht.

Mh, die ganzen Screenshots von ihm deuten aber darauf hin, dass er doch spielt und zwar mit 4xAAA und 16:1 HQ-AF.
Wenn er Q4 hätte, würde er sicherlich auch 4xAAA zuschalten.

Die gelbe Eule
2005-10-22, 14:20:31
na alle x1800 besitzer eben. :rolleyes:

CPL Worldtour ist angesagt. Für 2006 ist das Game in aller Munde.

Rente
2005-10-22, 14:21:01
Ist die AAx4 Community so groß, das man so schnell handeln musste? Viele spielen nur default und 10x7.
Sie kaufen aber die Karte nach solchen Kriterien. Ich sag' nur 3DMark

Die gelbe Eule
2005-10-22, 14:21:58
Und?
Siehe Doom 3: Hier sollen die Kalifornier einen sechsmonatigen Vorsprung gehabt haben.

Siehe HL², da hat ATI gelatzt das es besser läuft. Wäre das nicht so gewesen, wäre man vielleicht doch eher bei Open GL geblieben.

Spasstiger
2005-10-22, 14:22:55
Sie kaufen aber die Karte nach solchen Kriterien. Ich sag' nur 3DMark

Öhm, eine X1800 XL wird nicht nach dem Performance-Kriterium, sondern nach dem Bildquali-Kriterium gekauft. Eine GeForce 7800 GT kostet nämlich 50 Euro weniger und ist fast überall schneller.

Coda
2005-10-22, 14:36:00
Wo gibt's ne X1800XL um 380€ lieferbar (und vor allem mit normalen Lieferkosten)?

dargo
2005-10-22, 14:48:40
Wo gibt's ne X1800XL um 380€ lieferbar (und vor allem mit normalen Lieferkosten)?
Naja, für 19€ mehr --> klick (http://www.overclockers.de/produkt.php?pid=1740&kat=233)

Spasstiger
2005-10-22, 14:55:00
Wo gibt's ne X1800XL um 380€ lieferbar (und vor allem mit normalen Lieferkosten)?

Wo gibt's ne GeForce 7800 GT um 330€ lieferbar (und vor allem mit normalen Lieferkosten)?

dildo4u
2005-10-22, 15:01:12
Wo gibt's ne GeForce 7800 GT um 330€ lieferbar (und vor allem mit normalen Lieferkosten)?
http://www.alternate.de/html/shop/productDetails.html?artno=JAXW24&artno=JAXW24& Versand Liegt bei 7€

Gandharva
2005-10-22, 15:03:30
Wo gibt's ne GeForce 7800 GT um 330€ lieferbar (und vor allem mit normalen Lieferkosten)?

alternate -> 333€

Versand Liegt bei 7€

5,95€ bei vorkasse

Naja, für 19€ mehr --> klick (http://www.overclockers.de/produkt.php?pid=1740&kat=233)

70€ mehr für ne karte die bessere bq hat aber langsamer ist... ati sollte mal die preise etwas anpassen. 50€ billiger und ich bin dabei. aber meine nächste graka wird wohl sowieso 512mb ram haben.

Spasstiger
2005-10-22, 15:10:48
alternate -> 333€

Tatsache, warum ist die Karte nicht bei Geizhals gelistet? Der Schnitt für GeForce 7800 GTs liegt eher bei 370 Euro.

EDIT: Die Karte ist doch bei Geizhals gelistet, hätte schwören können, dass das gestern nicht so wahr.

Gandharva
2005-10-22, 15:11:45
Tatsache, warum ist die Karte nicht bei Geizhals gelistet? Der Schnitt für GeForce 7800 GTs liegt eher bei 370 Euro.

ähm...

http://www.geizhals.at/deutschland/?cat=gra16_256&bpmax=&asuch=7800&sort=p

Spasstiger
2005-10-22, 15:12:51
ähm...

http://www.geizhals.at/deutschland/?cat=gra16_256&bpmax=&asuch=7800&sort=p

Ja sorry, hab gestern schon für meinen Bruder nach der günstigsten 7800 GT gesucht und da wurde ich bei Geizhals nicht fündig (billigste lieferbare Karte lag bei 350 Euro).

Gandharva
2005-10-22, 15:18:59
egal...

wieder zurück @topic

wenn man sich mal die benches von amdzone ansieht ist das ja nicht wirklich rosig für ati. ich meine wenns nicht an den treibern liegt, woran denn bitte dann? in dx-games versenkt die xt-pe doch auch die 6800gt.
mir kommt die open-gl treiberpolitik bei ati immer etwas komisch vor. da wird, wenn spiele wie d3 erscheinen, mal wieder 1-2 treiberrevisionen kräftig drauf optimiert und danach das ganze bis zum nächsten open-gl knaller links liegengelassen.

Spasstiger
2005-10-22, 15:21:49
mir kommt die open-gl treiberpolitik bei ati immer etwas komisch vor. da wird, wenn spiele wie d3 erscheinen, mal wieder 1-2 treiberrevisionen kräftig drauf optimiert und danach das ganze bis zum nächsten open-gl knaller links liegengelassen.

Hm, Doom 3 lag bei ATI schon immer ganz weit vorne bei den Anwendungen, auf die hinoptimiert wird.
Nvidia hat für Doom 3 allerdings auch ein Shaderreplacement eingebaut.
Und wahrscheinlich trägt auch das Marketing und die Berichterstattung ein wenig dazu bei, dass es so scheint, als ob ATI nur zu bestimmten Zeitpunkten nur auf bestimmte Spiele hin optimiert.

Gandharva
2005-10-22, 15:36:12
Und wahrscheinlich trägt auch das Marketing und die Berichterstattung ein wenig dazu bei, dass es so scheint, als ob ATI nur zu bestimmten Zeitpunkten nur auf bestimmte Spiele hin optimiert.

naja, kann man an den revisionsnummern des ogl-parts der ati-treiber ja recht gut sehen das dem eigendlich nicht so ist. wenns keine neuen ogl-knaller gibt macht ati am ogl-part auch nicht viel.
wenn sich die 30% nur auf 4xAA beziehen so wie demirug es sagt, waren die ankündigungen seitens ati wohl mehr heisse luft als alles andere. ich lasse mich aber auch gern eines besseren belehren.

dargo
2005-10-22, 15:37:17
70€ mehr für ne karte die bessere bq hat aber langsamer ist... ati sollte mal die preise etwas anpassen. 50€ billiger und ich bin dabei. aber meine nächste graka wird wohl sowieso 512mb ram haben.
Ich finde auch die Preise der X1800XL zu hoch.
Ca. 350€ wären ok. Man muss aber bedenken, daß die Verfügbarkeit immer noch sehr schlecht ist.

Also, weiter warten ... :(

Ich werde mich auch bald zwischen einer G7800GT und einer X1800XL entscheiden. Allerdings warte ich noch bis die Karten in die Nähe von 300€ kommen und die Treiber der X1800XL ausgereift sind, was wohl frühestens mit dem Cat. 5.11 passieren sollte.

deekey777
2005-10-22, 15:47:06
Hm, Doom 3 lag bei ATI schon immer ganz weit vorne bei den Anwendungen, auf die hinoptimiert wird.
Nvidia hat für Doom 3 allerdings auch ein Shaderreplacement eingebaut.
Und wahrscheinlich trägt auch das Marketing und die Berichterstattung ein wenig dazu bei, dass es so scheint, als ob ATI nur zu bestimmten Zeitpunkten nur auf bestimmte Spiele hin optimiert.

Es ist nicht nur Shaderreplacement, was nVidia in Doom 3 und uU in allen kommenden Spielen, die auf der Doom3-Engine basieren, zur Spitze verhelfen wird.

Spasstiger
2005-10-22, 15:51:48
Es ist nicht nur Shaderreplacement, was nVidia in Doom 3 und uU in allen kommenden Spielen, die auf der Doom3-Engine basieren, zur Spitze verhelfen wird.

Hab ich auch nie behauptet. ;)

Die gelbe Eule
2005-10-22, 15:53:21
naja, kann man an den revisionsnummern des ogl-parts der ati-treiber ja recht gut sehen das dem eigendlich nicht so ist. wenns keine neuen ogl-knaller gibt macht ati am ogl-part auch nicht viel.
wenn sich die 30% nur auf 4xAA beziehen so wie demirug es sagt, waren die ankündigungen seitens ati wohl mehr heisse luft als alles andere. ich lasse mich aber auch gern eines besseren belehren.

Dein Wort in Gottes Ohr.
Genau auf das zielt der Thread ab.

Btw, wie sieht es bei 4xAA+ aus? Wirds dann wieder langamer?

Es ist nicht nur Shaderreplacement, was nVidia in Doom 3 und uU in allen kommenden Spielen, die auf der Doom3-Engine basieren, zur Spitze verhelfen wird.

Bitte genaue Angaben wo was optimiert wurde/wird, ansonsten ist es Off Topic, es geht hier um OpenGL bei ATI, danke.

c0re
2005-10-22, 15:56:08
Nur weil die Radeon-Grafikkarten in einigen OpenGL-Anwendungen hinter nVidia zurückliegen, sagt das nichts über die OpenGL-Performance aus.

Ich dachte immer, dass alle ATI Karten in fast allen OpenGL Anwendungen im direkten Vgl. zu den jeweiligen Konkruenz Karten von nVidia den kürzeren ziehen. Bei Direct 3D hingegen, sieht die Sache, in abgeschwächter Form*, umgekehrt aus.

Alle OpenGL Benchmarks die ich bisher gesehen habe wurden von nVidia Karten angeführt.

*D.h. dass ATI Karten unter D3D gegenüber nVidia Karten nicht so einen großen Vorsprung in der Performance haben, wie nVidia Karten gegenüber ATI Karten unter OGL


Liege ich damit nicht richtig?

deekey777
2005-10-22, 15:56:34
Hab ich auch nie behauptet. ;)

IMHO sollte man den Spruch "Built to play Doom 3" ernst nehmen.
Lustigerweise führt nVidias Uber-Optimierung in Doom 3 bis vor Kurzem noch zu Fehlern: http://www.beyond3d.com/forum/showthread.php?t=23195

...

Bitte genaue Angaben wo was optimiert wurde/wird, ansonsten ist es Off Topic, es geht hier um OpenGL bei ATI, danke.

Ich hab doch einen Link zu einem Thread im B3D Forum gepostet. Wenn niemand drauf geklickt hat, ist es nicht mein Problem.

Spasstiger
2005-10-22, 15:59:22
Lustigerweise führt nVidias Uber-Optimierung in Doom 3 bis vor Kurzem noch zu Fehlern: http://www.beyond3d.com/forum/showthread.php?t=23195

Solche Klagen hab ich im IRC auch schon vernommen. Würde mir für OpenGL-Spiele aber trotzdem ne GeForce 7 holen bzw. generell eine 7800 GT, wegen dem guten Preis-Leistungsverhältnis. Nur stehe ich persönlich aus Geldmangel gar nicht vor einer Kaufentscheidung.

Die gelbe Eule
2005-10-22, 16:04:09
Ich hab doch einen Link zu einem Thread im B3D Forum gepostet. Wenn niemand drauf geklickt hat, ist es nicht mein Problem.

Würdest mal bitte beim Thema bleiben? Dort oben steht X1k, nicht NV40.
Ich wüsste nicht was dortige Probleme mit dem Performanceschub seitens ATI zu tun haben. Aber Du klärst mich bestimmt darüber auf ...

Mr. Lolman
2005-10-22, 16:05:56
Ich dachte immer, dass alle ATI Karten in fast allen OpenGL Anwendungen im direkten Vgl. zu den jeweiligen Konkruenz Karten von nVidia den kürzeren ziehen. Bei Direct 3D hingegen, sieht die Sache, in abgeschwächter Form*, umgekehrt aus.

Alle OpenGL Benchmarks die ich bisher gesehen habe wurden von nVidia Karten angeführt.

*D.h. dass ATI Karten unter D3D gegenüber nVidia Karten nicht so einen großen Vorsprung in der Performance haben, wie nVidia Karten gegenüber ATI Karten unter OGL


Liege ich damit nicht richtig?

Es kommt immer auf die Spiele draufan. Wählt man den Benchmarkparcour dementsprechend, dann versägt eine x800pro eine 6800 Ultra aufs übelste.

Und dass NV bei D³ anfangs einen enormen Vorspung hatten, liegt daran, dass NV Vorabversionen bekommen hat (auf die sie hin optimieren konnten) und ATi nicht. (zumindest nach dem Alphaleak)

Und NV muss genauso auf einzelne Apps optimieren. Auch unter D3d. Bei HL² ist der Rückstand auch nur mehr ziemlich klein, obwohl NV Karten dort anfangs chancenlos waren.

Oder, beim Gamestarbenchmark (von 1999) ist meine 9700p auch um fast 40% flotter gewesen als meine 6800GT. Man sieht also, dass es sehr schwer is pauschale Aussagen zu treffen. Deswegen ists bei den ganzen Spielereviews umso wichtiger, dass die Redakteure vorm Testen auf vergleichbare BQ achten...

Coda
2005-10-22, 16:15:04
Es kommt immer auf die Spiele draufan. Wählt man den Benchmarkparcour dementsprechend, dann versägt eine x800pro eine 6800 Ultra aufs übelste.Die hatte auch deutlich mehr Füllrate.

Xmas
2005-10-22, 16:19:12
Die hatte auch deutlich mehr Füllrate.
Die X800 Pro doch nicht.

deekey777
2005-10-22, 16:19:41
Würdest mal bitte beim Thema bleiben? Dort oben steht X1k, nicht NV40.
Ich wüsste nicht was dortige Probleme mit dem Performanceschub seitens ATI zu tun haben. Aber Du klärst mich bestimmt darüber auf ...
Ist die Luft zu dicht in deinem Zimmer? Zum Thema wurde schon ein Link von mit gepostet und zwar aus diesem Forum. Wenn du unter Tagblindheit leidest und nichts siehst, dann ist es nicht mein Problem.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600305&postcount=4

Und hier geht es um die ATIs angebliche Schwäche in OpenGL:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600408&postcount=17

Kindergarten...

Coda
2005-10-22, 16:20:02
Die X800 Pro doch nicht.Stimmt. Dann würde ich das "versägen" aber mal sehr stark in Frage stellen.

deekey777
2005-10-22, 16:24:23
Stimmt. Dann würde ich das "versägen" aber mal sehr stark in Frage stellen.

Es ging ihm eher um die Auswahl des Benchmarkparcour.
Daß er bei der Wortwahl übertreiben hat, sieht jeder. :)

Mr. Lolman
2005-10-22, 16:34:07
Wie gesagt. Es kommt auf die Spiele draufan:

Thief, NFSU2, Colin05, Sims Reihe, UT2004 wären solche Kandidaten.

PingpiN
2005-10-22, 16:41:15
Vielleicht fehlt ja Shaderreplacement... :biggrin:
Aber das ist schon Heavy. :eek:
Nur sind die Unterschiede in anderen OGL-Spielen deutlich geringer.

Bestimmt liegt am Treiber die hätten mall den 510a Treiber nehmen sollen.. :biggrin:

reunion
2005-10-22, 16:56:29
Ist die AAx4 Community so groß, das man so schnell handeln musste? Viele spielen nur default und 10x7.

Stört es dich, dass man "so schnell" gehandelt hat?
Oder wozu die Aufregung?

Coda
2005-10-22, 17:09:52
Thief, NFSU2, Colin05, Sims Reihe, UT2004 wären solche Kandidaten.Das wage ich aber mal zu bezweifeln, wenn man bei in Full-Quality benched.

Vor allem UT2004 ist primär fillrate-bound auf GPU-Seite.

Wixi
2005-10-22, 17:53:00
Vllt liegt die OpenGL Schwäche net an Ati(egal ob Hardware oder Treiber),sondern vllt. sogar an id software!NV hat sie vllt bezahlt.Das ist doch eigentlich die einzige Spieleschmiede die auf OpenGL setzt.Und da die ja die Quake3 und Doom3 Engine entwickelt haben und die meisten OpenGL Games darauf basieren denkt man dass die Radeons generell in OpenGl zurück liegen.Aber das ist alles reine Spekulation ^^
Viel Spaß! :D

Mr. Lolman
2005-10-22, 17:53:03
Das wage ich aber mal zu bezweifeln, wenn man bei in Full-Quality benched.

Vor allem UT2004 ist primär fillrate-bound auf GPU-Seite.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004

Coda
2005-10-22, 18:01:31
Ich geb nen scheiß auf Computerbase? Was weiß ich was die wieder vermurkst haben.

Mr. Lolman
2005-10-22, 18:16:46
Ich geb nen scheiß auf Computerbase? Was weiß ich was die wieder vermurkst haben.


Die haben diesmal ausnahmsweise nix vermurkst, sondern als einzige die NV Karten mit HQ gebencht.

Coda
2005-10-22, 18:19:51
Die Radeons auch? Und komm mir nicht mit "vergleichbarer Bildqualität".

Mr. Lolman
2005-10-22, 18:20:43
Die Radeons auch? Und komm mir nicht mit "vergleichbarer Bildqualität".

Warum nicht?

Coda
2005-10-22, 18:21:20
Weil es einfach nicht wahr ist. Ich hatte bei meinen Radeons auch immer alle Optimierungen aus.

Catalyst A.I.: StandardDa haben wir's doch.

Die gelbe Eule
2005-10-22, 18:31:20
Ist die Luft zu dicht in deinem Zimmer? Zum Thema wurde schon ein Link von mit gepostet und zwar aus diesem Forum. Wenn du unter Tagblindheit leidest und nichts siehst, dann ist es nicht mein Problem.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600305&postcount=4

Und hier geht es um die ATIs angebliche Schwäche in OpenGL:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600408&postcount=17

Kindergarten...

Wenn dem so ist, warum musst dann nur noch OffTopic posten?
Du hast mir kein einziges Spiel gezeigt, wo ATI in OpenGL vorne liegt, weil Du meinst, hier werden nur NV optimierte als Vergleich herangezogen. Wenig später sagst, es gibt keines oder Dir ist nichts bekannt. Schizophren oder nur rumtrollen?

Zeig mir ein fukin OpenGL Game wo ATI schneller ist, wenn nicht, halte Dich fern von Diskussionen, wo Du nur reintrollst.

Mr. Lolman
2005-10-22, 18:31:20
Ich hab mir tatsächlich nach langer Zeit mal wieder eine PCGH geleistet, weil schon mehrmals im Forum angedeutet wurde, dass die eine nette BQ betrachtung in ihrem aktuellen Heft haben.

Lt. denen gibts bei HL² NV40/G70 + 78.03 unter Quality "Deutliches Flimmern" mit HQ "Flimmert etwas" und mit R420 und AIon/off "Minimales Flimmern"

Bei Riddick zeigt der G70 mit 78.03 und Quality "starkes Flimmern" während beim NV40 nur "Deutliches Flimmern" zu sehen ist. Unter HQ "Flimmert etwas" bei beiden NV Chips; während beim R420 wieder nur "Minimales Flimmern" sichtbar ist.



BTW: Bei HL² hat selbst eine FX5900 mit 78.03 und Q eine schlechtere Qualität als der R420 (NV30: Bugwelle sichtbar)

Als Beleg gibts auf der CD 7 Videos bezügl. dieser Problematik.

Mr. Lolman
2005-10-22, 18:35:31
Zeig mir ein fukin OpenGL Game wo ATI schneller ist,

Schau dir im Benchmarkforum die Call of Duty Benchmarks an.

/edit: auch damals bei JK1, waren die Radeon 8500en schon flotter als die kleinen GF4s..

mindfaq
2005-10-22, 18:35:59
Vllt liegt die OpenGL Schwäche net an Ati(egal ob Hardware oder Treiber),sondern vllt. sogar an id software!NV hat sie vllt bezahlt.Das ist doch eigentlich die einzige Spieleschmiede die auf OpenGL setzt.Und da die ja die Quake3 und Doom3 Engine entwickelt haben und die meisten OpenGL Games darauf basieren denkt man dass die Radeons generell in OpenGl zurück liegen.Aber das ist alles reine Spekulation ^^
Viel Spaß! :DWie man an Riddick sieht, liegen die Radeons nicht nur bei id-Spielen in OpenGL hinten. Hier sogar noch extremer als in Doom3.
Also mal Schluss mit den Verschwörungstheorien. ;)

Dass Computerbase NV-Karten auf HQ und Array Tech.-Karten mit A.I.:Standard bencht, ist besimmt nich das Wahre.
Wenn, dann sollten die Optimierungen ebenso bei den Radeons abgeschaltet werden.

Mr. Lolman
2005-10-22, 18:38:02
Dass Computerbase NV-Karten auf HQ und Array Tech.-Karten mit AI:Standard bencht, ist besimmt nich das Wahre.
Wenn, dann sollten die Optimierungen ebenso bei den Radeons abgeschaltet werden.

Warum, wenns keinen merkbaren Unterschied zw. AIon/off gibt. http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3601498&postcount=80

Coda
2005-10-22, 18:47:54
Das ist doch subjektiv. Es gibt auch noch andere Aussagen über einen Texturfilter als das flimmern.

deekey777
2005-10-22, 18:48:42
Warum, wenns keinen merkbaren Unterschied zw. AIon/off gibt. http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3601498&postcount=80

Es gibt definitiv ein "Problem", das ich als Cheat bezeichnen würde, wenn man für HL2 das AI aktiviert.
Wenn dem so ist, warum musst dann nur noch OffTopic posten?
Ich chatte nicht mit dir, sondern diskutoere auch mit anderen. Deine Ausgangsfrage wurde gleich beantwortet, worauf du immernoch keine Stellungsnahme bezogen hast.

Du hast mir kein einziges Spiel gezeigt, wo ATI in OpenGL vorne liegt, weil Du meinst, hier werden nur NV optimierte als Vergleich herangezogen. Wenig später sagst, es gibt keines oder Dir ist nichts bekannt. Schizophren oder nur rumtrollen?
Was willst du mit einem Spiel, wo ATi vorne liegt? Was soll das beweisen? Wenn du zu dumm zu kapieren bist, daß einzelne OpenGL-Spiele nichts über die Qualität der OpenGL-Treiber aussagen, ist es nicht mein Problem.


Zeig mir ein fukin OpenGL Game wo ATI schneller ist, wenn nicht, halte Dich fern von Diskussionen, wo Du nur reintrollst.
Schreib mir vor, wo ich schreiben soll und wo nicht.

Die gelbe Eule
2005-10-22, 18:49:41
Aus Prinzip, damit jeder sehen kann es wird gleichwertig gebencht und nicht einer dadurch einen Vorteil bekommnt indem man es wegläßt. Muss nicht sein, sollte aber zum guten Ton gehören.

Mr. Lolman
2005-10-22, 18:53:42
Das ist doch subjektiv. Es gibt auch noch andere Aussagen über einen Texturfilter als das flimmern.

Kommt drauf an wie sehr man die gewichtet. Mich irritiert das Flimmern halt am meisten. Zur Erinnerung meine Q3a-gifs:

NV40 4xAA/16xAF treiberdefault: http://img345.imageshack.us/img345/8628/default77761jd.gif
R3x0 4xAA/16xAF treiberdefault: http://img306.imageshack.us/img306/8826/ati0hz.gif

NV40 4xAA/16xAF HQ: http://img306.imageshack.us/img306/6320/nv3yc.gif
NV40 4xAA/16xAF Q ohne optimierungen: http://img334.imageshack.us/img334/6652/nvq3sc.gif

Die gelbe Eule
2005-10-22, 18:55:05
Was willst du mit einem Spiel, wo ATi vorne liegt? Was soll das beweisen? Wenn du zu dumm zu kapieren bist, daß einzelne OpenGL-Spiele nichts über die Qualität der OpenGL-Treiber aussagen, ist es nicht mein Problem.

Das Deine These stimmt.



Schreib mir vor, wo ich schreiben soll und wo nicht.

Stell Behauptungen auf die nicht stimmen ...

Mr. Lolman
2005-10-22, 18:56:47
Es gibt definitiv ein "Problem", das ich als Cheat bezeichnen würde, wenn man für HL2 das AI aktiviert.


Ist mir bekannt. Gleichzeitig stellt sich auch die Frage ob die fehlenden Schatten vom NV Bild (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3596791&postcount=214) nur ne Einstellungssache waren, oder ob da auch ne Optimierung aktiv ist...

Die gelbe Eule
2005-10-22, 18:58:51
Kann ich testen. Moment Lolman.

Treiberbug schätze ich, ist der 81.85, vorher war das nicht so.
r_shadows ist auf 1. Und ich bin kein cfg noob ...^

*edit*

Schlagt mich, ka wo die Schatten in dem Lvl hin sind, woanders habe ich sie.

Vielleicht deswegen:

Initializing renderer...
Warning: using WorldTwoTextureBlend on a non-displacement surface (material: nature/red_grass). Support for this will go away soon.

*edit2*

Das Lvl läßt sich nicht mit Schatten laden, nur beim Neustart eines kompletten Spiels.

http://img416.imageshack.us/img416/7646/hl26dw.th.jpg (http://img416.imageshack.us/my.php?image=hl26dw.jpg)

Blaire
2005-10-22, 20:39:41
Kann auch am Spiel selber liegen, würde mich nicht wundern...

MikBach
2005-10-22, 22:28:27
Ich geb nen scheiß auf Computerbase? Was weiß ich was die wieder vermurkst haben.
Auch auf Raff?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3369678&postcount=40
80% schneller mit Q wie mit HQ...
Vielleicht erklärt das die Ergebnisse von UT2004...

mindfaq
2005-10-22, 22:50:48
Eine 7800GTX verliert mit HQ kaum noch an Leistung.
Bei der 6er-Serie war das anders, das stimmt.

Aber auch die Optimierungen von ATI sind durchaus mit dem Auge zu erkennen in manchen Spielen. Sie sind nur nicht ganz so offensichtlich wie bei NV.

Dennoch sollte man zum Benchen die Optimierungen auf beiden Seiten ausschalten.

Coda
2005-10-22, 22:52:04
Ich weiß das der Unterschied beachtlich ist, aber ich gebe nichts auf Benchmarks wo ATi nicht auch höchste Qualität fährt. Vor allem wird da oft gemogelt was Texturestages >1 betrifft. Dieser Unterschied kann nicht von der Chiparchitektur begründet sein bei fast identischer Füllrate (und das ist was in diesem Spiel zählt, nichts anderes).

HQ ist bei nVIDIA auch mit den anderen abgeschalten "Optimierungen" gekoppelt, die bei ATi auf AI-Standard noch drin sind.

MikBach
2005-10-22, 22:57:55
Ich weiß das der Unterschied beachtlich ist, aber ich gebe nichts auf Benchmarks wo ATi nicht auch höchste Qualität fährt.
Du meinst mit AI-off?
Das Problem ist, dass auch die "gutem" Optimierungen ausgeschaltet werden..

Vor allem wird da oft gemogelt was Texturestages >1 betrifft. Dieser Unterschied kann nicht von der Chiparchitektur begründet bei fast identischer Füllrate.
Interessant...
Kanst du das auch begründen?
Mir kam es immer so vor, dass meine 6800GT immer in stressigen Situationen (wie Kurven bei Rennspielen) immer eingebrochen ist. Das war nur mit AF der Fall. Mit der X800 gibt es dies Probleme nicht, oder sagen wir besser nicht in diesem Umfang...

Coda
2005-10-22, 23:04:42
Du meinst mit AI-off?
Das Problem ist, dass auch die "gutem" Optimierungen ausgeschaltet werden..Ja, das ist aber nicht nVIDIAs Schuld.

Die Krux an der Sache ist doch das man einfach keine vergleichbaren Bedingungen schaffen kann. Daran sind aber die Hersteller schuld die bei ihren Treibern keine exakten Einstellungen zulassen.

Vor allem ATi ist da schlimm, man kann AI gar nicht ganz ausschalten weil man dann "gute" Optimierungen verhindert, bekommt aber im Gegenzug auch "böse".

Ich finde mehr Transparenz wäre für die Kunden einfach besser.

Kanst du das auch begründen?Was soll man da begründen. Der TMU-Output von NV40 und R420 ist pro Cycle fast identisch mit gleichen Filtereinstellungen, somit sehe ich nicht ein warum der eine Chip so massiv viel schneller sein sollte.

Die X800XT ist in Füllraten limitierten Spielen wirklich schneller, weil sie eben mehr davon hat. Dagegen sag ich ja gar nichts. Aber bei X800Pro vs. 6800GT finde ich solche Ergebnisse schon sehr bedenklich und würde gerne genauer hinsehen und nicht nur auf die Balkenlänge schauen.

Wixi
2005-10-22, 23:05:20
Wie man an Riddick sieht, liegen die Radeons nicht nur bei id-Spielen in OpenGL hinten. Hier sogar noch extremer als in Doom3.


schon gut,ich ergeb mich :D
aber woran liegts dann?liegts schlicht und ergreifend einfach an der ati-architektur oder wie?kein plan....

Mr. Lolman
2005-10-22, 23:15:45
Eine 7800GTX verliert mit HQ kaum noch an Leistung.
Bei der 6er-Serie war das anders, das stimmt.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3602219&postcount=8

Coda
2005-10-22, 23:16:03
Am anscheinend schlechteren OpenGL-Treiber von ATi. (und nein, der OpenGL-AA-Fix für R520 hat damit nichts zu tun).

Mr. Lolman
2005-10-22, 23:18:02
Am anscheinend schlechteren OpenGL-Treiber von ATi. (und nein, der OpenGL-AA-Fix für R520 hat damit nichts zu tun).

Warten wir mal Serious Sam 2 Benchmarks ab...

Wixi
2005-10-22, 23:20:25
stimmt.also immernoch keine "lösung" für ati user.nur ne kleine verbesserung für x1800 user.also würd ein neuer opengl treiber mehr performance bringen!?

Coda
2005-10-22, 23:24:35
Auf jeden Fall. Daran arbeitet ATi zur Zeit aber anscheinend.

MikBach
2005-10-22, 23:44:30
Was soll man da begründen. Der TMU-Output von NV40 und R420 ist pro Cycle fast identisch mit gleichen Filtereinstellungen, somit sehe ich nicht ein warum der eine Chip so massiv viel schneller sein sollte.
:confused:
Schau dir einfach mal die Benchmarks an...

Mit der reinen Theorie ist hier schon mal ein Guru auf die Nase gefallen...
Aber bei X800Pro vs. 6800GT finde ich solche Ergebnisse schon sehr bedenklich und würde gerne genauer hinsehen und nicht nur auf die Balkenlänge schauen.
Schau dir mal Rennspiele an. *hint* :)

Coda
2005-10-22, 23:47:18
:confused:
Schau dir einfach mal die Benchmarks an...HQ vs. AI-Standard? Brilinear bei ATi und noch andere tolle Dinge?

MikBach
2005-10-22, 23:52:38
HQ vs. AI-Standard? Brilinear bei ATi und noch andere tolle Dinge?
Hast du mit AI-low gespielt?
Der Unterschied ist wirklich sehr gering zu AI-off.
Man kann Stellen finden, wo es deutlich wird, das ist aber eher die Ausnahme als die Regel...

Coda
2005-10-22, 23:53:32
HQ mit den anderen Optimierungen wäre bei nVIDIA auch fast identisch. Nur gibt es das nicht.

AI-low vs. HQ ist nicht fair weil da bei ATi die App-Profile aus sind, AI-Standard vs. HQ ist aber genauso unfair weil ATi da dann zuviel andere "Optimierungen" betreibt.

Da ich sowieso immer volle Qualität einstelle ist mir da der nV-Ansatz eigentlich sogar lieber, weil ich die trotz App-Profilen noch bekomme.

MikBach
2005-10-22, 23:57:40
HQ mit den anderen Optimierungen wäre bei nVIDIA auch fast identisch. Nur gibt es das nicht.
Das ist eben Pech...
Soll doch NV bei Quality eine BQ anbieten, die ausreichend ist, dann ist das Thema eh gegessen...

Coda
2005-10-23, 00:01:48
Die Bildqualität von HQ ist völlig ausreichen.

Soll ATi lieber mal dran arbeiten HQ zu erlauben ohne die App-Profile zu deaktivieren. Das wäre mir lieber. Weil so hat man immer nur die Wahl zwischen zwei Übeln bei AI.

Mir reicht die ach-so-tolle AI-Default BQ nämlich nicht, da ist die von nV nämlich besser, auch wenn ihr das nicht wahrhaben wollt (mal ganz abgesehen vom R520 AF)

Mr. Lolman
2005-10-23, 00:03:02
HQ vs. AI-Standard? Brilinear bei ATi und noch andere tolle Dinge?

Zumindest bei UT2004 wird auf NV Karten auch mit HQ brilinear gefiltert. Und wer weiss was da sonst noch so alles aktiv ist. Die Flimmerproblematik beim G70 war ja bis vor kurzem überdeutlich.

Man kann ja sich auf nen Kompromiß einigen. PCGH meint, dass ATI/AI besser als 78.03 HQ, du meinst es ist schlechter. Sagen wir es ist gleichgut X-D

deekey777
2005-10-23, 00:03:06
Hast du mit AI-low gespielt?
Der Unterschied ist wirklich sehr gering zu AI-off.
Man kann Stellen finden, wo es deutlich wird, das ist aber eher die Ausnahme als die Regel...

Ich hab mit AI Standard gespielt... Jetzt spiele ich ohne.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3588552#post3588552

MikBach
2005-10-23, 00:05:57
Ich hab mit AI Standard gespielt... Jetzt spiele ich ohne.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3588552#post3588552
Ja, der Bug in HL2 mit AI...

Coda
2005-10-23, 00:06:05
Zumindest bei UT2004 wird auf NV Karten auch mit HQ brilinear gefiltertDas hätte ich bemerkt.

deekey777
2005-10-23, 00:07:39
Ja, der Bug in HL2 mit AI...

Dieser "Bug" existiert seit dem cat. 5.6 und bringt einiges an Performance. Für mich ist es ein Cheat.

MikBach
2005-10-23, 00:08:02
Das hätte ich bemerkt.
Das hast du aber nicht... :)
Lolman hat Recht.

Coda
2005-10-23, 00:09:15
Zumindest mit dem derzeitigen Treiber habe ich definitiv kein brilinear in UT2004.

Mr. Lolman
2005-10-23, 00:15:48
Zumindest mit dem derzeitigen Treiber habe ich definitiv kein brilinear in UT2004.

Glaub ich nicht. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3220967&postcount=85) Mach mal einen Screenshot mit "firstcoloredmip 1"

UT2004-AFBlumenlevel:

MikBach
2005-10-23, 00:18:16
Dieser "Bug" existiert seit dem cat. 5.6 und bringt einiges an Performance. Für mich ist es ein Cheat.
Danke. :)
Jetzt weiss ich, was los ist....

Ailuros
2005-10-23, 01:43:39
Aechz zu den antiken GPUs, aechz zu den antiken Spielen, aechz zu den endlosen Konspirations-theorien wo angeblich alle Entwickler die je in OGL entwickelt haben ATI mit Absicht benachteiligen oder weiss der Henker was noch.

Falls uebrigens alles so sein sollte mit dem OGL Treiber bei ATI wuerden sie auch nicht im Hintergrund versuchen, das ganze Ding von Grund auf wiederzuschreiben.

Wie dem auch sei ist der memory controller/OGL/AA-fix auf keinen Fall eine unlegitime Optimierung und auch kein fauler Marketing-Trick.

Was jetzt die endlose Trommelei mit dem Filterung-Mist betrifft ziemlich verstaendlich wenn ich sehe von wo es bis zum geht nicht mehr wiedergekaut wird und auch warum.

Ailuros
2005-10-23, 01:45:24
Glaub ich nicht. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3220967&postcount=85) Mach mal einen Screenshot mit "firstcoloredmip 1"

UT2004-AFBlumenlevel:

Ich wuerde erstmal fragen, wer zum Henker UT2k4 in 1280 mit 8xS und 16xAF spielen wuerde. Einen mieseren Fall wo die Leistung noch drastischer reduziert wird, konntest Du wohl nicht finden oder?

Mr. Lolman
2005-10-23, 02:22:28
Ich wuerde erstmal fragen, wer zum Henker UT2k4 in 1280 mit 8xS und 16xAF spielen wuerde. Einen mieseren Fall wo die Leistung noch drastischer reduziert wird, konntest Du wohl nicht finden oder?

Ich würds schon spielen, wenn die Performance reicht. Denn mit 4xAA hab ichs schon auf der 9700p spielen können (auch 1280, aber nur Performance AF).

BTW: 1600x1200/4xAA braucht auch nur ~10% weniger Füllrate als 1280, 8xS

Ailuros
2005-10-23, 02:50:13
Ich würds schon spielen, wenn die Performance reicht. Denn mit 4xAA hab ichs schon auf der 9700p spielen können (auch 1280, aber nur Performance AF).

BTW: 1600x1200/4xAA braucht auch nur ~10% weniger Füllrate als 1280, 8xS

Die ONS-maps sind gerade noch spielbar auf einer NV40 mit 4xAA/16xAF in 1280 nach meinem Geschmack, eine 9700pro schon gar nicht. Von hybriden modi in der Aufloesung wuerde ich schon gar nicht reden.

UT2k4 ist fuer mich erstmal auf der G70 + Athlon FX durch und ganz spielbar geworden in 1600 + 4xAA/16xAF ohne dass ich das eine oder andere setting reduzieren muss.

Primeval ist der schlimmste Fall in UT2k4, aber die von Dir angegebenen 30fps sind fuer mich nicht spielbar.

Mr. Lolman
2005-10-23, 02:56:54
Die ONS-maps sind gerade noch spielbar auf einer NV40 mit 4xAA/16xAF in 1280 nach meinem Geschmack

Ja damit erreich ich 30fps bei Primeval und HQ. Meine 9700p@400 hat das auch geschafft (mit 4x Performance AF, aber das war eh noch prä-AI-Ära)


Primeval ist der schlimmste Fall in UT2k4, aber die von Dir angegebenen 30fps sind fuer mich nicht spielbar.

Für mich auch nicht. Deswegen muss sowohl bei der 6800GT als auch bei der 9700p die Ingamedetails reduzieren...

c0re
2005-10-23, 05:02:12
Ich zock UT04 auf 1280 x 1024 mit allen Details + 2 x AA / 16 x HQ AF. Damit ist s auch in brenzlichen Situationen rel. flüssig, auch wenn mal 8 vs 8 mit allem drum dran gleichzeitig rumballern in der Map Primeval (da aber gerade so...).

Ansonsten, wenn wenig Leute spielen, kann ich auch o.g. Setting mit 8 xS x AA fahren... sobald dann aber mehrere Leute, mit Fahrzeugen usw. gleichzeitig in ein Gefecht verwickelt sind, wirds ruckelig.

Tomcat70
2005-10-23, 06:04:18
Quake 4 High-end Graphics Shootout

http://firingsquad.com/hardware/quake_4_high-end_performance/page5.asp

reunion
2005-10-23, 11:01:19
Weil es einfach nicht wahr ist. Ich hatte bei meinen Radeons auch immer alle Optimierungen aus.


Auf einem R300 vielleicht, da wurden auch alle Texturstages >0 bi gefiltert.
Auf R420 würdest du das sicherlich nicht mehr tun IMO.

Wixi
2005-10-23, 12:34:50
Quake 4 High-end Graphics Shootout

http://firingsquad.com/hardware/quake_4_high-end_performance/page5.asp


liege ich richtig wenn ich sage dass die performance sich nochmal erhöhen würde mit einem besseren opengl treiber?das würde auch alle anderen radeons schneller machen oder?

Tarkin
2005-10-23, 13:14:26
Quake 4 High-end Graphics Shootout

http://firingsquad.com/hardware/quake_4_high-end_performance/page5.asp

Firingsquad kalkuliert falsch... seite 3 z.b.:

X1800XT verbessert sich von 53fps auf 79fps. Dies entspricht einer Steigerung von satten 50%! (nicht 36%)

mal abgesehen davon... diese Steigerung ist absoluter Wahnsinn IMO! Mit dem Hotfix kommt die X1800XL fast an GTX Performance heran.

aber seht selbst:

Quake4

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/q4patch1600.gif

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/q4patch2048.gif

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/quake1600aa.gif

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/quake2048aa.gif


Doom3:

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/d31600.gif

http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/d32048.gif


:eek:

Botcruscher
2005-10-23, 13:22:25
mal abgesehen davon... diese Steigerung ist absoluter Wahnsinn IMO!
:eek:


Ich hab ja bei den ersten previews gesagt das die X1k nur auf den erstenblick eine Entäuschung ist.

Jetzt herscht wieder kompleter gleichstand zwischen Ati und NV. Für den Normalkäufer heißt es warten bis Ati die schlechten XL Chips verramscht hat und sich dann in aller Ruhe zu entscheiden, ob es eine XL oder GT werden soll. :)

Die gelbe Eule
2005-10-23, 13:34:17
Wir sind immernoch 2 Wochen von einer Verfügbarkeit entfernt und NV legt ja bekanntlich nach.

Aber was sehen wir an den Bildern was zum Thema gehört?

Richtig!

Eine X800XL profitiert gar nicht davon, nein, sie wird sogar langsamer.
Somit bleibt der Performancesprung nur neuen Karten vorbehalten und wer gleichwertige OPenGL Performance haben möchte, muss wohl oder übel umsteigen.

Mich würde trotzdem interessieren, wo genau die FPS herkommen.

reunion
2005-10-23, 13:45:04
Zeig mir ein fukin OpenGL Game wo ATI schneller ist, wenn nicht, halte Dich fern von Diskussionen, wo Du nur reintrollst.

Das ist durch die vermurksten Speichercontrollereinstellungen beim R520 in OpenGL aktuell nicht möglich, mit dem Treiberfix zieht R520 allerdings selbst in Doom3 an G70 vorbei, womit deine These vom schlechten OpenGL-Treiber widerlegt ist.

Am anscheinend schlechteren OpenGL-Treiber von ATi. (und nein, der OpenGL-AA-Fix für R520 hat damit nichts zu tun).

Dieser "OpenGL-AA-Fix" reicht aber offenbar, um den "ach' so schlechten" OpenGL-Treiber "auszugleichen".

Coda
2005-10-23, 13:47:52
Dieser "OpenGL-AA-Fix" reicht aber offenbar, um den "schlechten" OpenGL-Treiber "auszugleichen".Sag ja gar nichts dagegen. Dann sehen wir in Zukunft halt nochmal nen Leistungssprung.

deekey777
2005-10-23, 13:49:31
Wir sind immernoch 2 Wochen von einer Verfügbarkeit entfernt und NV legt ja bekanntlich nach.

Aber was sehen wir an den Bildern was zum Thema gehört?

Richtig!

Eine X800XL profitiert gar nicht davon, nein, sie wird sogar langsamer.
Somit bleibt der Performancesprung nur neuen Karten vorbehalten und wer gleichwertige OPenGL Performance haben möchte, muss wohl oder übel umsteigen.

Mich würde trotzdem interessieren, wo genau die FPS herkommen.


In our RADEON X1800 XT Performance Preview article, we mentioned how ATI’s new memory controller features arbitration logic that is more efficient at assigning read/write requests to the X1800’s eight 32-bit memory controllers. The arbitration logic accomplishes this by collecting a variety of information from each memory controller when it makes a read or write request. With the help of algorithms, the arbitration logic assigns a priority value to each of these requests based on this data.

The arbitration logic can then track how successful it was at assigning these priority values, making adjustments to ensure peak efficiency.

One cool feature ATI has added to their X1000 family is the ability to make changes to the memory controller’s arbitration logic and/or its algorithms via software. This allows ATI to make adjustments with a simple driver update.

This is what ATI has done with their new hotfix driver, they’ve simply optimized memory access inside their memory controller to better handle OpenGL titles. This is all invisible to the end user: once an OpenGL game such as Quake 4 or DOOM 3 is loaded by the user, the new driver automatically loads up the optimized algorithms for the memory controller’s arbitration logic.
[...]

With the proper driver in hand, it’s now time to see if the reports of a 35% performance improvement are true. We’ll start with DOOM 3 first.

Am anscheinend schlechteren OpenGL-Treiber von ATi. (und nein, der OpenGL-AA-Fix für R520 hat damit nichts zu tun).

Worauf bezieht sich diese Aussage?

reunion
2005-10-23, 13:56:26
Eine X800XL profitiert gar nicht davon, nein, sie wird sogar langsamer.

Sie ist im Rahmen der Messungenauigkeit gleichschnell, was allerdings auch kein Wunder ist, da der neue Speichercontroller eben nur den R5xx-Karten vorbehalten ist. Und wo die Hardwareunterstütztung fehlt, kann auch der Treiber logischerweise nichts richten.


Somit bleibt der Performancesprung nur neuen Karten vorbehalten und wer gleichwertige OPenGL Performance haben möchte, muss wohl oder übel umsteigen.


Die R420-Serie ist in OpenGL nicht wirklich langsamer als vergleichbare nV-Produkte, einzig die R520-Serie wurde in OpenGL durch falsche Einstellungen arg ausgebremst, was man durch diesen Fix behoben hat.



Mich würde trotzdem interessieren, wo genau die FPS herkommen.

Angesichts dessen, dass der Grund dafür schon zig-mal erwähnt wurde, grenzt diese Frage schon fast an Neurose.

Armaq
2005-10-23, 13:59:38
Die R4xx Serie ist in OpenGl langsamer (verglichen mit Nv4x).

reunion
2005-10-23, 14:01:36
Eine 7800GTX verliert mit HQ kaum noch an Leistung.
Bei der 6er-Serie war das anders, das stimmt.



Würde mich mal intressieren, woran das liegt. Ich verliere mit meiner 6600GT bis zu 50% (in der Regel 10-20%), G70 verliert plötzlich kaum noch an Leistung, zumindest ungewöhnlich.

Coda
2005-10-23, 14:02:17
Vielleicht limitiert der Speicher ja bei der Karte?

deekey777
2005-10-23, 14:03:19
Die R4xx Serie ist in OpenGl langsamer (verglichen mit Nv4x).

Ja (http://www.anandtech.com/video/showdoc.aspx?i=2383&p=3), aber nicht immer.

Coda
2005-10-23, 14:07:23
Die Quadro FX4000 ist auch ein NV4x.

Ailuros
2005-10-23, 14:09:18
Auf einem R300 vielleicht, da wurden auch alle Texturstages >0 bi gefiltert.
Auf R420 würdest du das sicherlich nicht mehr tun IMO.

Auch R420/520 haben was den alten AF modus betrifft texturing stage Optimierungen.

dargo
2005-10-23, 14:10:25
Endlich vernünftige Performance in OpenGL Spielen (speziell hier Q4). :up:
Jetzt muss sie nur noch auf ~350€ fallen dann schlage ich zu. :biggrin:

Ailuros
2005-10-23, 14:10:41
Würde mich mal intressieren, woran das liegt. Ich verliere mit meiner 6600GT bis zu 50% (in der Regel 10-20%), G70 verliert plötzlich kaum noch an Leistung, zumindest ungewöhnlich.

8 vs. 24 TMUs; guten Morgen ;)

Coda
2005-10-23, 14:12:42
Das würde doch am relativen Leistungseinbruch nichts ändern.

deekey777
2005-10-23, 14:12:49
Die Quadro FX4000 ist auch ein NV4x.

Ja.
http://www.anandtech.com/video/showdoc.aspx?i=2383&p=1

Ailuros
2005-10-23, 14:14:15
Uebrigens will ich jetzt sehen inwiefern die engine die Doom3 benutzt weniger als "besch***en" angesehen wird, jetzt wo die Leistung ploetzlich stimmt LOL.

reunion
2005-10-23, 14:14:23
8 vs. 24 TMUs; guten Morgen ;)

Ganz blöd bin ich auch nicht. Selbst mit 16xSSAA ist der Leistungsverlust auf einem G70 viel geringer.

Coda
2005-10-23, 14:15:40
Das Bild ist aber identisch in HQ zu NV4x mit entsprechenden Treibern. Also wirklich identisch.

Ailuros
2005-10-23, 14:16:15
Das würde doch am relativen Leistungseinbruch nichts ändern.

Ich koennte ja versuchen 4 quads abzuschalten und auf 500/500MHz takten, aber ich bin zu faul dazu.

Ailuros
2005-10-23, 14:21:03
Firingsquad kalkuliert falsch... seite 3 z.b.:

X1800XT verbessert sich von 53fps auf 79fps. Dies entspricht einer Steigerung von satten 50%! (nicht 36%)

mal abgesehen davon... diese Steigerung ist absoluter Wahnsinn IMO! Mit dem Hotfix kommt die X1800XL fast an GTX Performance heran.

Ich erwarte eher zukuenftige 512MB Resultate denn das hier zeigt mir was anderes:

http://firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1600aa.gif

http://firingsquad.com/hardware/quake_4_high-end_performance/page8.asp

Ailuros
2005-10-23, 14:22:56
Ganz blöd bin ich auch nicht. Selbst mit 16xSSAA ist der Leistungsverlust auf einem G70 viel geringer.

Ich hab ja nicht gesagt oder angedeutet dass Du bloed bist. Ich hab nur versucht Deine Frage zu beantworten.

Spasstiger
2005-10-23, 14:27:03
Wow, solche Spielflussdimensionen ist man bei ATI in Doom-3-Engine-Games gar nicht gewohnt:

http://firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra2048aa.gif

Man beachte die X1800 XT (ein Verdienst des 512 MB großen Speichers).

Auch nicht schlecht:
http://firingsquad.com/hardware/quake_4_high-end_performance/images/quake2048aa.gif

Die X1800 XL kann sich deutlich von der 7800 GT absetzen. Und zwischen High- und Ultra-Quality dürfte ja wieder mal der einzige Unterschied die Texturkompression sein, oder irre ich mich da?

Ailuros
2005-10-23, 14:29:08
Das würde doch am relativen Leistungseinbruch nichts ändern.

Von der Fuellrate steril gesehen tatsaechlich nicht; die Fuellraten zu Bandbreiten Relation aber dann schon. An den Framebuffer wuerde ich es nicht haengen denn ich sah keine 50% Einbrueche auf der 128MB 6800.

Hat man jetzt auch noch MSAA eingeschaltet, kommt die Anzahl der ROPs noch dazu.

Ailuros
2005-10-23, 14:35:25
Die X1800 XL kann sich deutlich von der 7800 GT absetzen. Und zwischen High- und Ultra-Quality dürfte ja wieder mal der einzige Unterschied die Texturkompression sein, oder irre ich mich da?

AFAIK ja.

StefanV
2005-10-23, 14:43:34
Das würde doch am relativen Leistungseinbruch nichts ändern.
Doch, würde es, da man die Karte etwas anders auslegen müsste und man auch ein anderes Speicherinterface hat...

Außerdem wird der Overhead größer, je mehr man auf einer Karte hat...

Coda
2005-10-23, 14:52:04
Von der Fuellrate steril gesehen tatsaechlich nicht; die Fuellraten zu Bandbreiten Relation aber dann schon. An den Framebuffer wuerde ich es nicht haengen denn ich sah keine 50% Einbrueche auf der 128MB 6800.Hab ich ja auch schon geschrieben. Vermutlich ist G70 auf Q schon bandbreitenlimitiert.

Die gelbe Eule
2005-10-23, 15:07:00
Und wer bitte hat einen Monitor um unter 2048x1536 zu spielen? Für 99,5% aller User sind diese Werte uninteressant, sry.

BUG
2005-10-23, 15:08:51
..vieleicht sollte man mal ein paar Spiele benchen die default D3D bieten sich aber per INI auf OpenGL umstellen lassen. Mir fällt da spontan FarCry, UT2003/2004 und Serious Sam 2 ein, ggf auch mal den OpenGL Mark wobei der wohl recht CPU limitiert ist. ;)

Für FarCry und UT gibts ja auch ein paar nette TimeDemos die man unter OpenGL testen könnte. Ich weis nur nich ob UT2K3/2K4 auf ATI Karten überhaupt richtig (fehlerfrei) läuft, früher gabs da mal Probleme mit der Wasserdarstellung. Vieleicht läuft UT2K3/2k4 in OpenGL auf dem NV4x/G7x auch mit Trilinearer Filterung bei HQ?!

cu
BUG

Spasstiger
2005-10-23, 15:12:01
Und wer bitte hat einen Monitor um unter 2048x1536 zu spielen? Für 99,5% aller User sind diese Werte uninteressant, sry.

Wenn dir diese Einstellungen lieber sind:

http://firingsquad.com/hardware/quake_4_high-end_performance/images/quake1280aa.gif

http://firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1280aa.gif

Ailuros
2005-10-23, 15:15:24
Und wer bitte hat einen Monitor um unter 2048x1536 zu spielen? Für 99,5% aller User sind diese Werte uninteressant, sry.

Ιch :P

Winter[Raven]
2005-10-23, 15:16:10
Ich erwarte eher zukuenftige 512MB Resultate denn das hier zeigt mir was anderes:

http://firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1600aa.gif

http://firingsquad.com/hardware/quake_4_high-end_performance/page8.asp

So siehts aus, ist schon wirklich komischer Vergleich ... 512 vs. 256 ...

Q4 Profitiert sehr von der Graka und erst gar vom Speicher.

Ailuros
2005-10-23, 15:18:12
Hab ich ja auch schon geschrieben. Vermutlich ist G70 auf Q schon bandbreitenlimitiert.

Bandbreiten-limitiert ist aber auch relativ; ich gewinne nur in etwa 5% wenn ich den Speicher um 15% uebertakte. Uebertakte ich aber core und Speicher um 15%, bekomm ich auch 14-15% mehr Leistung im Durchschnitt.

Sunrise
2005-10-23, 15:23:18
Und wer bitte hat einen Monitor um unter 2048x1536 zu spielen? Für 99,5% aller User sind diese Werte uninteressant, sry.

Ich. :P

Ailuros
2005-10-23, 15:24:43
Ich. :P

Brother...... :biggrin:

Sunrise
2005-10-23, 15:25:47
Brother...... :biggrin:

...und da waren es schon 2. :biggrin:

aths
2005-10-23, 15:28:24
Zumindest bei UT2004 wird auf NV Karten auch mit HQ brilinear gefiltert.Nur die nichtprimären Texturstages. Steht doch im G70-Flimmerartikel.
Und wer weiss was da sonst noch so alles aktiv ist. Die Flimmerproblematik beim G70 war ja bis vor kurzem überdeutlich.Wer weiß – mit ß, bitte.

LovesuckZ
2005-10-23, 15:34:21
Und dass NV bei D³ anfangs einen enormen Vorspung hatten, liegt daran, dass NV Vorabversionen bekommen hat (auf die sie hin optimieren konnten) und ATi nicht. (zumindest nach dem Alphaleak)


Das ist falsch, seit über einem Jahr.

dargo
2005-10-23, 15:36:05
Wenn dir diese Einstellungen lieber sind:

http://firingsquad.com/hardware/quake_4_high-end_performance/images/quake1280aa.gif

http://firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1280aa.gif
Ich bezweifle ob man es überhaupt in der Ultra Quality spielen soll. Ich habe mal Doom3 in UQ gespielt, konnte aber keinen Unterschied (grafisch) zur HQ feststellen. Liegt aber vielleicht auch daran, daß man in D3 ständig im Dunkeln tappt. :tongue:

Wenn ich aber mit einer X1800XL bei Q4 in 1280x1024 4xAA/8xAF ~42% mehr Leistung in HQ habe als in UQ dann verzichte ich gerne auf UQ. :)

aths
2005-10-23, 16:13:33
Ich bezweifle ob man es überhaupt in der Ultra Quality spielen soll. Ich habe mal Doom3 in UQ gespielt, konnte aber keinen Unterschied (grafisch) zur HQ feststellen. Liegt aber vielleicht auch daran, daß man in D3 ständig im Dunkeln tappt. :tongue:

Wenn ich aber mit einer X1800XL bei Q4 in 1280x1024 4xAA/8xAF ~42% mehr Leistung in HQ habe als in UQ dann verzichte ich gerne auf UQ. :)Du meinst mehr fps. (Leistung ergibt sich ja nicht alleine aus der Geschwindigkeit.)

dargo
2005-10-23, 17:16:42
Du meinst mehr fps. (Leistung ergibt sich ja nicht alleine aus der Geschwindigkeit.)
Sie meinen :confused:

Spasstiger
2005-10-23, 18:22:14
Sie meinen :confused:

Leistung ist ja immer Arbeit pro Zeit. Und auf UHQ ist jeder Frame mit mehr Rechenarbeit verbunden.

MikBach
2005-10-23, 19:06:40
Das ist falsch, seit über einem Jahr.
Nein, das ist nicht falsch.
NV hat sogar ID nicht bescheid gesagt, dass andere Shader bzw. Shaderreihenfolge zu besseren Ergebnissen führen, weil diese Verbesserungen auch bei ATI wirken würden. Man hat es heimlich im Treiber gemacht. Schon sehr geschickt.

MikBach
2005-10-23, 19:10:40
']So siehts aus, ist schon wirklich komischer Vergleich ... 512 vs. 256 ...
Es ist ein Vergleich der Top-Karten beider Firmen. Wenn du denen eine 512MB-Version der 7800GTX zuschicken könntest, dann würden sie es auch bestimmt testen... :D
']
Q4 Profitiert sehr von der Graka und erst gar vom Speicher.
Wie vom Speicher?
Von mehr MB oder von einer höheren Taktfrequenz? :naughty:

Demirug
2005-10-23, 19:17:37
Nein, das ist nicht falsch.
NV hat sogar ID nicht bescheid gesagt, dass andere Shader bzw. Shaderreihenfolge zu besseren Ergebnissen führen, weil diese Verbesserungen auch bei ATI wirken würden. Man hat es heimlich im Treiber gemacht. Schon sehr geschickt.

Blödsinn. id software hat sich dazu entschlossen nur einen einzigen Shader für alle Karten zu schreiben. nVidia hat id software sogar die extra optimierten shader gegeben. Dort hat man allerdings darum gebeten das nVidia das doch bitte im Treiber lösen soll weil man nicht für jede Karte einen eigenen haben wollte. Der Shader der dann letzten Endes im Spiel gelandet ist wurde sogar nochmal extra umgeschrieben weil der ATI Treiber den ursprünglichen überhaupt nicht rendern wollte.

Mr. Lolman
2005-10-23, 19:20:59
Trotzdem kann ich mir nicht vorstellen, dass ATi noch Vorabversionen von D³ bekommen hat.

MikBach
2005-10-23, 19:22:01
Blödsinn. id software hat sich dazu entschlossen nur einen einzigen Shader für alle Karten zu schreiben. nVidia hat id software sogar die extra optimierten shader gegeben. Dort hat man allerdings darum gebeten das nVidia das doch bitte im Treiber lösen soll weil man nicht für jede Karte einen eigenen haben wollte. Der Shader der dann letzten Endes im Spiel gelandet ist wurde sogar nochmal extra umgeschrieben weil der ATI Treiber den ursprünglichen überhaupt nicht rendern wollte.
:confused:
Also, so wie ich das beschrieben habe, habe ich in Erinnerung, dass du das mal gepostet hast.

Dann muss ich wohl bisschen suchen... :D

Demirug
2005-10-23, 19:25:13
Trotzdem kann ich mir nicht vorstellen, dass ATi noch Vorabversionen von D³ bekommen hat.

Dazu wollte verständlicherweise niemand etwas sagen.

Der primäre Bug im ATI-Treiber der für den heftigen Leistungsverlust verantwortlich war wurde ATI jedoch schon lange bevor DOOM III auf dem Markt gekommen ist gemeldet. Frag mal Zeckensack.

Die gelbe Eule
2005-10-23, 19:28:10
Übrigens zum 81.85er Treiber:

http://www.hardwareoc.at/Forceware-Geforce7-Roundup/Geforc12.GIF

Der 81.26er hat 35fps mehr unter High Quality (1280x1024, AAx4)
Also schön Ball flach halten ^^

MikBach
2005-10-23, 19:36:52
Übrigens zum 81.85er Treiber:

http://www.hardwareoc.at/Forceware-Geforce7-Roundup/Geforc12.GIF

Der 81.26er hat 35fps mehr unter High Quality (1280x1024, AAx4)
Also schön Ball flach halten ^^
Einen offiziellen bitte. Mit Betatreibern hatte ich oft Probleme mit meiner 6800GT.
Wer weiss, was mit der BQ passiert ist... :D

Und spar dir bitte solche Sprüche, wie "Ball flachhalten", da dies nichts zur einer gepflegten Diskussionskultur beiträgt. :mad:

edit: bin schneller als meine Tastatur, oder ich sollte diese austauschen... :eek:

Die gelbe Eule
2005-10-23, 19:41:07
Ich wollte nur damit andeuten das es Treiber gibt, die schneller sind. Der 5.10a hotfix ist auch nur für Quake4 und ATI sagt, das er nicht zum alltäglichen Gebrauch bestimmt sein soll. Hotfix=beta. Danke.

Mr. Lolman
2005-10-23, 19:45:03
Der primäre Bug im ATI-Treiber der für den heftigen Leistungsverlust verantwortlich war wurde ATI jedoch schon lange bevor DOOM III auf dem Markt gekommen ist gemeldet. Frag mal Zeckensack.

Das ist mir auch bekannt. Nur hätte man mittels Flickwerk (á la Humus' Shaderreplacement) die Performance schon ordentlich steigern können, ohne dass man den Bug zum D³-Release gefixt haben hätte müssen. Nur dazu wärs halt notwendig gewesen, zu wissen, wie der Shader aussieht ;)

MikBach
2005-10-23, 19:45:51
Ich wollte nur damit andeuten das es Treiber gibt, die schneller sind.
Wobei die BQ ungewiss ist...


Der 5.10a hotfix ist auch nur für Quake4 und ATI sagt, das er nicht zum alltäglichen Gebrauch bestimmt sein soll. Hotfix=beta. Danke.
Du nix kapiert haben... :D
Hotfix ist nicht gleich Beta...
ATI hat es einfach vergessen, die OGL-Profile für den neuen Speicherkontroller einzubauen...
Das hat mit den zahlreichen Beta-Treibern von NV nichts zu tun. :|

Demirug
2005-10-23, 19:59:15
Das ist mir auch bekannt. Nur hätte man mittels Flickwerk (á la Humus' Shaderreplacement) die Performance schon ordentlich steigern können, ohne dass man den Bug zum D³-Release gefixt haben hätte müssen. Nur dazu wärs halt notwendig gewesen, zu wissen, wie der Shader aussieht ;)

Ich bitte dich. ATI hat zum einbauen des Shaderreplacements genau so lange gebraucht wie um den Bug zu fixen. Es war ihnen vorher einfach nicht wichtig genug sich bei diesem Punkt an die OpenGL Specifikation zu halten.

MikBach
2005-10-23, 20:02:58
Ich bitte dich. ATI hat zum einbauen des Shaderreplacements genau so lange gebraucht wie um den Bug zu fixen. Es war ihnen vorher einfach nicht wichtig genug sich bei diesem Punkt an die OpenGL Specifikation zu halten.
Das denke ich auch.
ATI hat sich gedacht...
Bei den paar OGL-Spielen, die im Jahr erscheinen, braucht man sich nicht extra anzustrengen, weil über 95% D3D ist...

reunion
2005-10-23, 20:20:57
Das Bild ist aber identisch in HQ zu NV4x mit entsprechenden Treibern. Also wirklich identisch.


An was könnte es dann liegen?
Quality wurde AFAIK auch nicht besser, eher sogar das Gegenteil, wenn man den entsprechenden "Flimmerartikel" auf dieser Seite glauben kann.

Ich hab ja nicht gesagt oder angedeutet dass Du bloed bist. Ich hab nur versucht Deine Frage zu beantworten.

Hab' ich auch nicht so aufgefasst, kein Problem.
An der höheren Rohleistung liegt es allerdings wie schon erwähnt nicht.

Und wer bitte hat einen Monitor um unter 2048x1536 zu spielen? Für 99,5% aller User sind diese Werte uninteressant, sry.


Solche Auflösungen zeigen, welche Karte mehr Leistungsreserven hat, und sind deshalb sehrwohl interessant. Uninteressant sind hingegen Benchmarks in größtenteils CPU-limitierten Auflösungen.

Bandbreiten-limitiert ist aber auch relativ; ich gewinne nur in etwa 5% wenn ich den Speicher um 15% uebertakte. Uebertakte ich aber core und Speicher um 15%, bekomm ich auch 14-15% mehr Leistung im Durchschnitt.


Und wieviel Leistungsgewinn erhältst du, wenn du nur den Core übertaktest?

Mr. Lolman
2005-10-23, 20:47:55
Ich bitte dich. ATI hat zum einbauen des Shaderreplacements genau so lange gebraucht wie um den Bug zu fixen. Es war ihnen vorher einfach nicht wichtig genug sich bei diesem Punkt an die OpenGL Specifikation zu halten.

Ich denke schon, dass es ATI wichtig war, eine gute Doom³ Performance zu bieten.

Demirug
2005-10-23, 21:02:08
Ich denke schon, dass es ATI wichtig war, eine gute Doom³ Performance zu bieten.

Habe ich das abgestritten? Ich habe lediglich aufgefürt das ihnen der Bug solange egal war bis er ihnen eine schlechte Balkenlänge beschert hat.

Mr. Lolman
2005-10-23, 21:10:31
Habe ich das abgestritten? Ich habe lediglich aufgefürt das ihnen der Bug solange egal war bis er ihnen eine schlechte Balkenlänge beschert hat.

Nein, aber die schlechte Balkenlänge war doch absehbar, oder?

Ailuros
2005-10-23, 23:18:53
Und wieviel Leistungsgewinn erhältst du, wenn du nur den Core übertaktest?

An ein genaues Prozentual kann ich mich nicht mehr erinnern, aber wenn ich mich nicht irre um einiges mehr als wenn ich nur den Speicher uebertakte.

StefanV
2005-10-23, 23:27:06
Übrigens zum 81.85er Treiber:

http://www.hardwareoc.at/Forceware-Geforce7-Roundup/Geforc12.GIF

Der 81.26er hat 35fps mehr unter High Quality (1280x1024, AAx4)
Also schön Ball flach halten ^^
Öhm, trifft das hier nicht zu?! (http://forum-3dcenter.de/vbulletin/showpost.php?p=3602008&postcount=21)

Dazu:
damits auch der letzte kapiert und wir nicht nochmal "wäää aber der 81.xycbsdghvsdgh ist in doom3 aber vieeeeel schnelläääärrrrr" ;)

seahawk
2005-10-24, 08:09:49
Nein, trifft es nicht der neue 81.85 performt oftmals sogar schlechtewr als der 78.01, dafür ist es der erste offizielle nicht BETA Treiber, der eine gerade annehmbare BQ liefert in der HQ Einstellung.

Die gelbe Eule
2005-10-24, 11:42:39
Öhm, trifft das hier nicht zu?! (http://forum-3dcenter.de/vbulletin/showpost.php?p=3602008&postcount=21)

Dazu:

Dann könnte man auch den 78.05 nehmen, der ist auch 15 fps schneller und wird garantiert von einem anderen Team entwickelt.
Wenn man möchte hat man noch Reserven. Heute oder Morgen bekomme ich Q4, dann werde ich mal Screens machen und ich/ihr könnt vergleichen.

Wobei die BQ ungewiss ist...


Du nix kapiert haben... :D
Hotfix ist nicht gleich Beta...
ATI hat es einfach vergessen, die OGL-Profile für den neuen Speicherkontroller einzubauen...
Das hat mit den zahlreichen Beta-Treibern von NV nichts zu tun. :|

Hier mal ein Quote von ATI:

To correct this issue, download and install beta Catalyst® 5.10a or higher.
Note: This driver is intended only for Quake 4 and has not been fully tested at this point for other applications. Please only download and install if you own Quake 4.

Hotfix=beta ;)

aths
2005-10-24, 14:47:46
Nein, trifft es nicht der neue 81.85 performt oftmals sogar schlechtewr als der 78.01, dafür ist es der erste offizielle nicht BETA Treiber, der eine gerade annehmbare BQ liefert in der HQ Einstellung.Warum "performt" er dann schlechter, wenn die BQ einigermaßen stimmt? Gehört zu einer Performance nur die Quantität (pro Zeit) oder nicht auch die Qualität?

seahawk
2005-10-24, 14:54:36
Warum "performt" er dann schlechter, wenn die BQ einigermaßen stimmt? Gehört zu einer Performance nur die Quantität (pro Zeit) oder nicht auch die Qualität?

Da hast Du natürlich völlig recht. Insgeamt gesehen performt eher sogar besser, weil er für geringe Velruste bei den FPS endlich eine halbwegs angemessene BQ für eine 7800er bietet.

trollkopf
2005-10-24, 15:01:02
-gelöscht-

MikBach
2005-10-24, 20:07:47
Hier mal ein Quote von ATI:

Hotfix=beta ;)
Ok, ATI nennt es Beta, da hast du Recht.