Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : OpenGL bei NV IMMER schlecht gefiltert??


pervert
2007-12-20, 21:19:49
Seit längerem muss man ja ein wenig aufpassen, dass man die NV Treiber richtig einstellt um nicht diversen Optimierungen zum Opfer zu fallen...
Sie hier:
http://3dcenter.de/artikel/neue_filtertricks/index2.php


Doch reicht es neuerdings nicht mehr die Optimierungen im NV Panel einzeln zu deaktivieren oder umzuschalten, um unter OGL UND D3D nicht in die Falle zu laufen?? Ein Blick in den Rivatuner zeigt mir nämlich aktuell sämtliche Optimierungen immer eingeschaltet unter OGL, solange ich diese nicht alle einzeln im RIVATUNER deaktiviere/umstelle. Über das NV Controlpanel erreiche ich das also scheinbar gar nicht mehr, egal wieviel ich da herumklicke? NV boykottiert praktisch eine vernünftige OGL Qualität?!

Ist das noch normal, bzw ist das schon länger so??

Razor
2007-12-21, 14:13:59
Ist schon länger so... kann mich gar nicht mehr daran erinnern, wie lang schon.

Hier nur mal ein kleiner Kurzvergleich aus meinem Bench-Parqour:
------------------------------------------------
169.17 169.17 Diff
OptOff OptOn
------------------------------------------------

Doom3 (demo1) 127,6 129,4 1,41%

Quake IV (guru5) 156,0 161,6 3,59%

Prey (guru3D) 121,8 124,8 2,46%

------------------------------------------------

Mehr OGL-Benches sind darin leider auch nicht enthalten (ist ja auch eiegntlich nur noch ID, die für OpenGL proggen), aber zumindest an diesen 3 Beispielen kann man gut erkennen, dass der Unterschied nicht sooooo gewaltig ist, dafür aber trotzdem überhaupt vorhanden!

Nicht alle Optimierungen 'wirken' auf OpenGL... so gab es dort eigentlich nie eine Stage Optimierung, sehr wohl aber eine brilineare Filterung, die durchaus trilinear hätte sein 'dürfen'.

Finde ich gut, dass diese Thematik mal wieder von jemanden angesprochen wird, auch wenn ich nicht die Hoffnung hege, dass sich nVidia jemals erbarmen wird, diese Optimierungen endlich auch im neuen Panel über das Panel in OpenGL zu deaktivieren.

Razor

martma
2007-12-21, 14:23:44
Jaja, Hauptsache sie können wieder ein paar Frames dazu gewinnen, obwohl sie es ja nicht nötig hätten. Leider geht das Ganze immer auf Kosten der Qualität.

Razor
2007-12-21, 14:55:43
Ich weiß gar nicht mal, ob dem so ist... vermutlich haben sie es einfach nur 'vergessen'...
a) die Leistungssteigerung ist zu gering
b) der 'Markt' für OpenGL spielt einfach keine Rolle mehr

Klar ists doof... aber wer das weiß und noch immer OpenGL-Apps fährt, in denen man anisotrope Filter 'braucht', der kanns ja abstellen.

Razor

pervert
2007-12-21, 17:31:30
Ich bin ziemlich überrascht. Klar, OGL spielt kaum noch eine Rolle, aber es geht mir ums Prinzip. Ich meine ich habe hier eine ehemals 500 Euro Graka und muss nach jedem neuen Treiber 5 Minuten an etlichen Einstellungen drehen und fummeln, damit ich auch eine der Hardware angemessene HQ Bildqualität bekomme (nicht nur für OGL!)? Ist schon eine Frechheit was Nvidia so alles in ihren Treibern versaut, siehe auch hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6127627

Langsam kann man da schon ein umfangreiches Tutorial draus machen: Wie stellen Sie Ihren Nvidia Treiber richtig ein um vor allerlei ärgerlichen Überraschungen bewahrt zu sein....

Und im Grunde ist das ja auch nur die halbe Miete. Zudem muss man sich mit den ganzen Modi und Optionen auskennen die der Treiber sonst noch so zu bieten hat. Schön das es Tools wie den nHancer gibt, der auch zu alldem ausführliche Beschreibungen und Sonderfunktionen (Stichwort FSAA in Games wie UT3) bietet. Denn die Masse der Spieler dürfte da sonst kaum noch durchblicken.

Gast
2007-12-21, 18:43:54
Jaja, Hauptsache sie können wieder ein paar Frames dazu gewinnen, obwohl sie es ja nicht nötig hätten. Leider geht das Ganze immer auf Kosten der Qualität.

Bei Ati kann man garnix abstellen, da bleiben auch bei AI aus immer Optimierungen an.

toroidh
2007-12-25, 13:18:40
ETQW z.B. ist GL und es spielt sehr wohl eine Rolle. Hier etwas totzureden was für "DX10" Effekte auch unter XP sorgen kann ist etwas verfrüht. Ich werde mal RivaTuner Vergleiche bei ETQW machen...

Gast
2007-12-25, 13:49:20
Bei Ati kann man garnix abstellen, da bleiben auch bei AI aus immer Optimierungen an.
Das ist aber erst mit neuen Treibern der Fall, oder?
Früher waren die afaik dann wirklich komplett deaktiviert mit dem entsprechenden Performanceverlust. Aber weil immer rumgenörgelt wurde und verlangt wurde, dass mit AI off getestet werden sollte, habens dann mal wohl vorsorglich die Optimierungen von AI entkoppelt und immer angelassen. Ist nur die Frage, was dann AI off noch bewirkt? Werden dann nur die Shader-Optimierungen für einzelne Games deaktiviert? Das wäre dann genau das Gegenteil was gewünscht wurde, nämlich dass AI nur die "Optimierung" ausschaltet und die Shader-Optimierungen an bleiben.

Razor
2007-12-25, 22:20:02
ETQW z.B. ist GL und es spielt sehr wohl eine Rolle. Hier etwas totzureden was für "DX10" Effekte auch unter XP sorgen kann ist etwas verfrüht. Ich werde mal RivaTuner Vergleiche bei ETQW machen...
Es geht nicht darum, hier irgendetwas "totzureden", sondern einfach nur resignierend festzustellen, dass es schon lange so ist.
Auch ETQW basiert auf einer ID-Engine... das einzige Dev-Studio, was noch auf OpenGL setzt... was schade ist.

Deine Ergebnisse würden mich wirklich interessieren!

Razor

Gast
2007-12-26, 01:46:01
Naja wo ist das Problem einmal das Control Panel auf HQ mit Clamp einzustellen. Warum man da wieder die Filtertricks Kiste auspackt kann ich so nicht ganz verstehen, schließlich geht es 50% der User (AMD Grafikkarten anyone) total hintenrum das permanent solche Tricks aktiv sind.
Die Unterschiede muss man eh mit der Lupe suchen und man kann wohl davon ausgehen, das wir nie wieder Winkelabhängiges AF bekommen werden. Den Rest sollten eher mal die Softwaredeveloper in den Griff bekommen, mit geeignetem Kontent lässt sich Flimmern und Aliasing vermeiden...

Razor
2007-12-26, 10:26:26
Lese den Thread bitte nochmal... ist ja nicht so viel.
Du hast die Problematik offensichtlich NICHT verstanden.

Genau hier liegt das Problem:
Die Einstellungen im CP haben keinen Einfluß auf die schlechten Einstellungen, welche als Treiber-Default für OGL gesetzt werden.
(so sind zwingend 3rd parity tools ala RivaTuner erforderlich, die in der Registry rum pfuschen)

Razor

BlackZed
2007-12-26, 12:13:48
Doch reicht es neuerdings nicht mehr die Optimierungen im NV Panel einzeln zu deaktivieren oder umzuschalten, um unter OGL UND D3D nicht in die Falle zu laufen?? Ein Blick in den Rivatuner zeigt mir nämlich aktuell sämtliche Optimierungen immer eingeschaltet unter OGL, solange ich diese nicht alle einzeln im RIVATUNER deaktiviere/umstelle.

Funktioniert das nur mit dem Rivatuner oder auch mit dem Nhancer?

Ri*g*g*er
2007-12-26, 13:40:03
Hi all,

sehr interessant !!!

Bin extra von ATI auf Nvidia gewechselt weil ich die Schnauze voll von dem A.I. hatte und selber Herr über alle Einstellungen sein möchte.

Hab natürlich auf Clamp und HQ gestellt wusste aber nicht das manche Sachen bei OpenGL nicht deaktiviert werden.

Hab mal den Rivatuner angeschmissen sind das folgende Optimierungen :

- Enable trilinear optimization
- Enable anisotropic mip filter optimization

sind bei mir bei aktiviert.

Mein Treiber für die 8800 GT ist immer noch der von der CD Version 167.26.

Gruss
Ri*g*g*er

Mr.Soapdown
2007-12-26, 18:00:03
Soweit ich das beurteilen kann, funktioniert das alles mit dem nhancer bestens. Man muss nur ordentlich in den "Karteikarten" blättern und entsprechende Dinge ändern. Ich habe auch ein extra Profil angelegt, schließlich will ich ja auch Cs1.6 in ordentlicher Qualität zocken.

Mit anderen tools hatte ich so meine Probleme. Den nhancer nutze ich erst seit ein paar Tagen.

mfg und schöne Weihnachten

Raff
2007-12-26, 18:02:40
Wenn gar nichts hilft: Einfach 16xS-AA drüberbügeln, dann sieht man keine "Optimierungen" mehr.

MfG,
Raff

Raff
2007-12-30, 17:34:55
Wenn gar nichts hilft: Einfach 16xS-AA drüberbügeln, dann sieht man keine "Optimierungen" mehr.

MfG,
Raff

Das muss ich hiermit zurücknehmen – mit einer GeForce 7 kann auch mit 4x Supersampling noch ein Kotzkrampf entstehen! Das musste ich heute in American McGee's Alice feststellen, welches Dank Detail Texturing mit "optimiertem" AF ganz fies flimmert.

MfG,
Raff

-=Popeye=-
2007-12-31, 14:56:41
Hat schon mal jemand eine Gegenprobe mit dem aTuner (http://www.3dcenter.de/atuner/) gemacht, ob es nicht vielleicht nur ein Bug im Riva Tuner ist?

Ich kann es zur Zeit leider nicht selbst überprüfen da ich kein XP auf der Platte habe.

Danke

Razor
2007-12-31, 17:15:59
Das kannst Du auch mit Vista...
Und nein, es ist kein Bug im RivaTuner.

Razor

Gast
2008-01-01, 12:38:52
eure bemühungen irgendwelche unerlaubten tricks zu finden, finde ich ja sehr gut, aber bevor man groß cheat in die welt schreit, sollte man das ganze schon mal genauer untersuchen.

richtig ist, dass die optimierungsschalter im treiber-cp keinen einfluss mehr auf die entsprechenden reg-einträge für OGL haben.

allerdings gibt es nun defaultmäßig unter OGL die maximale filterqualität, die sich nur mit dem treiber-cp auch nicht verringern lässt.
um mit den neuen treibern überhaupt eine "optimierte" filterung unter OGL zu bekommen müssen zwingend 3rd-party-tools wie rivatuner oder nhancer eingesetzt werden, wobei diese dann allerdings auch nicht mehr mit dem treiber-cp wieder hochgestellt werden kann.


es ist also genau umgekehrt, es wird unter OGL nicht heimlich eine optimierte filterung untergejubelt, sondern HQ-filterung.

das ganze hab ich mit einem frisch installiertem 169.25-forceware unter Vista64 getestet.

Razor
2008-01-01, 16:49:09
richtig ist, dass die optimierungsschalter im treiber-cp keinen einfluss mehr auf die entsprechenden reg-einträge für OGL haben.
Korrekt.

allerdings gibt es nun defaultmäßig unter OGL die maximale filterqualität, die sich nur mit dem treiber-cp auch nicht verringern lässt.
Vollkommen falsch.

Der Brilineare Filter ist per Default aktiv und läßt sich nur via RivaTuner (z.Bsp.) deaktivieren...

Razor

Mr.Soapdown
2008-01-01, 17:06:55
Hat schon mal jemand eine Gegenprobe mit dem aTuner (http://www.3dcenter.de/atuner/) gemacht, ob es nicht vielleicht nur ein Bug im Riva Tuner ist?

Ich kann es zur Zeit leider nicht selbst überprüfen da ich kein XP auf der Platte habe.

Danke

Da gibbet noch ganz andere Probleme ( ist nicht viel zu lesen):

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6150106#post6150106

-=Popeye=-
2008-01-02, 05:07:18
Das kannst Du auch mit Vista...
Und nein, es ist kein Bug im RivaTuner.

Razor

Naja, mit Vista x64 nicht wirklich.

Aha also doch kein Bug.

Danke

Da gibbet noch ganz andere Probleme ( ist nicht viel zu lesen):

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6150106#post6150106

Danke

Mr.Soapdown
2008-01-03, 13:10:51
kleines statement seitens nv

http://www.pcgameshardware.de/?article_id=626663

Ash-Zayr
2008-01-03, 13:49:04
Mich wundert: seit Urzeiten waren immer drei Optimierungen zu finden (keine Ahnung, wie genau die hießen). Seit Umstieg auf eine neue Karte und damit verbunden neuere Treibergeneration, fällt mir auf, dass nun nur noch zwei Optimierungen im CP zu finden sind?

Es gab immer einen Bug, bzw. einen daraus resultierenden Trick bezüglich des Abschaltens der drei Optimierungen. Man sollte erst auf "Qualität" lassen, dann alle drei Optimierungen explizit "aus", und "übernhemen". Dann erst den Schalter auf "hohe Qualität" (auch wenn alle drei schon scheinbar "aus" waren), und dann nochmals "übernehmen"! Das alleinige Umschalten auf "Hohe Qualität" hatte immer NICHT den gewünschten Effekt des Abschaltens der Optimierungen bewirkt, selbst wenn "aus" angezeigt wurde.

Ash-Zayr

Razor
2008-01-03, 19:10:14
Bei neueren Treibern ist dies nicht mehr korrekt...
Wird "HQ" ausgewählt, werden die Optimierungseinstellungen ignoriert.
(deswegen auch ausgegraut)

Razor