PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia: Minderwertige Open-GL-Filterqualität trotz HQ-Einstellung


4 Vitamins
2007-12-30, 23:23:01
Laut der seite hier:

http://www.pcgameshardware.de/?article_id=626527

"""Die Geschichte der Filter-"Optimierungen" startet im Jahre 2003, als Nvidia mit der ersten Forceware (50.xx) an der Qualität des anisotropen Filters hantiert. Das bildhübsche AF der Geforce FX wird mittels sichtbarer Einsparungen schneller. Spätere Treiberversionen erhören den Aufschrei der Nutzer und erlauben das Deaktivieren der neuen Features - bis heute. Oder doch nicht?"""

"""Wenn Sie im Riva Tuner alle "Optimierungen" wie auf dem Bild unten ausschalten und anschließend die "Intellisample settings" auf "High Quality" setzen, filtert Ihre Geforce wieder HQ-typisch ohne sichtbares Flimmern. Das kostet maximal 10 (GF8) is 20 Prozent Leistung (GF7), lohnt aber, wie unsere Bilder bescheinigen.""


Da müssen aber games anders gebencht werden, 10% weniger fps bei der GeForce 8 serie ohne cheats, krass.
gruss.

deekey777
2007-12-30, 23:50:03
Was so mancher Kritiker nicht verstehen will: Ist es wirklich wert, alle "Optimierungen" zu deaktivieren?
Wer eine generelle 100%ige Ja-Antwort gibt, wird doch zugeben müssen, dass diese Antwort alles andere als allgemeingültig ist. Die meisten Leute interessiert es einfach nicht, dass da irgendein Pixel besser gefiltert werden kann (ich gehöre auch dazu).

yardi
2007-12-30, 23:58:56
Naja kann ja relativ einfach umgangen werden...wenn man es weiss. Wie isses eigentlich wenn ich im nHancer die entsprechenden Optimierungen deaktiviere? Gehe ich Recht in der Annahme das dies dann ebenfalls nicht wirklich übernommen wird?

4 Vitamins
2007-12-31, 00:01:00
Was so mancher Kritiker nicht verstehen will: Ist es wirklich wert, alle "Optimierungen" zu deaktivieren?
Wer eine generelle 100%ige Ja-Antwort gibt, wird doch zugeben müssen, dass diese Antwort alles andere als allgemeingültig ist. Die meisten Leute interessiert es einfach nicht, dass da irgendein Pixel besser gefiltert werden kann (ich gehöre auch dazu).


warum soll man nicht selber wählen können zwischen wirklichen (nicht so wie jetzt der HQ-modus ist gar keiner) OPTIMUM an Qualität oder leistungssteigenden Optimierungen?


gruss.

4 Vitamins
2007-12-31, 00:03:45
Naja kann ja relativ einfach umgangen werden...wenn man es weiss. Wie isses eigentlich wenn ich im nHancer die entsprechenden Optimierungen deaktiviere? Gehe ich Recht in der Annahme das dies dann ebenfalls nicht wirklich übernommen wird?


Zitat PCGH:
"""Wenn Sie im Riva Tuner alle "Optimierungen" wie auf dem Bild unten ausschalten und anschließend die "Intellisample settings" auf "High Quality" setzen, filtert Ihre Geforce wieder HQ-typisch ohne sichtbares Flimmern. Das kostet maximal 10 (GF8) is 20 Prozent Leistung (GF7), lohnt aber, wie unsere Bilder bescheinigen.""

Es geht, kostet aber ca. 10% performance bei GF8 graka.
Ob dann wirklich alle optimirungen aus sind kann wahrscheinlich keiner, ausser nividia ingis, beantworten.

gruss

Blaire
2007-12-31, 00:12:19
Da müssen aber games anders gebencht werden, 10% weniger fps bei der GeForce 8 serie ohne cheats, krass.
gruss.

Seit wann wird die 8800 mit HQ getestet?

desert
2007-12-31, 00:16:50
bei pcgh wird nur nvidia hq gegen ati a.i standard gebencht

Blaire
2007-12-31, 00:20:38
bei pcgh wird nur nvidia hq gegen ati a.i standard gebencht

Auch bei der 8800? Ati lässt man Optimierungen an und bei NV aus ? :confused:

yardi
2007-12-31, 00:21:00
Zitat PCGH:
"""Wenn Sie im Riva Tuner alle "Optimierungen" wie auf dem Bild unten ausschalten und anschließend die "Intellisample settings" auf "High Quality" setzen, filtert Ihre Geforce wieder HQ-typisch ohne sichtbares Flimmern. Das kostet maximal 10 (GF8) is 20 Prozent Leistung (GF7), lohnt aber, wie unsere Bilder bescheinigen.""

Es geht, kostet aber ca. 10% performance bei GF8 graka.
Ob dann wirklich alle optimirungen aus sind kann wahrscheinlich keiner, ausser nividia ingis, beantworten.

gruss

Ich kann lesen, danke...

Ich wollte wissen ob die Optimierungen noch aktiv sind wenn ich im Nhancer die entsprechenden Einstellungen mache. Ich weiss nicht inwiefern sich da die Methoden des nHancers und des RT unterscheiden. Ich werds einfach mal testen.

desert
2007-12-31, 00:25:47
Laut der seite hier:

http://www.pcgameshardware.de/?article_id=626527

"""Die Geschichte der Filter-"Optimierungen" startet im Jahre 2003, als Nvidia mit der ersten Forceware (50.xx) an der Qualität des anisotropen Filters hantiert. Das bildhübsche AF der Geforce FX wird mittels sichtbarer Einsparungen schneller. Spätere Treiberversionen erhören den Aufschrei der Nutzer und erlauben das Deaktivieren der neuen Features - bis heute. Oder doch nicht?"""

"""Wenn Sie im Riva Tuner alle "Optimierungen" wie auf dem Bild unten ausschalten und anschließend die "Intellisample settings" auf "High Quality" setzen, filtert Ihre Geforce wieder HQ-typisch ohne sichtbares Flimmern. Das kostet maximal 10 (GF8) is 20 Prozent Leistung (GF7), lohnt aber, wie unsere Bilder bescheinigen.""


Da müssen aber games anders gebencht werden, 10% weniger fps bei der GeForce 8 serie ohne cheats, krass.
gruss.

so und schauen wir doch mal was bei ati passiert wenn wir a.i auschalten.

da verliert die ati mal auf die schnelle bis zu 30 % leistung. Und dann filtert
r600 und rv670 selbst auf a.i. aus nicht mehr so gut, wie noch zu r580 zeiten.

http://www.hardtecs4u.com/reviews/2006/nvidia_g80/index8.php

aber ist klar 4vitamins = ati fanboy, nvida ist böse weil sie bis zu 10 % verliert, und dabei die absolute beste bildqualität auf den bildschirm zaubert. Ati ist gut, weil die nur bis zu 30 % verlieren und selbst mit cheaten nicht an die leistung von nvidia rankommnen, geschweige denn bildqualität.

desert
2007-12-31, 00:27:00
Auch bei der 8800? Ati lässt man Optimierungen an und bei NV aus ? :confused:


jup, war auch sehr erstaunt, muss mal in der zeitschrift die testkästchen lesen, da steht es dann drinne. g92 hq gegen rv670 a.i. standard

deekey777
2007-12-31, 00:28:04
so und schauen wir doch mal was bei ati passiert wenn wir a.i auschalten.

da verliert die ati mal auf die schnelle bis zu 30 % leistung. Und dann filtert
r600 und rv670 selbst auf a.i. aus nicht mehr so gut, wie noch zu r580 zeiten.

http://www.hardtecs4u.com/reviews/2006/nvidia_g80/index8.php

aber ist klar 4vitamins = ati fanboy, nvida ist böse weil sie bis zu 10 % verliert, und dabei die absolute beste bildqualität auf den bildschirm zaubert. Ati ist gut, weil die nur bis zu 30 % verlieren und selbst mit cheaten nicht an die leistung von nvidia rankommnen, geschweige denn bildqualität.
Gut, dass du deine sehr hilfreiche Meinung kudgetan hast, aber jetzt bitte in der Nase bohren.

desert
2007-12-31, 00:32:39
Gut, dass du deine sehr hilfreiche Meinung kudgetan hast, aber jetzt bitte in der Nase bohren.

hast du auch eine meinung oder findest du es einfach nur toll andere user zu bepöbeln?

Denn ist es ja eindeutig worauf 4vitamins abzielt, denn immerhin ist er ja ati fanboy beginnt. Er hat den thread ja erstellt um ein bischen gegen nvidia zu hetzen. und wenn er wirklich was zum thema hätte erzählen wollen, dann hätte er feststellen können das so ein thread schon in nvidia unterforum befindet.

Ergo ist das hier nur ein einziger trollversuch gegen nvidia.

yardi
2007-12-31, 00:36:37
Also bei mir sind da laut Rivatuner 2.05 keine Optimierungen aktiv. Ich habe im RT auch nichts umgestellt. Treiber ist der 169.17.

http://img247.imageshack.us/img247/2396/openglfiltergz2.th.jpg (http://img247.imageshack.us/my.php?image=openglfiltergz2.jpg)

Raff
2007-12-31, 00:48:24
Also bei mir sind da laut Rivatuner 2.05 keine Optimierungen aktiv. Ich habe im RT auch nichts umgestellt. Treiber ist der 169.17.

http://img247.imageshack.us/img247/2396/openglfiltergz2.th.jpg (http://img247.imageshack.us/my.php?image=openglfiltergz2.jpg)

Das ist interessant. Du nutzt XP x64 ...
Hier gibt's viele, die das Obige bestätigen können: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396264

MfG,
Raff

yardi
2007-12-31, 00:54:48
Das ist interessant. Du nutzt XP x64 ...
Hier gibt's viele, die das Obige bestätigen können: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396264

MfG,
Raff

Das hätte ich vieleicht noch erwähnen sollen :D

Blaire
2007-12-31, 00:58:08
Das ist interessant. Du nutzt XP x64 ...
Hier gibt's viele, die das Obige bestätigen können: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396264


Unter Vista32 tritt das mit den 169.28 auch nicht auf bei mir? Gerade getestet... :|
http://img4.imagebanana.com/img/3ytsg4v9/nunja.jpg

][immy
2007-12-31, 00:59:20
werden überhaupt noch irgendwelche opengl spiele bei aktuellen benchmarks verwendet? mir würde da jetzt nur quake wars einfallen, aber dessen anforderungen sind jetzt nicht so hoch das sich da das typische cheaten lohnen würde. solange das nicht Direct3D spiele betrifft würde ich mir jetzt nicht direkt sorgen machen, auch wenn es garantiert nicht schön ist da nvidia wieder daran rumfrickelt.

vielleicht hat man ja gedacht opengl fällt ja niemanden auf und testet auf dieses weise filter-optimierungen die später in den directx part einzug erhalten. aber das wäre nur spekulation.

Sentionline
2007-12-31, 01:01:52
Wer den Werkszustand einer Grafikkarte bemängeln kann, sollte selber welche herstellen, die es besser können. Ob so, oder so, steht Nvidia immer im Rampenlicht, das kanns jawohl nicht sein.

Es sind so viele Techniker und Experten bei Nvidia, warum meint PCGH alles besser wissen zu können? Dann sollen die ab heute eigene Treiber programmieren, "die es besser können". PCGH ForceWare Quality - NoBenchEdition v1.0 wäre ein netter Name.

Ich hab da echt kein Verständnis dafür...

Raff
2007-12-31, 01:02:42
Rofl, man kann auch alles bemäkeln. Nvidia wird hier kritisiert, nicht gelobt.

Unter Vista32 tritt das mit den 169.28 auch nicht auf bei mir? Gerade getestet... :|
http://img4.imagebanana.com/img/3ytsg4v9/nunja.jpg

Du nutzt auch den nHancer. Es ist noch die Frage, wieviel der dazwischenfunkt.

MfG,
Raff

mike49
2007-12-31, 01:10:11
Unter Vista32 tritt das mit den 169.28 auch nicht auf bei mir? Gerade getestet... :|
http://img4.imagebanana.com/img/3ytsg4v9/nunja.jpg
Selbes hier bei mir mit XP-x86 u. FW169.21

€dit: Nutze ebenfalls nhancer

Blaire
2007-12-31, 01:11:00
Du nutzt auch den nHancer. Es ist noch die Frage, wieviel der dazwischenfunkt.


Der war aber nicht aktiv gerade. Mir ist aber ein anderer Bug aufgefallen die Trilineare Optimierung ist manchesmal auch bei HQ aktiv und das hat nix mit OGL zu tun , sondern tritt auch bei Direct3D auf. Irgendwie immer dann wenn man in einen Profil nochmal extra HQ forciert oder so. Witzigerweise erkennt das der Nhancer sofort und ich schalte dann immer extr per Nhancer die Trilineare Optimierung wieder auf aus. Aber das ist auch schon seit Ewigkeiten so und gestörts hats bisher auch niemanden. :biggrin:

][immy
2007-12-31, 01:18:08
Wer den Werkszustand einer Grafikkarte bemängeln kann, sollte selber welche herstellen, die es besser können. Ob so, oder so, steht Nvidia immer im Rampenlicht, das kanns jawohl nicht sein.

Es sind so viele Techniker und Experten bei Nvidia, warum meint PCGH alles besser wissen zu können? Dann sollen die ab heute eigene Treiber programmieren, "die es besser können". PCGH ForceWare Quality - NoBenchEdition v1.0 wäre ein netter Name.

Ich hab da echt kein Verständnis dafür...

diese argumentation kann ich nicht verstehen. willst du damit sagen, das wenn jemand ein haus baut welches absolut schief steht du einziehen würdest nur weil du es selbst nicht besser bauen könntest?
oder würdest du etwas essen was dem Koch absolut misslungen ist, nur weil du selbst nicht kochen kannst?
also für so eine einstellung habe ich absolut kein verständnis.

Wenn ein neuer treiber erscheint, sollte er nichts schlechter machen als es zuvor der fall war. sollte die qualität geopfert werden um mehr geschwindigkeit zu erreichen, dann muss das mitgeteilt werden (um von vorn herein solchen ärger zu vermeiden) oder ein weiterer schalter eingebaut werden mit dem der benutzer das selbst entscheiden kann.
es wird wohl niemand meckern wenn an den anderen qualitätsstufen optimiert wird, aber high quality darf sich durch einen neuen treiber nicht verschlechtern.

Sonyfreak
2007-12-31, 01:25:00
Bei mir waren im Rivatuner auch alle Optimierungen ausgeschalten. Allerdings muss ich dazu sagen, dass ich auch den nHancer nutze.

mfg.

Sonyfreak

Sentionline
2007-12-31, 01:31:41
[immy;6151771']...
Wenn man besser Kochen kann, isst man nicht bei jemandem der ein schlechtes süppchen Kocht.

Komischerweise ist das bisher keinen "Experten" aufgefallen das die Suppe versalzen ist. Jetzt wo PCGH es anspricht schlägt die Bombe ein und die leute schmecken die Suppe auf einmal: "Ach ja, da war ja der Salz..."http://www.abload.de/img/thinkihi.gif

Kindergarten...:rolleyes:

Raff
2007-12-31, 01:34:20
Senti, arbeitest du bei Nvidia? Es gibt keinen Grund, BQ-Defizite schönzureden.

Mich interessiert jetzt viel mehr, wo es hakt. Ist es ein XP-Bug? Wenn, dann 32 Bit only. Ist es ein GF7-Bug? Wie spielt der nHancer mit hinein? Mehr Leute!

MfG,
Raff

Blaire
2007-12-31, 01:36:37
Nunja die G7x haben einen Extra Renderpfad im Treiber und es kann gut sein daß bei neueren Treiber, ältere Karten nur sehr stiefmütterlich behandelt werden. Ich hab das gerade versucht unter XP nachzustellen aber es ist mir auch hier nicht geglückt hmm.
Edit: Kann es sich ev. um einen Bug vom Rivatuner handeln?

LovesuckZ
2007-12-31, 01:37:42
Senti, arbeitest du bei Nvidia? Es gibt keinen Grund, BQ-Defizite schönzureden.


Ihr vergleich HQ gegen A.I Standard. Meckert erstmal bei AMD und zeigt Gesicht, bevor ihr über nVidia mault.
Du wolltest keine BQ-Defizite schönreden? Mit A.I Standard legimitiert ihr sie doch förmlich.

Raff
2007-12-31, 01:41:48
Edit: Kann es sich ev. um einen Bug vom Rivatuner handeln?

Nein, weil das Umstellen ja Auswirkungen hat.

Ihr vergleich HQ gegen A.I Standard. Meckert erstmal bei AMD und zeigt Gesicht, bevor ihr über nVidia mault.
Du wolltest keine BQ-Defizite schönreden? Mit A.I Standard legimitiert ihr sie doch förmlich.

Auch der R600 bekam schon auf die Mütze. (http://www.pcgameshardware.de/?article_id=603118)

Es geht hier aber nicht schon wieder um die unfähigen Leute bei AMD, sondern um die unfehlbaren Grünen.

MfG,
Raff

Blaire
2007-12-31, 01:46:05
Nein, weil das Umstellen ja Auswirkungen hat.


Ich frag das auch nicht ohne Grund, denn warum seh ich das nicht im Nhancer oder im Treiber selber wenn ich per Rivatuner die Optimierungen manuell anstelle?

LovesuckZ
2007-12-31, 01:48:44
Auch der R600 bekam schon auf die Mütze. (http://www.pcgameshardware.de/?article_id=603118)

Es geht hier aber nicht schon wieder um die unfähigen Leute bei AMD, sondern um die unfehlbaren Grünen.

MfG,
Raff

Und ihr testet weiter HQ gegen A.I Standard. Welche Auswirkung soll also euer "Gemeckere" haben, wenn es ihr es zwei Minuten später wieder vergessen habt?

Coda
2007-12-31, 02:47:44
Find ich auch nicht gut.

Q vs. A.I. Standard sollte eigentlich grundsätzlich verwendet werden und eigentlich sogar HQ vs. A.I. aus damit endlich mal die Leute bei ATi aufwachen.

yardi
2007-12-31, 02:51:05
Meint ihr der nHancer hat was damit zu tun? Da müsste sich mal Grestorn zu äussern inwiefern das möglich ist. Also Global hab ich nichts eingestellt mit dem nHancer, nur in den Profilen und es war logischerweise keines aktiv.

desert
2007-12-31, 08:35:09
Senti, arbeitest du bei Nvidia? Es gibt keinen Grund, BQ-Defizite schönzureden.

Mich interessiert jetzt viel mehr, wo es hakt. Ist es ein XP-Bug? Wenn, dann 32 Bit only. Ist es ein GF7-Bug? Wie spielt der nHancer mit hinein? Mehr Leute!

MfG,
Raff


raff wenn man deinen artikel liest, dann hört sich das nach dem größten beschiss überhaupt an.

Wo bleibt eingentlich dein artikel über die bildqualität bei ati. Können wir damit dieses Jahrzehnt noch rechnen oder verschwindet der in verschenkung? Oder der artikel von lolli.

Wieso kommt nur ati bei euch gut weg. Ihr attestiert der ati eine schlechtere bq als der nvidia.

Euch fällt aber nichts besseres ein, als immer weiter hq gegen standard zu benchen.

Gleichzeitig hackt ihr immer nur auf nvidia rum. Setzt solche absoluten Halbwahrheiten ins Netz, auf einer seite die von ein paar tausenden leuten gelesen wird.

Dann überprüft ihr das noch nicht mal richtig, von nachprüfen habt ihr noch nichts gehört? Ändert den artikel bis jetzt 3 mal ab, so das kein mensch mehr nach vollziehen was ihr nun überhaupt gepostet habt.

Menschen die gestern abend den artikel gelesen haben, gehen davon aus das nvidia wieder bescheisst um ein paar fps zu bekommen, weil sie ja sonst nicht an die "oberfette" ati rankommt.

Überprüft ihr eure artikel nicht, wie die wirken? Und auch jetzt noch unterstellst du nvidia aktiven beschiss.

An nvidia´s stelle würde ich euch einfach mal verklagen, das grenz ja schon an rufmord was ihr hier betreibt.

Schlammsau
2007-12-31, 08:35:22
so und schauen wir doch mal was bei ati passiert wenn wir a.i auschalten.

da verliert die ati mal auf die schnelle bis zu 30 % leistung. Und dann filtert
r600 und rv670 selbst auf a.i. aus nicht mehr so gut, wie noch zu r580 zeiten.

http://www.hardtecs4u.com/reviews/2006/nvidia_g80/index8.php

aber ist klar 4vitamins = ati fanboy, nvida ist böse weil sie bis zu 10 % verliert, und dabei die absolute beste bildqualität auf den bildschirm zaubert. Ati ist gut, weil die nur bis zu 30 % verlieren und selbst mit cheaten nicht an die leistung von nvidia rankommnen, geschweige denn bildqualität.

in einem anderen Thread hab ich mal nachgemessen.....bei Crysis in 1280x1024 DX9 HighSpec und 4xAA/16xAF hat meine alte X1950Pro ~3% bei A.I. off verloren!

desert
2007-12-31, 08:39:54
in einem anderen Thread hab ich mal nachgemessen.....bei Crysis in 1280x1024 DX9 HighSpec und 4xAA/16xAF hat meine alte X1950Pro ~3% bei A.I. off verloren!

und? nvidia verliert ja auch bei hq nicht immer 10% sondern kann nur bis zu
10 % verlierern, obwohl das auch schon wieder von der pcgh seite verschwunden ist, und man jetzt nur noch von einer 7900 gt redet.

Ist das jetzt irgendein beweiss das ati doch nciht so viel verliert? noe, nur halt bei dem einen spiel verliert sie halt mehr oder weniger.

Schlammsau
2007-12-31, 08:44:56
gibt es eigentlich aktuelle Tests, wo A.I. on und off verglichen werden? Ich meine mit Benchmarks und hochauflösenden Bildern?

desert
2007-12-31, 08:52:03
gibt es eigentlich aktuelle Tests, wo A.I. on und off verglichen werden? Ich meine mit Benchmarks und hochauflösenden Bildern?

nein werden totgeschwiegen. hardtecs4u wollte ja z.b. beim hd2900 xt welche machen, wurden aber nicht veröffentlicht oder erst gar nicht gemacht, obwohl extra darauf hingewiesen wird das man die ati auch mit a.i. off gebencht hat.

Die pcgameshardware hatte mal einen bench gemacht, da hatte die ati teilweise bis zu 70 % verloren bei a.i. off Es wurde offentsichtlich immer schlimmer je mehr af zugeschaltet wurde zwischen a.i. standard und a.i. off also definitiv kein shaderreplacement, sondern einfach nur schlechter filtern

Schlammsau
2007-12-31, 09:51:31
nein werden totgeschwiegen. hardtecs4u wollte ja z.b. beim hd2900 xt welche machen, wurden aber nicht veröffentlicht oder erst gar nicht gemacht, obwohl extra darauf hingewiesen wird das man die ati auch mit a.i. off gebencht hat.

Die pcgameshardware hatte mal einen bench gemacht, da hatte die ati teilweise bis zu 70 % verloren bei a.i. off Es wurde offentsichtlich immer schlimmer je mehr af zugeschaltet wurde zwischen a.i. standard und a.i. off also definitiv kein shaderreplacement, sondern einfach nur schlechter filtern

werden totgeschwiegen?
also ich könnte heut nachmittag evtl. ein paar vergleichsscreenshots bzw. Benchmarks machen.....

Razor
2007-12-31, 10:08:34
Suuuuuper...
:uclap:

Vor 1,5 Wochen im nVidia-Hilfeforum:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396264
Dann irgendwann zu PCGH (wo die das wohl her haben ;-)
Und nun hier...

Aber ist vielleicht gar nich schlecht, das im GraKa-Forum weiter zu 'diskutieren'.

Razor

Grestorn
2007-12-31, 10:28:32
Naja kann ja relativ einfach umgangen werden...wenn man es weiss. Wie isses eigentlich wenn ich im nHancer die entsprechenden Optimierungen deaktiviere? Gehe ich Recht in der Annahme das dies dann ebenfalls nicht wirklich übernommen wird?

Doch, natürtlich wird sie das. nHancer zeigt den korrekten Zustand an.

Grestorn
2007-12-31, 10:32:38
Du nutzt auch den nHancer. Es ist noch die Frage, wieviel der dazwischenfunkt.


Er funkt gar nicht.

Bei nHancer ist lediglich die Qualitätseinstellung nicht mit den Optimierungseinstellungen gekoppelt. Also egal welche Qualität eingestellt ist, man kann weiterhin jede Optimierung einzeln konfigurieren und die aktuelle Einstellung wird auch angezeigt.

Das Problem ist doch lediglich, dass nur der D3D Treiber intern automatisch alle Optimierungen deaktiviert, wenn HQ gewählt ist, und zwar auch wenn die Optimierung eigentlich aktiviert ist.

Der OpenGL Treiber macht das nicht.

Und das nVidia Control Panel "denkt" so wie der D3D Treiber, d.h. sobald HQ gewählt ist, werden alle Optimierungen als "aus" angezeigt, ganz egal, was tatsächlich eingestellt ist.

Raff
2007-12-31, 10:34:13
Dann überprüft ihr das noch nicht mal richtig, von nachprüfen habt ihr noch nichts gehört?

Natürlich ist das nachgeprüft, abgesehen davon gibt uns das Forum Recht. Die News wäre aber nie online gegangen, hätte ich gestern nicht fast Augenkrebs bekommen.

Ändert den artikel bis jetzt 3 mal ab, so das kein mensch mehr nach vollziehen was ihr nun überhaupt gepostet habt.

What? Da wurde rein gar nichts geändert.

An nvidia´s stelle würde ich euch einfach mal verklagen, das grenz ja schon an rufmord was ihr hier betreibt.

Fakt ist, dass da etwas nicht immer funktioniert. Es ist bisher aber nicht raus, was genau.

MfG,
Raff

Grestorn
2007-12-31, 10:35:01
Ach ja, noch was:

Wenn man mit dem Control Panel AF(!) bei einem Profil zuschaltet werden im selben Profil(!) auch automatisch Optimierungseinstellungen geändert. Sehr eigenartiges Verhalten des Control Panels. Macht nHancer freilich nicht.

Raff
2007-12-31, 10:42:15
Es ist generell suspekt, was das neue Panel macht ... oder nur anzeigt. Die "Trilinear optimization" (Bri-Filter) steht nach einem Wiederaufruf des Panels gerne wieder auf "On" – bei HQ wohlgemerkt, ausgegraut und nicht änderbar. Im Hintergrund scheint ständig gefummelt zu werden. Das gilt es auch noch zu untersuchen.

MfG,
Raff

Grestorn
2007-12-31, 10:43:53
Es ist generell suspekt, was das neue Panel macht ... oder nur anzeigt. Die "Trilinear optimization" (Bri-Filter) steht nach einem Wiederaufruf des Panels gerne wieder auf "On" – bei HQ wohlgemerkt, ausgegraut und nicht änderbar. Im Hintergrund scheint ständig gefummelt zu werden. Das gilt es auch noch zu untersuchen.


Hast Du das gelesen? http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6152154#post6152154

Das alte Panel hat das übrigens genauso gemacht.

James Ryan
2007-12-31, 10:54:24
hätte ich gestern nicht fast Augenkrebs bekommen.


Ach komm... :rolleyes:
Auf der einen Seite (NVIDIA) auf die maximalste BQ pochen und im Gegenzug die andere Seite (ATi) mit AI-standard benchen.
Sowas wirkt irgendwie unglaubwürdig. ;)

MfG :cool:

Raff
2007-12-31, 10:54:39
Der OpenGL Treiber macht das nicht.

Den scheint es bei bestimmten Konstellationen gar nicht zu jucken, was im CP eingestellt ist.

Und das nVidia Control Panel "denkt" so wie der D3D Treiber, d.h. sobald HQ gewählt ist, werden alle Optimierungen als "aus" angezeigt, ganz egal, was tatsächlich eingestellt ist.

Eben nicht, die besagte "Optimierung" steht bei mir auf unterschiedlichen System trotz HQ öfter mal auf "On". Was der Treiber dann tatsächlich macht, ist wieder etwas Anderes. Da bisher niemandem etwas Negatives aufgefallen ist, liegt vermutlich weiterhin HQ an.

Ach komm... :rolleyes:
Auf der einen Seite (NVIDIA) auf die maximalste BQ pochen und im Gegenzug die andere Seite (ATi) mit AI-standard benchen.
Sowas wirkt irgendwie unglaubwürdig. ;)

MfG :cool:

Ich spreche gerade als Privatperson. Und die musste bei den GF7-Spielereien echt kotzen. Was für Benchkriterien bei der PCGH irgendwann vor meiner Zeit festgelegt wurden, spielt da erstmal keine Rolle.

Einige scheinen indes nicht zu begreifen, was das eigentliche Problem ist: Steht etwas auf "HQ", dann hat da auch HQ rauszukommen, und nicht Q + Opts. Bei A.I. @ R600 war der Tenor nicht anders, als herauskam, dass "Off" nach wie vor spart!

MfG,
Raff

Grestorn
2007-12-31, 11:06:05
Den scheint es bei bestimmten Konstellationen gar nicht zu jucken, was im CP eingestellt ist.

Den interessiert genau, was in der Registry steht. Und das siehst Du in nHancer oder RT.

Das Control Panel ist hier die fehlerhafte Komponente!

Eben nicht, die besagte "Optimierung" steht bei mir auf unterschiedlichen System trotz HQ öfter mal auf "On". Was der Treiber dann tatsächlich macht, ist wieder etwas Anderes. Da bisher niemandem etwas Negatives aufgefallen ist, liegt vermutlich weiterhin HQ an.

Nochmal: Das Panel sperrt die Änderung aller Optimerungseinstellungen sobald HQ gewählt ist.

Wenn Du im Panel auf "HQ" umstellst werden auch zunächst automatisch alle Optimierungen auf "off" ANGEZEIGT (in der Registry wird aber nur das HQ geschrieben).

Beim nächsten Öffnen des Panels zeigt es dann offenbar aber den aktuellen Stand der Optimierungseinstellungen aus der Registry an, sperrt die Felder aber weiterhin gegen Änderungen.

Ist das inkonsequent, verwirrend und m.E. total daneben? Sicher.

Aber wie gesagt, lasst Euch durch das Panel einfach nicht verwirren und guckt in RT / nHancer. Und habt im Hinterkopf, dass in D3D, und nur da, Optimierungen in HQ nicht funktionieren, egal ob aktiviert oder nicht.


Das ganze ist zu 99% kein Trick von nVidia um Leute hereinzulegen sondern nur pure Unfähigkeit der Panel Programmierer. Garniert mit offensichtlich deutlich fähigeren OpenGL Codern (da funktionieren alle Profileinstellungen zu 100% im Gegensatz zu D3D) und ein paar Kommunikationshemmnissen zwischen OpenGL, D3D und Panelprogrammierern.

Raff
2007-12-31, 11:13:23
Nochmal: Das Panel sperrt die Änderung aller Optimerungseinstellungen sobald HQ gewählt ist.

Wenn Du im Panel auf "HQ" umstellst werden auch zunächst automatisch alle Optimierungen auf "off" ANGEZEIGT (in der Registry wird aber nur das HQ geschrieben).

Bis hier d'accord.

Beim nächsten Öffnen des Panels zeigt es dann offenbar aber den aktuellen Stand der Optimierungseinstellungen aus der Registry an, sperrt die Felder aber weiterhin gegen Änderungen.

Ja. Aber es zeigt nach einem Wiederaufruf, trotz eines vorherigen Ausknipsens aller Optimierungen und anschließender HQ-isierung bei der Tri-Opt "On" an (wie gesagt). Deiner Aussage zufolge wäre sie de facto entgegen der Einstellung aktiv, weil die Registry es sagt.

Aber wie gesagt, lasst Euch durch das Panel einfach nicht verwirren und guckt in RT / nHancer. Und habt im Hinterkopf, dass in D3D, und nur da, Optimierungen in HQ nicht funktionieren, egal ob aktiviert oder nicht.

Dem Panel traut vermutlich niemand wirklich. :D Dieser Thread entstand ja auch nur, weil der RivaTuner dem widerspricht, was das Panel sagt. Die OGL-BQ auch. Stellt man im RivaTuner wieder die "Optimierungen" an, die das Panel nicht tötet, kommt wieder die "optimierte" OGL-BQ heraus, die das Panel als "HQ" berzeichnet.

MfG,
Raff

James Ryan
2007-12-31, 11:15:55
Einige scheinen indes nicht zu begreifen, was das eigentliche Problem ist: Steht etwas auf "HQ", dann hat da auch HQ rauszukommen, und nicht Q + Opts.

Ich stimme dir zu!
Dennoch: Solange weiterhin mit HQ vs. AI-standard gebencht wird, greift NVIDIA zu solchen Mitteln. Welche Möglichkeit haben sie denn sonst?
Hier sind zuallerst einmal die Reviewer gefragt!

MfG :cool:

Razor
2007-12-31, 11:27:23
Suuuuuper...
:uclap:

Vor 1,5 Wochen im nVidia-Hilfeforum:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=396264
Dann irgendwann zu PCGH (wo die das wohl her haben ;-)
Und nun hier...

Aber ist vielleicht gar nich schlecht, das im GraKa-Forum weiter zu 'diskutieren'.

Razor

Senti, arbeitest du bei Nvidia? Es gibt keinen Grund, BQ-Defizite schönzureden.

Mich interessiert jetzt viel mehr, wo es hakt. Ist es ein XP-Bug? Wenn, dann 32 Bit only. Ist es ein GF7-Bug? Wie spielt der nHancer mit hinein? Mehr Leute!
Oh menno... sooo schwierig ist das doch nicht.

nHancer 'kennt' - wie im übrigen viele, viele andere User auch - dieses Problem schon seit Ewigkeiten und 'reagiert' auch entsprechend.

Mit Einführung der 100'er ForceWares (also dem neuen Panel) tritt dieses 'Problem' schon bei OpenGL auf... die Einstellungen im Panel wirken sich ausschließlich auf D3D aus, nicht auf OpenGL. Wen das stört, kann dies auch mit dem RT - seit dem dieses 'Problem' exisitiert - aus der Welt schaffen... auch der aTuner kann das etcpp. Witziger weise hat dies im alten Panel immer bestens funktioniert (seit FX 5x00, wenn ich recht entsinne ;-)...

Mich 'stört' allerdings viel mehr, dass im DualView-Modus die Performance unter OpenGL absolut mies sein kann, so dass man dazu gezwungen wird, entweder den 2. Moni abzuschalten oder aber die "MutliDisplay-GPU-Beschleunigung" auf "single" zu stellen.

Bei letzterem kräht auch kein Hahn danach.

Und wie kommt das wohl?
OpenGL hat einfach keinen Stellewert mehr!
Leider...

Nur nochmal zur Historie:
- Einführung der "Optimierungen" mit den GeForce FX5ern
- Einführung der Optionen für die Optimierung ebenfalls noch mit den GeForce FX5ern
- Problematik: stetzen von HQ läßt Optimierungen an seither
- irgendwann Korrektur der letztgenannten Problematik
- Einführung des neuen Panels - Optimierungs-Switches haben keinen Einfluß mehr auf OpenGL
That's it.

Was mich auch am neuen Panel stört (nur der Vollständigkeit halber ;-)... wenn man in einem Profil z.Bsp. AF forciert, dann bleibt das globale HQ zwar aktiv, aber es werden die Optimierungen ebenfalls auf Profil-seite forciert... nach Vorgabe des globalen Profils zwar, ist aber trotzdem nicht gewünscht. Deaktiviert man nun AF wieder (stellt dieses auf "global/anwendungsgesteuert" zurück), bleiben die beiden Profil-Optimierungen noch immer aktiv... viel schlimmer noch: die trilineare Optimierung wird zudem aktiviert!

Ist aber alles nichts Neues... und so ist es mal ganz 'nett', wenn es hier mal wieder thematisiert wird.
Ob dies aber tatsächlich in das GraKa-Forum gehört, oder es sich dabei eher um Treiber-Probleme handelt und daher ins entsprechende Hilfeforum 'wandern' sollte, steht auf einem anderen Blatt.

Übrigens: da es sich hierbei um ein Treiber-Problem handelt, trifft es natürlich ALLE Grafikkarte seit NV3x (also GeForce FX 5xxx). Und wenn ich recht entsinne, auch über alle Windows-Versionen hinweg.

Es geht hier aber nicht schon wieder um die unfähigen Leute bei AMD, sondern um die unfehlbaren Grünen.
Warum sollten die 'Grünen' unfehlbar sein?
:confused:

Eine 'Methode' kann man hier nicht wirklich erkennen... höchstens die, dass die Reviewer bei PCGH (auch bei CB z.Bsp.) allesamt mal auf eine "Optimierungs-Schulung" gehören, um nicht immer Äpfel mit Birnen zu vergleichen. Das Thema "Optimierungen" gibt es schon, seit es "Balken" gibt... und so lange es "Balken" gibt, wird es auch "Optimierungen" geben.

Es wurde immer schon - immer mal wieder - über diese Thematik gesprochen, aber wirklich 'bewirkt' hat es nichts. AMD (seinerzeit ATI) hat damit mal angefangen und nVidia hat nachgezogen... seither haben wir das 'Problem'.

Da es sich hier aber um OpenGL handelt, welches heutzutage leider kaum noch einen Stellenwert inne hat, wird es nur ein weiterer Treiber-Bug sein, mehr nicht.

Eben nicht, die besagte "Optimierung" steht bei mir auf unterschiedlichen System trotz HQ öfter mal auf "On". Was der Treiber dann tatsächlich macht, ist wieder etwas Anderes. Da bisher niemandem etwas Negatives aufgefallen ist, liegt vermutlich weiterhin HQ an.
Du hast global die Optimierung noch immer auf 'On'.

Grundsätzliches Vorgehen:
- globales Profil: negLOD=clamped, AnisoOpts off, TriOpts off, Panel schließen
- globales Profil: Quality auf "HQ"
- Profilverwaltung: Änderungen an AF bewirken Aktivierung der Opts, Panel schließen
- Profilverwaltung: Opts wieder auf 'global'
und alles ist 'gut'

OK, Optional 'darf' man dann auch gerne die globalen Optimierungen für OpenGL deaktivieren... ;)

Einige scheinen indes nicht zu begreifen, was das eigentliche Problem ist: Steht etwas auf "HQ", dann hat da auch HQ rauszukommen, und nicht Q + Opts. Bei A.I. @ R600 war der Tenor nicht anders, als herauskam, dass "Off" nach wie vor spart!
Und deswegen kann man A.I. dann auch gleich an lassen?
Merkwürdige Logic...

Und noch etwas: "HQ" oder auch die anisotropen Optimierungen haben sich noch NIE auf OpenGL ausgewirkt.
Das einzige, was bei OpenGL 'ankommt', ist TriOpt... HQ, oder die anistrope Stage-Optimierung hatte noch nie irgendwelchen Einfluss.

Du scheints 'irgendwie' irgendwelchen Falsch-Annahmen aufzusitzen.
Die Panel-Einstellungen haben Einfluß auf
1) D3D und OGL
2) nur auf D3D
3) nur auf OGL

Das 'tragische' ist nur, dass es nicht dabei steht...

Das alte Panel hat das übrigens genauso gemacht.
Bis es korrigiert wurde... ja - danach nicht mehr.

Edit: Kann es sich ev. um einen Bug vom Rivatuner handeln?
Nein.

Und: wenn Du nHancer benutzt, bleibst Du zumindest von diesem 'Problem' verschont!
(kann aber andere Probleme geben, wenn nHnacer zu einem Treiber nicht 'kompatibel' ist)

Ganz leicht mit (OpenGL) FilterTest 1.3 von dem guten Georg Kolling nachzuprüfen...
(auch ein "OldScool" Mitglied vom 3DC vor 'Verfall'... hat sich schon laaange nicht mehr 'blicken' lassen... leider)

in einem anderen Thread hab ich mal nachgemessen.....bei Crysis in 1280x1024 DX9 HighSpec und 4xAA/16xAF hat meine alte X1950Pro ~3% bei A.I. off verloren!
Toll...
:uclap:

Dass man A.I. zumindest auf 'low' läßt, liegt schlicht in der Tatsache begründet, dass mit A.I. 'off' auch gleich sämtliche Bugfixes und Engine-spezifische-Performance-Optimierungen mit abschaltet und das ist dann wahrlich "unfair". Dann aber zu behaupten, dass die BQ vergleichbar wäre, ist schlicht eine Lüge.

Bei AMD/ATI hat man ja einfach keine Wahl... entweder Optimierungen und Bugfixes aktiv oder gleich beides aus. Und das lediglich 'global', nicht einmal auf Anwendungsebene.

nVidia hingegen bietet mit der integrierten Profilverwaltung und einer wesentlich spezifischeren Optimierungs-Kofiguration ein Wekzeug, welches wesentlich felxibler ist und dem User mehr Eingriffs-Möglichkeiten erlaubt. Das Ganze habt dann wieder seine Tücken, die man wissen/kennen muss, wenn man "advanced" user ist... aber dass das Ganze unabhängig von irgendwelchen Engine-spezifischen Bugfixes und/oder Optimierungen ist, dürfte unbestreitbar ein gewaltiger Vorteil bei den nVidia-Treibern sein.

Wie gesagt, so einfach, wie es Raff in seinem Artikel dargestellt hat, ist das Ganze (wie immer ;-) nicht.
Klar ist es wichtig, in den Medien immer "der erste" zu sein... aber man hätte hier eindeutig vorher intensiver recherchieren müssen...
Sorry@Raff.

Razor

Exxtreme
2007-12-31, 11:31:13
Ach Leute, optimiert wird schon von Haus aus immer. Alleine stinknormales Mipmaping ist eine Optimierung oder auch HSR.

Die Frage ist jetzt, führt eine Optimierung zu schlechteren optischen Ergebnissen oder nicht? Wenn nicht dann wayne? Und kommt mir bitte nicht mit 800%-Vergrösserungen.

Razor
2007-12-31, 11:34:04
Ach Leute, optimiert wird schon von Haus aus immer. Alleine stinknormales Mipmaping ist eine Optimierung oder auch HSR.

Die Frage ist jetzt, führt eine Optimierung zu schlechteren optischen Ergebnissen oder nicht? Wenn nicht dann wayne? Und kommt mir bitte nicht mit 800%-Vergrösserungen.
Du wirst aber zugeben müssen: die trilineare Optimierung (aths "BriFilter" ;-) sieht man... wenn man denn will.
Auch ohne 800% Vergrößerung... mit der ich schon laaaaange nicht mehr komme!
:D

Razor

Raff
2007-12-31, 11:40:04
Wie gesagt, so einfach, wie es Raff in seinem Artikel dargestellt hat, ist das Ganze (wie immer ;-) nicht.
Klar ist es wichtig, in den Medien immer "der erste" zu sein... aber man hätte hier eindeutig vorher intensiver recherchieren müssen...
Sorry@Raff.

Keine Zeit, daher kurz: warum? Die News verbreitet keine Falschaussage, du gibst ihr gar ausführlich Recht. Dass das Panel (oder was auch immer) seit den 100er-FWs herumzickt, steht da auch (und wurde in der Tat vor einigen Monaten im Heft erwähnt).

MfG,
Raff

Heimatloser
2007-12-31, 12:03:17
Zitat von Razor:

Mich 'stört' allerdings viel mehr, dass im DualView-Modus die Performance unter OpenGL absolut mies sein kann, so dass man dazu gezwungen wird, entweder den 2. Moni abzuschalten oder aber die "MutliDisplay-GPU-Beschleunigung" auf "single" zu stellen.

Bei letzterem kräht auch kein Hahn danach.

Und wie kommt das wohl?
OpenGL hat einfach keinen Stellewert mehr!
Leider...



Vielen Dank für die Info.

Das löst für mich Gelegenheitsspieler eines meiner Problem.

DerHeimatlose

Exxtreme
2007-12-31, 12:13:22
Du wirst aber zugeben müssen: die trilineare Optimierung (aths "BriFilter" ;-) sieht man... wenn man denn will.
Auch ohne 800% Vergrößerung... mit der ich schon laaaaange nicht mehr komme!
:D

Razor
Was Texturfilter angeht da bin ich gottseidank nicht ganz empfindlich wie beim AA. Solange es net flimmert und scharf aussieht, bin ich zufrieden. :D

Grestorn
2007-12-31, 12:14:20
Ja. Aber es zeigt nach einem Wiederaufruf, trotz eines vorherigen Ausknipsens aller Optimierungen und anschließender HQ-isierung bei der Tri-Opt "On" an (wie gesagt). Deiner Aussage zufolge wäre sie de facto entgegen der Einstellung aktiv, weil die Registry es sagt.

In OpenGL, ja. Wie gesagt, D3D ignoriert die Einstellung, wenn HQ eingeschaltet ist.

Das ist ja das Problem: Das Panel lässt die Optimierungs-Einstellungen de fakto an, obwohl sie auf der Oberfläche nach dem Umschalten auf HQ auf "aus" angezeigt werden.

Für den D3D wäre das ja egal, aber für OpenGL ist es das eben nicht.

Im Übrigen bin ich nicht der Meinung, dass bei HQ keine Optimierungen mehr aktiv sein dürfen. Wieso eigentlich? Der Unterschied zwischen Q und HQ ist eine andere Optimierung als die 3 extra einstellbaren Optimierungen.

Gast
2007-12-31, 12:35:00
Ach Leute, optimiert wird schon von Haus aus immer. Alleine stinknormales Mipmaping ist eine Optimierung oder auch HSR.

Die Frage ist jetzt, führt eine Optimierung zu schlechteren optischen Ergebnissen oder nicht? Wenn nicht dann wayne? Und kommt mir bitte nicht mit 800%-Vergrösserungen.
Die Frage ist eher: Lohnt es sich überhaupt, sich über solche "Optimierungen" so künstlich aufzuregen?
Aber ich finde es ziemlich lustig, dass einige gleich mit AI ankommen, obwohl das nicht das Thema des Artikels ist, auf den sich dieser Thread bezieht.

James Ryan
2007-12-31, 12:42:55
Aber ich finde es ziemlich lustig, dass einige gleich mit AI ankommen, obwohl das nicht das Thema des Artikels ist, auf den sich dieser Thread bezieht.

Nunja, ist schon seltsam, dass man einerseits sich über Optimierungen aufregt und "Augenkrebs bekommt", andererseits aber den AI-Mist an lässt.
Zweilerei Maß? ;)

MfG :cool:

Raff
2007-12-31, 12:45:10
Nunja, ist schon seltsam, dass man einerseits sich über Optimierungen aufregt und "Augenkrebs bekommt", andererseits aber den AI-Mist an lässt.
Zweilerei Maß? ;)

MfG :cool:

Ich, eine Privatperson, meckere über beides. Das solltest du wissen, wenn du regelmäßig in diesem Unterforum mitliest. Nur ein (älteres) Beispiel: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789

MfG,
Raff

Nakai
2007-12-31, 12:51:23
NV und ATI hin oder her. Ich seh keinen Unterschied. Nur wenn ich Bilder vergleiche, kann ich vll den ein oder anderen Unterschied feststellen.
Bei Reviews und Tests sollte aber die gleiche BQ gewährleistet werden, leider ist das praktisch nicht möglich.


mfg Nakai

Gast
2007-12-31, 12:56:22
Nunja, ist schon seltsam, dass man einerseits sich über Optimierungen aufregt und "Augenkrebs bekommt", andererseits aber den AI-Mist an lässt.
Zweilerei Maß? ;)

MfG :cool:
Deine Beiträge sind auch Mist, trotzdem lese ich sie.
Ich hoffe das kommt endlich bei den Benchmarksüchtigen und Balkengeilen unter euch an: Es ist doch scheißegal, dass A oder N mit fragwürdigen "Optimierungen" einen längeren Balken bekommt. Viel wichtiger ist, dass man ein visuell annehmbares Ergebnis bekommt, selbst wenn hier und da schlechter gefiltert wird.
Mir ist vor Kurzem folgendes aufgefallen: Spiele ich STALKER mit Ingame-AF, so habe ich Texturenlärm (Noise, ähnlich wie in Painkiller). Gehe ich ins CCC und steuere dort die anisotrope Filterung, ist der Texturennoise weg, aber man sieht wegen der flimmeranfälligen Straßen(belag)texturen eine mehrstufige Welle, die man vor sich schiebt.

James Ryan
2007-12-31, 13:10:15
Ich, eine Privatperson, meckere über beides. Das solltest du wissen, wenn du regelmäßig in diesem Unterforum mitliest. Nur ein (älteres) Beispiel: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=291789


Dann lass deine Meinung bitte auch mal in der PCGH-Redaktion raus. ;)

@Gast
Deaktivere AI und schon hast du keine Texturwelle mehr. Es kann alles, so einfach sein...

MfG :cool:

EL_Mariachi
2007-12-31, 13:11:13
ach wenn sich doch mal jemand über die Performance Probleme der GF8 Karten bei UT2004 bzw. einigen anderen "the way its meant to be played" Titeln so ausgiebig aufregen könnte ;)

Das scheint aber weder jemanden ausm 3dc, noch jemanden von der PCGH zu interessieren. Hier könnte man von totschweigen reden... stattdessen werden zum 150x diese lächerlichen Filterproblemchen von rot grün ausdiskutiert.

Es gibt Tools wie nhancer und A.I. lässt sich auch abschalten. Das ist doch toll. Freut euch des Lebens.

:rolleyes:
...

Schlammsau
2007-12-31, 13:30:30
hab mir mal die Mühe gemacht, und 3 Vergleichsbilder erstellt! Speichert die 3 Bilder und vergleicht selbst..... Grafikkarte ist eine HD3850 mit dem Catalyst 7.12!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. On Standard
http://img231.imageshack.us/img231/7679/crysis20074xaa16xafaionyk7.th.jpg (http://img231.imageshack.us/my.php?image=crysis20074xaa16xafaionyk7.jpg)

A.I. On Advanced
http://img221.imageshack.us/img221/5499/crysis20074xaa16xafaiofhy5.th.jpg (http://img221.imageshack.us/my.php?image=crysis20074xaa16xafaiofhy5.jpg)

A.I. off
http://img341.imageshack.us/img341/9361/crysis20074xaa16xafaionpm3.th.jpg (http://img341.imageshack.us/my.php?image=crysis20074xaa16xafaionpm3.jpg)

....und jetzt mal ehrlich, ausser an den Frames per Second sieht man keinen Unterschied, oder!?

Razor
2007-12-31, 13:43:15
Keine Zeit, daher kurz: warum? Die News verbreitet keine Falschaussage, du gibst ihr gar ausführlich Recht. Dass das Panel (oder was auch immer) seit den 100er-FWs herumzickt, steht da auch (und wurde in der Tat vor einigen Monaten im Heft erwähnt).
Warum dann der "Aufriß"?
:D

Und soooooo schlecht, wie noch zu Zeiten der 100er ist das Panel nicht mehr.
Es gibt aber Fallstricke und die muss man kennen...

Was Texturfilter angeht da bin ich gottseidank nicht ganz empfindlich wie beim AA. Solange es net flimmert und scharf aussieht, bin ich zufrieden. :D
Witzbold... ;)

Mich stören die recht harten Mip-Übergänge schon... aber jedem das Seine, gell?

Vielen Dank für die Info.
Das löst für mich Gelegenheitsspieler eines meiner Problem.
Ist doch gut, wenn auch ein paar wirkliche Infos rüber kommen...
Gern geschehen!

Das ist ja das Problem: Das Panel lässt die Optimierungs-Einstellungen de fakto an, obwohl sie auf der Oberfläche nach dem Umschalten auf HQ auf "aus" angezeigt werden.
Schließt man das Panel und öffnet es erneut, ist das 'Drama' dann ersichtlich... ;)

Viel schlimmer ist es aber bei dem von mir erwähnten Fakt, dass beim profilierten Erzwingen von AF (was ja z.Bsp. bei Crysis unumgänglich ist), die beiden Optimierungen wieder aktiv werden... und dort ist dann z.Bsp. TriOpt 'on' erzwungen... sehr 'unschön' das.

Im Übrigen bin ich nicht der Meinung, dass bei HQ keine Optimierungen mehr aktiv sein dürfen. Wieso eigentlich? Der Unterschied zwischen Q und HQ ist eine andere Optimierung als die 3 extra einstellbaren Optimierungen.
So ist es...

Razor

Gast
2007-12-31, 13:45:17
hab mir mal die Mühe gemacht, und 3 Vergleichsbilder erstellt! Speichert die 3 Bilder und vergleicht selbst..... Grafikkarte ist eine HD3850 mit dem Catalyst 7.12!

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF

A.I. On Standard
http://img231.imageshack.us/img231/7679/crysis20074xaa16xafaionyk7.th.jpg (http://img231.imageshack.us/my.php?image=crysis20074xaa16xafaionyk7.jpg)

A.I. On Advanced
http://img221.imageshack.us/img221/5499/crysis20074xaa16xafaiofhy5.th.jpg (http://img221.imageshack.us/my.php?image=crysis20074xaa16xafaiofhy5.jpg)

A.I. off
http://img341.imageshack.us/img341/9361/crysis20074xaa16xafaionpm3.th.jpg (http://img341.imageshack.us/my.php?image=crysis20074xaa16xafaionpm3.jpg)

Das wird erst interessant, wenn es den ersten echten "Cryis"performance-Treiber gibt.

Raff
2007-12-31, 14:12:00
Habe eben die FW 169.21 WHQL neu installiert. Der RivaTuner listet alle D3D-Optionen gemäß den Settings im CP, OGL bleibt verpfuscht. Könnte jemand bitte mal genauso verfahren? Treiber deinstallieren und neu draufklatschen. :)

MfG,
Raff

Razor
2007-12-31, 14:35:19
Habe eben die FW 169.21 WHQL neu installiert. Der RivaTuner listet alle D3D-Optionen gemäß den Settings im CP, OGL bleibt verpfuscht. Könnte jemand bitte mal genauso verfahren? Treiber deinstallieren und neu draufklatschen. :)
Braucht niemand zu checken... ist so, war so und ändert sich hoffentlich mal irgendwann.
Nix für ungut...

Razor

P.S.: die 169.2x werde ich ganz sicher nicht nochmal 'anfassen' ;)

Schlammsau
2007-12-31, 15:38:26
Das wird erst interessant, wenn es den ersten echten "Cryis"performance-Treiber gibt.
Naja....mittlerweile sind doch schon 2 Catalysts ins Land gegangen.....
Kann mir jetzt jemand unterschiede auf den Screenshots aufzeigen, die auf optimierungen zurückzuführen sind? Für mich ist die Qualität überall gleich, nur die Performance nicht! Da merkt man schon einen Unterschied.

Gast
2007-12-31, 15:39:30
Lol nen Crysis Performance-Treiber von Ati ;)
Das ist nicht NV die Programmieren nicht extra nen Treiber für nen Spiel außer man hat Treiberbedingt extreme Probleme und dann ist das nur ein vorübergehender Bugfix.

Schlammsau
2007-12-31, 15:39:35
Das wird erst interessant, wenn es den ersten echten "Cryis"performance-Treiber gibt.
Naja....mittlerweile sind doch schon 2 Catalysts ins Land gegangen.....
Kann mir jetzt jemand unterschiede auf den Screenshots aufzeigen, die auf optimierungen zurückzuführen sind? Für mich ist die Qualität überall gleich, nur die Performance nicht! Da merkt man schon einen Unterschied, so ungefähr 3fps.
[Edit] Oopps, Doppelpost :redface:

Crysis DX10, HighSpec, 1280x1024, 4xAA/16xAF
A.I. On Standard
http://img231.imageshack.us/img231/7679/crysis20074xaa16xafaionyk7.th.jpg (http://img231.imageshack.us/my.php?image=crysis20074xaa16xafaionyk7.jpg)

A.I. On Advanced
http://img221.imageshack.us/img221/5499/crysis20074xaa16xafaiofhy5.th.jpg (http://img221.imageshack.us/my.php?image=crysis20074xaa16xafaiofhy5.jpg)

A.I. off
http://img341.imageshack.us/img341/9361/crysis20074xaa16xafaionpm3.th.jpg (http://img341.imageshack.us/my.php?image=crysis20074xaa16xafaionpm3.jpg)

Raff
2007-12-31, 15:48:52
Braucht niemand zu checken... ist so, war so und ändert sich hoffentlich mal irgendwann.
Nix für ungut...

Razor

P.S.: die 169.2x werde ich ganz sicher nicht nochmal 'anfassen' ;)

Der K(n)ackpunkt ist, dass es ja nicht allen so geht. Ich könnte jetzt auch "ist halt so, immer" sagen, würde es aber gerne genauer wissen.

MfG,
Raff

4 Vitamins
2007-12-31, 16:53:26
Is zwar bishen OT (nur bishen) aber finde ich interesant:

Wäre (ist) es möglich einen algorhytmus für "farben" zu designen, so etwas wie MP3 -algo für Wavefiles?. Wo durch gekonnte Einsparungen, sagen wir mal im 10-20% bereich, rechenleistung (fps) gesteigert werden konnte??
Als edndergebniss kämmen dann weniger satte, blasere farben.
Ist so was möglich bei garfikkarten (theoretisch natürlich=))
gruss

Razor
2007-12-31, 17:21:39
Der K(n)ackpunkt ist, dass es ja nicht allen so geht. Ich könnte jetzt auch "ist halt so, immer" sagen, würde es aber gerne genauer wissen.
Nochmal: diejenigen, die den nHancer benutzen, kannst Du aussen vor lassen.
Das dürfte dann so ziemlich ALLE Gegenstimmen eliminieren...

Wäre (ist) es möglich einen algorhytmus für "farben" zu designen, so etwas wie MP3 -algo für Wavefiles?. Wo durch gekonnte Einsparungen, sagen wir mal im 10-20% bereich, rechenleistung (fps) gesteigert werden konnte??
Als edndergebniss kämmen dann weniger satte, blasere farben.
Ist so was möglich bei garfikkarten (theoretisch natürlich=))
Das, was Du meinst, ist der dunklere Default-Gamma bei AMD/ATI... nVidia macht es hier richtig(er).
(hat also nix mit einer Optimierung seitens nVidia zu tun ;-)

Und das, was MP3 bei WAV macht, tut die Textur-Komprimierung bei unkomprimierten Texturen.

Razor

Raff
2007-12-31, 17:31:22
Nochmal: diejenigen, die den nHancer benutzen, kannst Du aussen vor lassen.
Das dürfte dann so ziemlich ALLE Gegenstimmen eliminieren...

Hehe. Weißt du, was lustig ist? Den nHancer habe ich auch drauf. :D

MfG,
Raff

Sterems
2007-12-31, 17:48:26
Komisch das hier immer auf AI gehämmert wird.Habe das schon bei zich Spielen alles selbst getestet.

Ich sehe zwischen AI high und Off keinen unterschied.Das werden auch alle anderen nicht sehen die einfach nur das Spiel spielen wollen.;););););)

Das gilt auch für alle anderen die sich mit Grafikkarten nicht so auskennen sondern nur zocken wollen.

Das ist alles mist mit AI.Es gibt für normale Leute die sich mit Grafikkarten nicht befassen kein unterschied.;);););)

Blaire
2007-12-31, 17:57:21
Doch, natürtlich wird sie das. nHancer zeigt den korrekten Zustand an.

Stellt man im Rivatuner die Optimierungen an , meldet der Nhancer sie wären weiterhin aus. Also Bug vom Rivatuner oder?

Grestorn
2008-01-01, 13:41:59
Stellt man im Rivatuner die Optimierungen an , meldet der Nhancer sie wären weiterhin aus. Also Bug vom Rivatuner oder?

Die Optimierungsoptionen werden für D3D und OGL in jeweils extra Registry Keys gespeichert. Deswegen hat RT auch getrennte Pages dafür.

Ich wollte den Anwender damit nicht belästigen und ändere immer D3D und OGL Keys gemeinsam, wenn eine entsprechende Option in nHancer geändert wird.

Aber beim Auslesen, um den aktuellen Stand zu erfahren, kann ich mich natürlich nur an jeweils einem der Werte orientieren, und da gilt dann für mich immer der D3D Wert. Wenn man also über RT nur den OpenGL Key ändert, kriegt das nHancer nicht mit (und das Control Panel im Übrigen auch nicht).

Gast
2008-01-01, 16:31:40
ich hab jetzt nicht die ganze diskussion mitgelesen, aber euch ist doch wohl aufgefallen, dass das CP zwar die regwerte für OGL nicht ändert, es aber dafür aber defaultmäßig HQ-filterung unter OGL gibt oder?

so lange man keine tweaktools wie nhancer oder rivatuner benutzt ist es mit den neuen treibern unter OGL garnicht mehr möglich etwas anderes als HQ-filterung zu bekommen.
erst wenn man die filterung mit einem der genannten tools reduziert ist es mit dem CP nicht mehr möglich wieder auf volle qualität umzuschalten. zumindest mit einer GF8 ist das so.

Razor
2008-01-01, 16:55:39
...es aber dafür aber defaultmäßig HQ-filterung unter OGL gibt oder?
Nein.

Durch doppeltes Posten (hier und im GraKa-Hilfeforum), wird es auch nicht richtiger...
Und wenn das, was da als "Default" angeboten wird, wirklich "HQ" sein soll (siehe ThumbNail), dann freß ich 'nen Besen!

Razor

Und nochmal vorweg... ein kleiner Vergleich,der zeigt, was genau da eigentlich zum Tragen kommt...
Links mit Optimierungen, rechts ohne - oben 2xAF unten 16xAF
http://www.abload.de/thumb/16917_panelopti_ogl-akx.png (http://www.abload.de/image.php?img=16917_panelopti_ogl-akx.png)

P.S.: so sieht es aus, wenn im Panel alle Optimierungen deaktiviert wurden (inkl. HQ)
(und es ist auszuschießen, dass der nHancer dazwischen 'funkt' ;-)

Gast
2008-01-02, 17:28:29
Also auch bei der 8er Serie :rolleyes:

Zitat:

Update 02.01.2008:
Wir haben die Tests auf eine Geforce 8800 GTS/640 und Windows Vista (x86 und x64) ausgeweitet. Das Verhalten bleibt eindeutig: Nach einer frischen Treibereinstallation und anschließendem Deaktivieren aller "Optimierungen" im Control Panel bleiben die Sparmaßnahmen unter Open GL aktiv.

http://www.pcgameshardware.de/?article_id=626527&page=2

Razor
2008-01-02, 18:46:16
Also auch bei der 8er Serie :rolleyes:
Wieso 'auch'?
:confused:

Da es sich hier um eine Treiber-Geschichte handelt, dürfte das bei ALLEN Grafik-Karten/-Chips der Fall sein.
Ich vermute noch immer, dass OpenGL einfach keinen Stellenwert mehr hat... und es deswegen eher ein Panel Problem ist.

Schlagt mich, aber ich sehe einfach keinen Sinn darin unter OpenGL zu "schummeln"...

Razor

P.S.: und klar ist's unter Vista genauso... wieso sollte es da auch anders sein?

Grestorn
2008-01-02, 18:49:46
Da es sich hier um eine Treiber-Geschichte handelt, dürfte das bei ALLEN Grafik-Karten/-Chips der Fall sein.
Ich vermute noch immer, dass OpenGL einfach keinen Stellenwert mehr hat... und es deswegen eher ein Panel Problem ist.

Schlagt mich, aber ich sehe einfach keinen Sinn darin unter OpenGL zu "schummeln"...

Prinzipiell gebe ich Dir Recht, allerdings gibt es im Panel jede Menge Optionen, die OpenGL Exklusiv sind. Und die kann es wunderbar umstellen.

Ist schlicht Schlamperei im Quadrat!

Gast
2008-01-02, 18:57:45
http://img4.imagebanana.com/img/tjkwvlc4/kurios.jpg

Kann mir mal jemand sagen was dies für ein Modus ist?

Raff
2008-01-02, 18:58:28
The Allseeing Eye. ;) Eine Erfindung.

MfG,
Raff

Razor
2008-01-02, 18:58:53
Ist schlicht Schlamperei im Quadrat!
Klaro...

Insofern regt mich so etwas auch nicht im geringsten auf... da gibt es andere Dinge, die ich als wesentlich störender einstufe.
Leider, leider kann ich mit der 8800GT nicht wirklich weit in der Treiber-Historie zurück...

Gottlob 'merkt' sich der 169'er Mist jetzt die TV-Auflösung... das war vielleicht ein Akt, den immer wieder korrekt (über die Windows-Eigenschaften!) umzustellen. Jetzt geht zwar immer die CRT Bildwiederholfrequenz flöten... aber um das zu korrigieren kann man wenigstens im Panel bleiben.

Probleme gibt es noch genug...

http://img4.imagebanana.com/img/tjkwvlc4/kurios.jpg
Kann mir mal jemand sagen was dies für ein Modus ist?
Da 'pfuscht' Supersamping AA mit hinein...
Jetzt bloß nicht den Fokus verschieben!

Razor

Gast
2008-01-02, 19:00:05
The Allseeing Eye. ;) Eine Erfindung.

MfG,
Raff

So sieht 16xAF bei Doom3 aus ;) Das ja Application AF nutzt...was ist da faul?

Gast
2008-01-02, 19:03:01
Da 'pfuscht' Supersamping AA mit hinein...
Jetzt bloß nicht den Fokus verschieben!

Nein AA ist aus.

Gast
2008-01-02, 19:14:07
Das es jetzt heftge Kritik von vielen 7sern gibt sollte klar sein.

Dast jeder hier hat ebend eine 8800.;)

Coda
2008-01-02, 19:44:00
http://img4.imagebanana.com/img/tjkwvlc4/kurios.jpg

Kann mir mal jemand sagen was dies für ein Modus ist?
Das ist der Photoshop-Modus.

Gast
2008-01-02, 19:47:55
Das ist der Photoshop-Modus.

Nein teste es selbst. Nenn die filter.exe in doom3.exe ;)

Coda
2008-01-02, 19:53:20
Das ist def. Photoshop, man sieht es daran, dass die Farbwerte gar nicht mehr in 2x2-Quads auftreten, was aufgrund der Pipeline-Struktur und der LOD-Berechnung unmöglich ist. Geh woanders trollen.

Gast
2008-01-02, 19:54:56
Unsinn teste es doch bei dir. Lol Photoshop als wüsste ich wie man das macht...

Coda
2008-01-02, 19:55:40
Ich hab es getestet und ich kann nichts dergleichen reproduzieren. Was mich auch nicht im geringsten wundert.

Razor
2008-01-02, 20:15:54
Nein teste es selbst. Nenn die filter.exe in doom3.exe ;)
So ein Quark...
Völlig egal, ob "Filter.exe", "Doom3.exe" oder "Bullshit.exe" - das Ergebnis ist IMMER das gleiche!
(siehe obiger Shot aus meinem vorherigen Post)

Razor

aths
2008-01-05, 21:10:26
Das ist def. Photoshop, man sieht es daran, dass die Farbwerte gar nicht mehr in 2x2-Quads auftreten, was aufgrund der Pipeline-Struktur und der LOD-Berechnung unmöglich ist. Geh woanders trollen.Mit Supersampling sind es keine 2x2-Pixelquads mehr.

aths
2008-01-05, 21:11:37
Ach Leute, optimiert wird schon von Haus aus immer. Alleine stinknormales Mipmaping ist eine Optimierung oder auch HSR.MIP-Mapping ist notwendig um den Berechnungsaufwand für Texturfilterung in festen Grenzen zu halten. Unterfilterung ist per se eine illegale Optimierung. "Brilineare" Filterung ebenso, solange die Applikation den trilinearen Filter anfordert.

PCGH_Raffael
2008-04-15, 14:08:16
Mit der "Geforce" 174.74 besteht das Problem immer noch. Nachgeprüft mit einer 8800 GTX und 9800 GX2 unter XP samt dem Rivatuner 2.08. Kann das jemand quantifizieren?

MfG,
Raff

misterh
2008-04-15, 15:20:41
http://img4.imagebanana.com/img/tjkwvlc4/kurios.jpg

Kann mir mal jemand sagen was dies für ein Modus ist?

SSAA "1x2" + 16AF

Coda
2008-04-17, 22:27:35
Nein, das ist der "Photoshop-Modus".

gbm31
2008-04-18, 08:34:50
Mit der "Geforce" 174.74 besteht das Problem immer noch. Nachgeprüft mit einer 8800 GTX und 9800 GX2 unter XP samt dem Rivatuner 2.08. Kann das jemand quantifizieren?

MfG,
Raff


du brauchst zahlenwerte? :eek:

Raff
2008-04-18, 13:25:15
"Optimierungen" kann man sehen, benchen (Zahlen) und töten.

MfG,
Raff

Gast
2008-04-18, 13:30:32
Nein, das ist der "Photoshop-Modus".

Nein das ist er nicht, das hab ich dir damals schonmal gesagt.

gbm31
2008-04-18, 13:59:40
"Optimierungen" kann man sehen, benchen (Zahlen) und töten.

MfG,
Raff


das war ebenso darauf bezogen, daß du doch an der quelle sitzt - mach doch nen benchparqours, vieleicht springt ein interessanter artikel raus?

Gast
2008-04-18, 14:15:18
Man kann keinen Modus benchen, der nicht verfügbar ist.

Thanatos
2008-04-18, 14:18:12
du brauchst zahlenwerte? :eek:

Scheiß Fremdwörter, nicht? :D


Entschuldigt die Diskussionsstörung... ;(

gbm31
2008-04-18, 14:21:16
Scheiß Fremdwörter, nicht? :D


ich dachte auch erst, er meinte verifizieren, aber ich nehme mal zu seinen gunsten an, daß er sich jetzt nicht nur rausgewunden hat ;)



zum benchen können - wenns über die registry oder den enhancer wegzubekommen ist, wieso sollte es nicht benchbar sein?
oder von was redet der gast?

PCGH_Raffael
2008-04-18, 14:42:21
Ich scheiße ja auch ganz gerne mal klug ;), aber wollen die 200 Geforce-Nutzer (http://www.forum-3dcenter.org/vbulletin/poll.php?do=showresults&pollid=3783) hier im Forum nicht doch mal nachsehen?

MfG,
Raff

Coda
2008-04-18, 17:28:33
Nein das ist er nicht, das hab ich dir damals schonmal gesagt.
Hast recht, so sieht das Ding echt aus mit Supersampling. Mea culpa.

Gast
2008-04-19, 00:38:24
Hast recht, so sieht das Ding echt aus mit Supersampling. Mea culpa.

Kein Problem. :)