PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Versteckte "Optimierungen"


Leonidas
2004-05-25, 20:45:52
Link (http://www.3dcenter.de/artikel/versteckte_optimierungen/)

LovesuckZ
2004-05-25, 21:15:07
Wird jede Stage nur 2AF gefiltert oder ist dies von den Texturen abhaengig?

resonatorman
2004-05-25, 21:16:22
Wieder ein eye-opener, danke dafür!
aths, was würden wir ohne dich machen?

druggedApE
2004-05-25, 21:20:35
im fazit ist ein kleiner fehler:
Der aktuelle Forceware-Treiber ist für Max Payne mit seiner 8x-statt-2x AF-Texturqualität schlicht unzumutbar.
soll wohl andersrum sein oder?

ansonsten guter artikel :)

grüsse
ApE

aths
2004-05-25, 21:45:34
Original geschrieben von LovesuckZ
Wird jede Stage nur 2AF gefiltert oder ist dies von den Texturen abhaengig? Soweit ich weiß, wird Stage 0 noch 8x gefiltert.

aths
2004-05-25, 21:45:56
Original geschrieben von druggedApE
im fazit ist ein kleiner fehler:

soll wohl andersrum sein oder?Japp. Kommt außerdem noch eine Präzisierung rein :)

LovesuckZ
2004-05-25, 21:52:10
Original geschrieben von aths
Soweit ich weiß, wird Stage 0 noch 8x gefiltert.

demirug meinte im anderen Thread, dass es keine Stageoptimierung gaebe.
Nun, also wird per CP jede immer und überall Stage > 0 nur mit 2AF gefiltert?
Dann muss der AF Algorhytmus wirklich schlecht sein, wenn die Leistung mit brilinear und Stageoptimierung immernoch so stark sinkt im Gegensatz zur Konkurenz.

aths
2004-05-25, 21:56:57
Original geschrieben von LovesuckZ
demirug meinte im anderen Thread, dass es keine Stageoptimierung gaebe.
Nun, also wird per CP jede immer und überall Stage > 0 nur mit 2AF gefiltert?
Dann muss der AF Algorhytmus wirklich schlecht sein, wenn die Leistung mit brilinear und Stageoptimierung immernoch so stark sinkt im Gegensatz zur Konkurenz. Siehe Artikel:Was Demirugs Testprogramm angeht, könnte es sein, dass dieses Tool vom Treiber erkannt wird. Jegliche Stage-Optimierung ist da nämlich abgeschaltet, auch wenn man ohne colored MIPs arbeitet. Vielleicht wird aber auch Max Payne erkannt und mit einer speziellen "Optimierung" versehen. Vielleicht kann der Treiber auch schätzen, ob er ein Spiel oder ein Testprogramm vor sich hat.Was da genau vorsich geht, weiß ich noch nicht.

Demirug
2004-05-25, 21:57:39
Original geschrieben von LovesuckZ
demirug meinte im anderen Thread, dass es keine Stageoptimierung gaebe.
Nun, also wird per CP jede immer und überall Stage > 0 nur mit 2AF gefiltert?
Dann muss der AF Algorhytmus wirklich schlecht sein, wenn die Leistung mit brilinear und Stageoptimierung immernoch so stark sinkt im Gegensatz zur Konkurenz.

Ich sagte das es nichts allgemeines sein kann. Weil eine nVidia völlig unbekannte App übernimmt für jede Stage die Panel Einstellung.

sth
2004-05-25, 21:57:41
Wieder mal ein äußerst gut gelungener und gut recherchierter 3dcenter-Artikel.

Bleibt die Frage: Was kann man überhaupt noch kaufen? :(
Wird man die beiden Großen zum Umschwenken bewegen können in Form eines richtigen High-Quality-Modes? (bei ATI ja allein hardwaremäßig nicht möglich)

Man müsste wirklich mal ein kurzes Video aufnehmen (einmal mit nVidia's Optimierungen und einmal mit ATI's) und dann so bearbeiten, dass man (zweigeteiltes Bild) links nVidia und rechts ATI sieht (wie auch immer) und evtl. mit Pfeilen die Mip-Bandings etwas hervorheben. Solbald die Leute wissen, worauf sie zu achten haben, wird es nämlich bald mehr Leute stören. Zum Vergleich am Ende nochmal dasselbe z.B. mit 'ner GeForce3 (und auf einer Seite nebendran weiterhin die Optimierung mitlaufen lassen). Dann müsste man auch noch dafür sorgen, dass ein paar der größeren, internationalen News-Seiten das verlinken.

Einzig die Dateigröße des unkomprimierten Videos stellt ein "kleines" Problem dar. Aber hat Valve die HL2-Videos im Bink-Format nicht auch lossless komprimiert veröffentlicht? Ich fand' die für die gebotene Qualität noch relativ human.

LovesuckZ
2004-05-25, 22:04:59
Original geschrieben von Demirug
Ich sagte das es nichts allgemeines sein kann. Weil eine nVidia völlig unbekannte App übernimmt für jede Stage die Panel Einstellung.

Dumme Frage: Auch ohne einfaerbte Mipmaps?

Gast
2004-05-25, 22:06:52
Ich denke man muss nun jeden Treiber Release nicht Benchmarken, sondern einfach abklopfen ob Spiele / Apps damit Probleme haben und ob die Filterung verändert wurde... Nütz mir ja nix wenn der "Balken" wieder länger wurde, ich aber schönen Voodoo1 Brei habe.

Imoment sehe ich keinen Grund mir noch mehr Grafikbrei anzusehen, hab schon ne Bri gestrafte NV35, danke an Aths für den Artikel, so schleichend wie dieser Filtertrick reinkam hat keiner da genau hingeschaut (zwischen 45.23 und 56.72 liegt ja schon ne weile).
Hoffentlich bessert sich das in Zukunft (wenn ja, dann sicher nur durch Leute wie euch ;))

Eusti
2004-05-25, 22:08:31
Original geschrieben von sth
Man müsste wirklich mal ein kurzes Video aufnehmen (einmal mit nVidia's Optimierungen und einmal mit ATI's) und dann so bearbeiten, dass man (zweigeteiltes Bild) links nVidia und rechts ATI sieht (wie auch immer) und evtl. mit Pfeilen die Mip-Bandings etwas hervorheben. Solbald die Leute wissen, worauf sie zu achten haben, wird es nämlich bald mehr Leute stören.Ja, das ist eine gute Idee. Ein 60 Sek. DivX mit 800x600 sollte bei voller Qualität ca. 25-30 MB belegen. Damit müsste man den Effekt locker nachweisen können. Wenn man dann immer noch keinen Unterschied sieht, können die Hersteller meinetwegen weiter optimieren.

Demirug
2004-05-25, 22:24:10
Original geschrieben von LovesuckZ
Dumme Frage: Auch ohne einfaerbte Mipmaps?

Natürlich.

BodyLove
2004-05-25, 22:24:33
Ich frage mich ernsthaft, wie lange die Beiden Großen das länger durchhalten können. Irgendwann muss doch der Druck zu groß sein. Nicht umsonst verstecken sie diese Applikationen so geschickt.

Danke Aths und an alle, die Mitgewirkt haben. Ist ein schöner Artikel geworden. :daumen

svenska
2004-05-25, 23:09:21
btw: ab welchen treiber greifen eigentlich alle optimierungen? ich bin der meinung, dass vor de, CAT 3.7 ist qualität teiweise besser war, oder liegen diese optmierung schon viel länger drinn?

würde mich mal interessieren. scheiss auf die neuen treiber, back to the roots :D

Gast
2004-05-25, 23:14:47
Dieser Satz verwirrt mich ein bisschen:

"...Für Spiele wie Max Payne haben moderne Grafikkarten mehr als genug Performance. Was Demirugs Testprogramm angeht, könnte es sein, dass dieses Tool vom Treiber erkannt wird. Jegliche Stage-Optimierung ist da nämlich abgeschaltet, auch wenn man ohne colored MIPs arbeitet. Vielleicht wird aber auch Max Payne erkannt und mit einer speziellen "Optimierung" versehen. Vielleicht kann der Treiber auch schätzen, ob er ein Spiel oder ein Testprogramm vor sich hat..."

Bedeutet das jetzt das diese AF-Optimierung nur bei Max Payne aktiv wird bzw. wurde das auch auf anderen Spielen beobachtet? Danke.

svenska
2004-05-25, 23:20:28
Original geschrieben von Gast
Dieser Satz verwirrt mich ein bisschen:

"...Für Spiele wie Max Payne haben moderne Grafikkarten mehr als genug Performance. Was Demirugs Testprogramm angeht, könnte es sein, dass dieses Tool vom Treiber erkannt wird. Jegliche Stage-Optimierung ist da nämlich abgeschaltet, auch wenn man ohne colored MIPs arbeitet. Vielleicht wird aber auch Max Payne erkannt und mit einer speziellen "Optimierung" versehen. Vielleicht kann der Treiber auch schätzen, ob er ein Spiel oder ein Testprogramm vor sich hat..."

Bedeutet das jetzt das diese AF-Optimierung nur bei Max Payne aktiv wird bzw. wurde das auch auf anderen Spielen beobachtet? Danke.

jo ich verstehe dass so, dass wenn man mit ner applikation -also kein spiel- was testet, das der treiber das dann "weiß" und keine optimierungen vornimmt. bei games, die der treiber kennt, wird gecheatet :X ....ähmmm ne ich meine die optimierungen (stages) eingeschalten....

Demirug
2004-05-25, 23:27:53
Erinnert sich noch jemand daran.

Adaptive Texture Filtering
The NVIDIA GeForce FX GPU offers a variety of adaptive texture filtering
techniques that offer PC users more options to improve their image quality without
forcing them to compromise on frame rate to get it. These adaptive techniques
require the hardware to monitor both the geometry and the texture content
continuously to make intelligent trade-offs that enhance performance but won’t
produce visual artifacts. If the user chooses to enable these techniques, the
hardware will automatically adjust the number and type of samples it takes for
texturing operations on a pixel-by-pixel basis. These algorithms are capable of
intelligently selecting texel and filter levels for trilinear as well as anisotropic filtering
modes. Alternatively, the user can choose to use the most conservative settings and
know that all of the texture filtering is done using traditional algorithms.
As part of NVIDIA’s Intellisample technology, adaptive texture filtering raises the
bar for giving users more choices to get higher image quality without compromising
fluid frame rates that gamers crave.

Aus dem Techpaper zur Intellisample Technology

Ich zitiere das ganze aus einem einfachen Grund. Ein schneller Test mit einem Spezialbenchmark deutet darauf hin das der Texturfilter auf den Inhalt der Textur reagiert. Und mit Inhalt meine ich jetzt nicht nur gefärbte Mipmaps sondern auch Texturen die mit dem Boxfilter ihere Mipmaps erzeugt haben.

Bei einem NV35. Ob das bei den NV40 Chips auch der Fall ist kann ich nicht sagen.

svenska
2004-05-25, 23:34:30
Original geschrieben von Demirug
Erinnert sich noch jemand daran.



Aus dem Techpaper zur Intellisample Technology

Ich zitiere das ganze aus einem einfachen Grund. Ein schneller Test mit einem Spezialbenchmark deutet darauf hin das der Texturfilter auf den Inhalt der Textur reagiert. Und mit Inhalt meine ich jetzt nicht nur gefärbte Mipmaps sondern auch Texturen die mit dem Boxfilter ihere Mipmaps erzeugt haben.

Bei einem NV35. Ob das bei den NV40 Chips auch der Fall ist kann ich nicht sagen.


ich versteh das wort "choose" nicht. (achtung ironie!) :D

HOT
2004-05-26, 00:35:37
Ich stell mir grad vor, wie ich mich aufgeregt hätte wenn ich mir damals ne 5900 zugelegt hätte, als 4x.xx Treiber noch aktuell waren. Das war dann doch echt Beschiss pur...

Wie auch immer, die beiden tun sich absolut nichts, da kann ich nur sagen, beide nicht kaufen. Sie sind es nicht Wert in der derzeitigen Form. Selbst wenn der NV40 noch besser dran ist, wer garantiert dafür, dass man später nicht genauso beschissen wird wie bei der 5900?

Denniss
2004-05-26, 01:05:13
Mich würde mal interessieren ob sich die für die professionellen Quadro-Serien zertifizierten Treiber bei den Filtern genauso "ins Zeug" legen oder ob da alles richtig zugeht .

Kann mir nicht vorstellen das NV da auch so rumtrickst denn bei Darstellungsfehlern gibt es bestimmt Ärger .

Das Gleiche bei ATI mit den Fire und anderen Profikarten

LovesuckZ
2004-05-26, 08:50:16
Original geschrieben von Denniss
Mich würde mal interessieren ob sich die für die professionellen Quadro-Serien zertifizierten Treiber bei den Filtern genauso "ins Zeug" legen oder ob da alles richtig zugeht .


Nein, denn unter OpenGL kann man bei nvidia "full trilinear" über die Reg auswaehlen und bei ATi gibt es keine Stageoptimierung.

GloomY
2004-05-26, 10:34:59
Neuen Treiber geladen und Performance gewonnen? Angesichts der ausgereizten Treiber gehen diese "Gewinne" so gut wie immer mit Bildqualitätsverlust einher.Ich hab' mich immer schon gefragt, wo die immer und immer wiederkehrenden Verbesserungen bezüglich der Framerate herkommen. Irgendwann hat's sich einfach mal ausoptimiert, ohne die elementaren Rechenoperationen und damit die Bildqualität anzutasten.

Ansonsten wie üblich ein guter Artikel, dessen Fazit - das Streben nach höchster Bildqualität - ich nur zustimmen kann.

Gast
2004-05-26, 11:58:55
Welche Spiele neben Max Payne sind noch betroffen?

Also die neuen "versteckten" ATI-Optimierungen haben mich schon wirklich aufgeregt, von wegen Trilinear....

Aber dem User nur noch 2xAF statt 8xAF zu bieten ist ein gemeiner widerlicher Betrug und für mich Grund genug NIE WIEDER NVidia Karten zu kaufen! Das geht einfach zu weit!

Gaestle
2004-05-26, 13:24:10
Original geschrieben von sth
Man müsste wirklich mal ein kurzes Video aufnehmen (einmal mit nVidia's Optimierungen und einmal mit ATI's) und dann so bearbeiten, dass man (zweigeteiltes Bild) links nVidia und rechts ATI sieht (wie auch immer) und evtl. mit Pfeilen die Mip-Bandings etwas hervorheben. Solbald die Leute wissen, worauf sie zu achten haben, wird es nämlich bald mehr Leute stören.

Super Idee zu einem Guten Artikel!


@Leonidas:

Ist sowas machbar? Oder gibt das Ärger wegen dem Massentraffic? Vielleicht kann man den aber auf mehrere Hardware-Seiten aufteilen?
Das hätte dann aber vielleicht auch den Effekt, dass eben auch jene Hardware-Seiten für das Thema sensibilisiert werden würden, was wiederum einen größen Meinungsdruck auf die IHV's zur Folge haben könnte ...

Grüße

aths
2004-05-26, 13:46:37
Original geschrieben von Gast
Dieser Satz verwirrt mich ein bisschen:

"...Für Spiele wie Max Payne haben moderne Grafikkarten mehr als genug Performance. Was Demirugs Testprogramm angeht, könnte es sein, dass dieses Tool vom Treiber erkannt wird. Jegliche Stage-Optimierung ist da nämlich abgeschaltet, auch wenn man ohne colored MIPs arbeitet. Vielleicht wird aber auch Max Payne erkannt und mit einer speziellen "Optimierung" versehen. Vielleicht kann der Treiber auch schätzen, ob er ein Spiel oder ein Testprogramm vor sich hat..."

Bedeutet das jetzt das diese AF-Optimierung nur bei Max Payne aktiv wird bzw. wurde das auch auf anderen Spielen beobachtet? Danke. In der Tat, hier ist der Artikel nicht so ganz eindeutig. Vielleicht fällt mir noch eine Ergänzung ein, um das klarer zu machen.

Soweit ich weiß, ist diese "Optimierung" generell für Spiele aktiv. So ist der Performance-Einbruch mit AF in Max Payne 2 erstaunlich gering beim 56.72-er Forceware. In dem Level, wo ich das testete, scheinen die Basemaps aber auf Stage 0 zu liegen, welche dann offenbar auch 8x AF bekommen.

Demirug
2004-05-26, 14:02:12
Original geschrieben von aths
In der Tat, hier ist der Artikel nicht so ganz eindeutig. Vielleicht fällt mir noch eine Ergänzung ein, um das klarer zu machen.

Soweit ich weiß, ist diese "Optimierung" generell für Spiele aktiv. So ist der Performance-Einbruch mit AF in Max Payne 2 erstaunlich gering beim 56.72-er Forceware. In dem Level, wo ich das testete, scheinen die Basemaps aber auf Stage 0 zu liegen, welche dann offenbar auch 8x AF bekommen.

Es ist keine Stage Optimierung. Du läufst in die falsche Richtung. ;)

Gast
2004-05-26, 15:15:46
versteht mich nicht falsch, ich bin kein Fanboy oder wie das auch immer das heißen soll. Ich hab nur leider fast keinen Unterschied bei den Screenshots von Max Payne gesehen.

Ok bei den Texturen in weiter Entfernung habe ich ein bisschen Unterschied festgestellt, aber das ist auch mit viel "Phantasie" und Anstrengung.

Natürlich finde ich nicht gut, dass sowohl nVidia als auch ATi d. Kunden verarschen. Es ist trotzdem meiner Ansicht nach (tut mir leid) etwas kleinkariert, dass man auf Texturen achtet, die sowieso ziemlich weit entfernt sind.

Dass ein störender Effekt bei der Bewegung auftretten soll, ist denke ich mal was, worauf ich nie geachtet hab. Ich werde genauer nächstes Mal aufpassen. Danke fürn Hinweis :)

Das ist natürlich ein Grund mehr für mich maximal 400 Mark für ne Grafikkarte auszugeben. Mehr ist einfach nicht mehr angemessen.

BodyLove
2004-05-26, 15:45:21
Lieber gast, wobei du es dir selbst beantwortet hast.:)

geschrieben von Aths: Trotz Vergrößerung erscheinen die Unterschiede marginal – der Nachteil stört eben nur in Bewegung. Auch hier fragt man sich, ob sich die Reduzierungen beim trilinearen Filter sich deshalb einfach durchsetzten: Denn eine reine Screenshot-Analyse bringt hier nicht viel.

Gast
2004-05-26, 15:53:50
ach ok, wie merkt man denn solche Optimierungen? Dass die Texturen flimmern?

Und außerdem kann ich diese Optimierung mit R300 sehen? Ich hab gehört dass diese Optimierungen nur bei Radeon 9600 und X800 zu beobachten sind.

und welche Texturen sind betroffen, die in weiter Entfernung sind oder sind sogar alle Texturen betroffen?

Mr. Lolman
2004-05-26, 18:04:28
Original geschrieben von Gast
versteht mich nicht falsch, ich bin kein Fanboy oder wie das auch immer das heißen soll. Ich hab nur leider fast keinen Unterschied bei den Screenshots von Max Payne gesehen.

Ok bei den Texturen in weiter Entfernung habe ich ein bisschen Unterschied festgestellt, aber das ist auch mit viel "Phantasie" und Anstrengung.

Natürlich finde ich nicht gut, dass sowohl nVidia als auch ATi d. Kunden verarschen. Es ist trotzdem meiner Ansicht nach (tut mir leid) etwas kleinkariert, dass man auf Texturen achtet, die sowieso ziemlich weit entfernt sind.

Dass ein störender Effekt bei der Bewegung auftretten soll, ist denke ich mal was, worauf ich nie geachtet hab. Ich werde genauer nächstes Mal aufpassen. Danke fürn Hinweis :)

Das ist natürlich ein Grund mehr für mich maximal 400 Mark für ne Grafikkarte auszugeben. Mehr ist einfach nicht mehr angemessen.


Diese Bilder zeigen doch nur die Unterschiede zw. 'brilinear' und trilinear..

Den Unterschied zw. echtem 8xAF und dem 'TS optimierten' AF, sieht man, wenn man den 1. Screenshot der 1. Seite mit dem 1. Screenshot der 2. Seite des Artikels vergleicht...

Demirug
2004-05-26, 18:12:56
Original geschrieben von Mr. Lolman
Diese Bilder zeigen doch nur die Unterschiede zw. 'brilinear' und trilinear..

Den Unterschied zw. echtem 8xAF und dem 'TS optimierten' AF, sieht man, wenn man den 1. Screenshot der 1. Seite mit dem 1. Screenshot der 2. Seite des Artikels vergleicht...

Nochmal. Das ist kein "TS optimiertes" AF. aths hat da auf das falsche Pferd gesetzt.

Aktiviert man das AF über denn Treiber wird das "Adaptive Texture Filtering" von Intellisample aktiviert.

Gast
2004-05-26, 18:53:56
Original geschrieben von Gast
ach ok, wie merkt man denn solche Optimierungen? Dass die Texturen flimmern?

Und außerdem kann ich diese Optimierung mit R300 sehen? Ich hab gehört dass diese Optimierungen nur bei Radeon 9600 und X800 zu beobachten sind.

und welche Texturen sind betroffen, die in weiter Entfernung sind oder sind sogar alle Texturen betroffen?


Bei der ATi flimmern die Texturen.(allerdings können sie das auch wenn voll trilinear gefiltert wird, daran ist dann aber ATis Lod bestimmtung schuld)

Bei brilinearem (NV3x, NV40, RV3x0, R420) Filtering hat man mit den gleichenProblemen zu ämpfen, wie beim bilinearen filtering, allerdings in (stark) abgeschwächter Form.

Wenn dich ATis bi-AF bis jetzt in keiner Situation gestört hat, dann werden es die brilinearen Optimierungen auch nicht. In Fällen wo bi-AF stark störend ist (z.B. Uru) wird auch brilineares Filtering nicht zufriedenstellend sein.



Scheinbar wird bei NVs AF Optimierung jede Textur die (Bestandteil eines spieles ist, und die) nicht auf der TextureStage 0 liegt nur mit 2xAF gefiltert.

Das können jetzt Light/Shadowmaps sein, wos eigentlich relativ wurscht ist, oder es sind Detailtexturen, (fällt schon mehr auf). Wenn aus irgendeinem Grund die BaseTextur mal nicht auf der TS0 liegt, dann ist die auch betroffen, und dann schauts wirklich grauenhaft aus (naja wie brilinear optimiertes 2xAF)

Momentan kann mn sich also aussuchen, ob man von Hausaus nur bi-AF auf den TS>0 haben will (ATI), oder 'tri' (eigentlich bri ;)) AF dafür nur maximal 2x (NVidia)

Gast
2004-05-26, 19:00:33
Original geschrieben von Demirug
Nochmal. Das ist kein "TS optimiertes" AF. aths hat da auf das falsche Pferd gesetzt.

Aktiviert man das AF über denn Treiber wird das "Adaptive Texture Filtering" von Intellisample aktiviert.

Lustig ist nur, dass du ATi keinesfalls zutrauen würdest, dass ihre Optimierung adaptiv arbeitet, und bei NV ists einfach "die intellisanmple Technologie", die so toll adaptiv arbeitet, dass sie keinen BQ verlust bringt (lt NV).

Ich mein bei Ati klang das schon etwas schwach, aber hier stimmte wenigstens (so ziemlich) das Argument, dass kein BQ Verlust vorhanden ist.


Eigentlich find ichs ziemlich dreist, eine BQ verschlechternde Massnahme als Feature anzupreisen. Was hältst du davon mal eine RV360/R420 durch den Spezialprogramm zu jagen. Eigentlich ists ja schon fast armselig was die Intellisampletechnologie so zuwege bringt:

Performance bringts lt. Lovesucks kaum, dafür ist die BQ im A....,




Oder ists nur ein Bug und man muss mal wieder auf bessere Treiber warten?

Mr. Lolman
2004-05-26, 19:01:15
Beide Gastposts gehen auf mein Konto (wie unschwer zu erraten ist;))

/edit: @Demi: Das 1. Gastpost hab ich schon vor deiner Antwort geschrieben, nur hatte ichs nicht gleich abgeschickt ;)



Bei dem treiber wo man die 2x Optimierung auch in diversen Testprogrammen feststellen konnte, war das auch schon Intellisample?


/edit2: NV sollte sich schleunigst einen neuen Namen für diese Technik ausdenken, denn die zwangläufig aufkeimende Assoziation einer intelligenten Sample Technologie entbehrt anhand der Ergebnisse doch jeglicher Grundlage...

Demirug
2004-05-26, 19:07:35
Original geschrieben von Gast
Lustig ist nur, dass du ATi keinesfalls zutrauen würdest, dass ihre Optimierung adaptiv arbeitet, und bei NV ists einfach "die intellisanmple Technologie", die so toll adaptiv arbeitet, dass sie keinen BQ verlust bringt (lt NV).

Ich habe nicht behauptet das diese Intellisanmple Sache verlustfrei abläuft.

Es geht hier nicht um das zutrauen sondern das schlicht un ergreifend darum was die Testprogramme sagen.

Eigentlich find ichs ziemlich dreist, eine BQ verschlechternde Massnahme als Feature anzupreisen. Was hältst du davon mal eine RV360/R420 durch den Spezialprogramm zu jagen. Eigentlich ists ja schon fast armselig was die Intellisampletechnologie so zuwege bringt:

Du meinst ich soll den R420 mit der gleichen Methode überprüfen die ich beim NV35 benutzt habe?

Gast
2004-05-26, 20:07:15
Original geschrieben von Gast
Momentan kann mn sich also aussuchen, ob man von Hausaus nur bi-AF auf den TS>0 haben will (ATI), oder 'tri' (eigentlich bri ;)) AF dafür nur maximal 2x (NVidia)

Nur das Du bei ATI Trilinear auf allen Texturstages erzwingen kannst (und dein Argument somit nicht zählt) und abgesehen von deren "neuer" Brilinear-Optimierung letzlich die deutlich beste Bildqualität bekommst!!! Der AF Betrug von NVidia lässt sich ja nicht so ohne weiteres schnell mal Abschalten. Das ist einfach BETRUG und keine Optimierung mehr! Und im Vergleich zur fast unbedeutenden Diskussion über trilinear/brilinear Optimierungen kostet dieser AF-Betrug richtig Bildqualität.

Mr. Lolman
2004-05-26, 20:24:45
Original geschrieben von Demirug
Du meinst ich soll den R420 mit der gleichen Methode überprüfen die ich beim NV35 benutzt habe?


Jepp, warum nicht?

Demirug
2004-05-26, 20:39:49
Original geschrieben von Mr. Lolman
Jepp, warum nicht?

Schon lange gemacht. Die Programme wurden ja ursprünglich für diesen Zweg geschrieben. Bevor du mich jetzt aber nach den Ergebnissen fragst. Die hat Carsten um sie entsprechend aufzubereiten.

aths
2004-05-26, 20:40:07
Original geschrieben von Gast
Nur das Du bei ATI Trilinear auf allen Texturstages erzwingen kannst Kann man ja eben leider nicht.

aths
2004-05-26, 20:41:24
Original geschrieben von Demirug
Nochmal. Das ist kein "TS optimiertes" AF. aths hat da auf das falsche Pferd gesetzt. Warum wird MP2 so verbessert, wie ich erwarte, und MP1 nicht?

Allerdings macht mich eine Sache nachdenklich, die für deine Theorie spricht: MP1 zockte ich mit der Ti 4600 ja "Hand-Stageoptimiert". Und da waren diese Texturen iirc scharf.

Mr. Lolman
2004-05-26, 20:43:33
Original geschrieben von aths
Kann man ja eben leider nicht.

Hä, nur auf R420 nicht, oder auch auf RV3x0, oder wie jetzt? Bei meiner R300 funktionierts wunderbar, wie eh und je...


@Demi:

Alles klar. Hast du nichteinmal einen Anhaltspunkt, ob das Ganze jetzt adaptiv läuft, oder nicht. Ich mein wenn du schon extzra zu dem Zweck ein Testprogramm schreibst?

Gast
2004-05-26, 20:50:33
Original geschrieben von aths
Kann man ja eben leider nicht.

Das ist mir aber neu, seit wann das denn??? Mit dem rtool geht das doch!

aths
2004-05-26, 20:51:22
Original geschrieben von Mr. Lolman
Hä, nur auf R420 nicht, oder auch auf RV3x0, oder wie jetzt? Bei meiner R300 funktionierts wunderbar, wie eh und je...Ja und nein. Ja, man kriegt wohl das, was bei ATI full tri ist. Das ist allerdings nicht unbedingt das, was ich unter echtem full tri verstehe. Echtes trilinear sieht auf der 5900 jedenfalls trilinearer aus :)

Demirug
2004-05-26, 20:54:12
Original geschrieben von aths
Warum wird MP2 so verbessert, wie ich erwarte, und MP1 nicht?

Allerdings macht mich eine Sache nachdenklich, die für deine Theorie spricht: MP1 zockte ich mit der Ti 4600 ja "Hand-Stageoptimiert". Und da waren diese Texturen afaik scharf.

Ich habe keine Ahnung ob nVidia diese Art von AF-Optimierung auch für die NV25 Chips betreibt. Aber als du MP1 gespielt hast war das sicher noch nicht im Treiber.

Das es keine Stage Optimierung sein konnte ich ganz einfach feststellen. Ich habe meine ganzen Tests nur auf Stage 0 gefahren. Die Filterkonfiguration hängt eindeutig vom Inhalt der Textur ab.

Das Problem bei MP2 dürfte sein das die Fugen zwischen den Bodeplatten nicht Ausreichen um die schwelle für höheres AF zu überspringen.

Mr. Lolman
2004-05-26, 20:56:46
Original geschrieben von aths
Warum wird MP2 so verbessert, wie ich erwarte, und MP1 nicht?

Allerdings macht mich eine Sache nachdenklich, die für deine Theorie spricht: MP1 zockte ich mit der Ti 4600 ja "Hand-Stageoptimiert". Und da waren diese Texturen iirc scharf.

Könnte das vielleicht nach folgendem Schema ablaufen?



if Applikation = Game then
if colormipmapping then
use Texturfiltering(max. 8/16xAF @ all TS)
else
if Game exists in Database then
use Texturfiltering(Database.Game)
else
use Texturfiltering(max. 2xA@TS>0)
end if
end if
else
use Texturfiltering(max. 8/16xAF @ all TS)
end if




/edit: code 'verbessert'

Mr. Lolman
2004-05-26, 20:59:30
Original geschrieben von aths
Ja und nein. Ja, man kriegt wohl das, was bei ATI full tri ist. Das ist allerdings nicht unbedingt das, was ich unter echtem full tri verstehe. Echtes trilinear sieht auf der 5900 jedenfalls trilinearer aus :)

Achso. Dann ist ja bei Ati eh (fast) alles so wie schon seit dem Cat 3.1...

BTW: Dein Urteil über Atis trilinearem Filter beruht immernoch auf Erfahrungswerten mit deiner 9600?

Demirug
2004-05-26, 21:04:00
Original geschrieben von Mr. Lolman
BTW: Dein Urteil über Atis trilinearem Filter beruht immernoch auf Erfahrungswerten mit deiner 9600?

IMHO wird aths wenn er sich den Texturfilter des R420 genauer anschaut noch mehr fluchen.

aths
2004-05-26, 21:04:00
Original geschrieben von Demirug
Ich habe keine Ahnung ob nVidia diese Art von AF-Optimierung auch für die NV25 Chips betreibt. Aber als du MP1 gespielt hast war das sicher noch nicht im Treiber.Doch, aber nur für OpenGL afaik. Damals hatten wir eine Diskussion, ob es reicht den Kontrastlevel innerhalb der Textur festzustellen.

Original geschrieben von Demirug
Das Problem bei MP2 dürfte sein das die Fugen zwischen den Bodeplatten nicht Ausreichen um die schwelle für höheres AF zu überspringen. Das meinte ich damals mit den feinstrukturierten Inhalten auf der Textur :) die hohes AF ebenfalls nötig machen.

Gast
2004-05-26, 21:04:35
Original geschrieben von aths
Ja und nein. Ja, man kriegt wohl das, was bei ATI full tri ist. Das ist allerdings nicht unbedingt das, was ich unter echtem full tri verstehe. Echtes trilinear sieht auf der 5900 jedenfalls trilinearer aus :)


Tasache ist wohl auf jeden Fall, dass ATIs erzwingbares pseudo trilineares Filtering auf allen Stages (wohl immer noch deutlich besser als nur bilinear)+ volles AF auf allen Stages, um Welten besser aussieht als NVidias AF-Betrug!

Ich denke die meisten Menschen können notfalls mit brilinearem Filtering leben (der Unterschied ist nicht schön aber nun wirklich minmal), mit 2x AF will sich sicherlich niemand zufrieden geben, erst recht nicht, wenn er 8x angefordert hat und ganz besonders dann nicht, wenn er 500 Euro für seine Grafikarte ausgegeben hat...

Demirug
2004-05-26, 21:06:58
Original geschrieben von aths
Doch, aber nur für OpenGL afaik. Damals hatten wir eine Diskussion, ob es reicht den Kontrastlevel innerhalb der Textur festzustellen.

Ja, ich war mir nur nicht mehr ganz sicher ob das mit dem NV30 oder NV25 angefangen hat.

Mr. Lolman
2004-05-26, 21:07:06
Original geschrieben von Demirug
Das es keine Stage Optimierung sein konnte ich ganz einfach feststellen. Ich habe meine ganzen Tests nur auf Stage 0 gefahren. Die Filterkonfiguration hängt eindeutig vom Inhalt der Textur ab.


Vielleicht läufts auf einer höheren Stage anders ab?

Demirug
2004-05-26, 21:14:21
Original geschrieben von Mr. Lolman
Vielleicht läufts auf einer höheren Stage anders ab?

Nein, es verhält sich identisch. Die Stages habe ich nur nicht mit dem Benchmark geprüft sondern durch einen bitgenauen optischen Vergleich.

Mit Tests meinte ich im letzten Post nur die Benchmarkdurchläufe.

LovesuckZ
2004-05-26, 21:20:45
Original geschrieben von Gast
Tasache ist wohl auf jeden Fall, dass ATIs erzwingbares pseudo trilineares Filtering auf allen Stages (wohl immer noch deutlich besser als nur bilinear)+ volles AF auf allen Stages, um Welten besser aussieht als NVidias AF-Betrug!


Dafür gibt es den "High Quality" Button.
Ausserdem, stellt man AF im Spiel ein, dann wird ebenfalls die "künstliche Intelligenz" ausgeschaltet.

aths
2004-05-26, 21:29:48
Original geschrieben von Gast
Tasache ist wohl auf jeden Fall, dass ATIs erzwingbares pseudo trilineares Filtering auf allen Stages (wohl immer noch deutlich besser als nur bilinear)+ volles AF auf allen Stages, um Welten besser aussieht als NVidias AF-Betrug!ATIs "trilinear" (was nur brilinear ist) filtert 90° (und 45°)-Texturen afaik wirklich bis zum vollen Grad, ja. Da MP1 (und MP2) vor allem solche rechtwinklige Architektur haben, kann man hier mit ATIs AF ganz gut leben (abgesehen vom seltsamen LOD, was hier und da zu Texture-Aliasing führt.)
Original geschrieben von Gast
Ich denke die meisten Menschen können notfalls mit brilinearem Filtering leben (der Unterschied ist nicht schön aber nun wirklich minmal)In Bewegung stört es mich – je nach Textur – wirklich sehr. AF schalte ich der Qualität wegen zu (und 2x reicht da nicht, erst recht bei einer 5900) da möchte ich nicht auf der anderen Seite wieder deutlich wahrnehmbare MIP-Übergänge haben.

Tigerchen
2004-05-26, 21:54:21
Original geschrieben von Gast
Welche Spiele neben Max Payne sind noch betroffen?

Also die neuen "versteckten" ATI-Optimierungen haben mich schon wirklich aufgeregt, von wegen Trilinear....

Aber dem User nur noch 2xAF statt 8xAF zu bieten ist ein gemeiner widerlicher Betrug und für mich Grund genug NIE WIEDER NVidia Karten zu kaufen! Das geht einfach zu weit!

Wahrscheinlich sind nur ein paar Spiele betroffen. Hat schon seinen Grund warum aths grade Max Payne ausgewählt hat. Es gehört zu den wenigen Spielen die die Basetextur nicht auf der Stage 0 haben.

aths
2004-05-26, 22:39:35
Original geschrieben von Tigerchen

Wahrscheinlich sind nur ein paar Spiele betroffen. Hat schon seinen Grund warum aths grade Max Payne ausgewählt hat. Es gehört zu den wenigen Spielen die die Basetextur nicht auf der Stage 0 haben.
Ich habe nix ausgewählt. Ich finde, Max Payne ist ein geniales Spiel; auch wenn MP2 schöner ist, die Stimmung bei MP1 gefällt mir besser; und die Grafik kann sich imo noch immer sehen lassen. Wollte mal die neue 5900 bisschen ausfahren.

Das mit der Stage-"Optimierung" könnte sich als Trugschluss erweisen, Demirugs Argumente sind ziemlich gut. Ich habe Leo gebeten, den möglichen Irrtum in den News zu erwähnen. Wenn hier Klarheit herrscht (habe Kontakt mit NV aufgenommen) gibt es wahrscheinlich noch ein Update des Artikels.

Jedenfalls kann es imo nicht so bleiben, dass man bei aktiviertem 8x AF solche Texturen zu sehen bekommt.

Gast
2004-05-27, 02:04:28
Original geschrieben von aths
In Bewegung stört es mich – je nach Textur – wirklich sehr. AF schalte ich der Qualität wegen zu (und 2x reicht da nicht, erst recht bei einer 5900) da möchte ich nicht auf der anderen Seite wieder deutlich wahrnehmbare MIP-Übergänge haben.

So ein Blödsinn! Der Effekt ist kaum warnehmbar und wenn überhaupt zudem ziemlich selten. Davon zu sprechen, dass einen dies "sehr" während des Spiels stört (wo man eigentlich auch noch auf andere Dinge achten sollte) ist einfach pure Übertreibung! Schöner ists natürlich immer wenns voll trilinear ist, keine Frage. Aber ich würde hier in den meisten Fällen tatsächlich lieber die Performance (=Bri) wählen... Ich mag gute Grafik, bin aber nicht zum "sightseeing" im Spiel!

Durch das bessere AF (2x geg. 8x oder gar 16x) sind die Übergänge deutlich in die Tiefe verschoben und dadurch erst recht weniger warnehmbar, als wenn sich die "Bugwellen" vor den Füßen der Spielfigur "türmen"!

Mr. Lolman
2004-05-27, 09:51:18
Original geschrieben von Gast
Durch das bessere AF (2x geg. 8x oder gar 16x) sind die Übergänge deutlich in die Tiefe verschoben und dadurch erst recht weniger warnehmbar, als wenn sich die "Bugwellen" vor den Füßen der Spielfigur "türmen"!


Der Knackpunkt ist, dass man eben nicht immer das bessere AF bekommt; wenn mans im ControlPanel eingestellt hat...

Killa Tomacco
2004-05-27, 18:39:45
Da nun anscheinend sowohl ATI als auch NIVIDA einen "intelligenten" Algorithmus für Optimierungen einsetzen und das wahrscheinlich erst der Anfang ist. Behaupte ich jetzt mal das dies die nächste Stufe des Optimierungs-Wettstreits der Beiden ist.

MechWOLLIer
2004-05-27, 18:48:06
Ist es eigentlich für 3DCenter möglich bald nochmal eine NV40 und eine R420 zu bekommen um die Filtertricks mal selber unter die Lupe zu nehmen?

aths
2004-05-27, 21:49:37
Original geschrieben von MechWOLLIer
Ist es eigentlich für 3DCenter möglich bald nochmal eine NV40 und eine R420 zu bekommen um die Filtertricks mal selber unter die Lupe zu nehmen? Nicht so schnell, leider.

Bezüglich der Filter sind wir mit beiden Firmen, nun sagen wir, im Gespräch. Ob sich wirklich was bessert, ist damit nicht gesagt. Ich habe die schwache Hoffnung, dass eine genügend große Forderung nach deaktivierbaren "Optimierungen" auf die eine oder andere Art zukünftige Treiber möglicherweise beeinflussen könnte. Vielleicht. Irgendwann.

MarcWessels
2004-05-27, 21:58:14
Original geschrieben von Gast
So ein Blödsinn! Der Effekt ist kaum warnehmbar und wenn überhaupt zudem ziemlich selten. Davon zu sprechen, dass einen dies "sehr" während des Spiels stört (wo man eigentlich auch noch auf andere Dinge achten sollte) ist einfach pure Übertreibung!

Uiiiiii! Da hat aber jemand GANZ viel Ahnung... ;D

Mal ganz abgesehen davon, daß der Bugwelleneffekt auch bei hektischen Spielabläufen förmlich ins Auge sticht, wird Dir sicher aufgefallen sein, daß einem bei 90% aller Spiele KEINE nie enden wollenden Gegnerhorden a la "Serious Sam" entgegenströmen!

Dann hätten wir da noch Rennsims, wo die Bugwellen sich genau im Fokus befinden - yup, solide Asphaltierung heuer auf den Rennstrecken... *tz*

Obendrein gibt's ja noch den "hübschen" Gardineneffekt bei Wänden und anderen direkt auf den Spieler zeigenden Flächen.

fl_li
2004-05-27, 23:07:30
um nochmals auf die Idee mit dem Video zu kommen:
Fänd ich auch eine sehr gute Idee, da ich doch auch meine Mühe hatte, auf den Screenshots Unterschiede zu erkennen.;D

Ich könnte dafür auch einen Server bietten (für den DL von dem Video).:)

aths
2004-05-28, 20:25:12
Original geschrieben von Gast
So ein Blödsinn! Der Effekt ist kaum warnehmbar und wenn überhaupt zudem ziemlich selten. Davon zu sprechen, dass einen dies "sehr" während des Spiels stört (wo man eigentlich auch noch auf andere Dinge achten sollte) ist einfach pure Übertreibung! Schöner ists natürlich immer wenns voll trilinear ist, keine Frage. Aber ich würde hier in den meisten Fällen tatsächlich lieber die Performance (=Bri) wählen... Ich mag gute Grafik, bin aber nicht zum "sightseeing" im Spiel!

Durch das bessere AF (2x geg. 8x oder gar 16x) sind die Übergänge deutlich in die Tiefe verschoben und dadurch erst recht weniger warnehmbar, als wenn sich die "Bugwellen" vor den Füßen der Spielfigur "türmen"! Ob vorne oder hinten – solche Bugwellen müssen (dürfen) nicht sein. Ich wähle gerne tri. Das heißt, ich akzeptiere bei guten Texturen überhaupt nur trilinear, und skaliere Leistung lieber über Ingame-Details oder die Auflösung.

toma007
2004-06-01, 12:31:46
Mittlerweile sind die Grafikkarten so schnell, daß wenn ein Spiel ruckelt liegt's an der Programmierung und nicht an der Karte. Das ausschlaggebende Argument für eine neue High-End Grafikkarte wird also mehr und mehr die Bildqualität und neue Features sein.

Wenn die BQ zugunsten von einigen mehr fps leidet, werde ich mir halt keine neue Karte kaufen. So einfach ist das.

Habe auch schon ATI eine entsprechende Mail geschrieben aber, wie sollte es anders sein, kein Feedback bekommen.

Auf jeden Fall müssen auch die Tester umdenken. Wenn man bei jedem "Review" nur die Standardbenchmarks laufen läßt und aus den ermittelten fps Werten ein Urteil fällt, ist das für die meißten "Performance Jünger" das ausschlaggebende Kaufargument. Und da ATI und nvidia vor allem Karten verkaufen wollen, ist deren Verhalten irgendwie nachvollziehbar, wenn auch nicht tolerierbar.

Es muß bei Reviews verstärkt auf die maximal erzielbare BQ eingegangen werden, sowohl mit entsprechenden Testprogrammen, als auch mit dem "geschulten Auge". Es scheint leider eine Art Sport geworden zu sein, Testprogramme möglichst unauffällig auszutricksen.

Kann es sein, daß Karten wie die XGI Volari so schlecht abschneiden, da sie in ihren Treibern halt (noch) nicht tricksen?

Hoffentlich erscheinen Artikel wie die von 3DCenter auch im englischsprachigen Raum. Und die Unterschiede müßten wenn's geht noch besser sichtbar heraugearbeitet werden, zur Not auch per Video. Nur so kann man die Aussagen der beiden Firmen Lügen strafen, von wegen maximale BQ und so. :bäh2:

kami
2004-06-01, 12:44:56
Also gerade die Volari war da das falsche Beispiel. ;D

MarcWessels
2004-06-01, 15:51:15
Original geschrieben von toma007
Mittlerweile sind die Grafikkarten so schnell, daß wenn ein Spiel ruckelt liegt's an der Programmierung und nicht an der Karte.

Würde ich nicht unbedingt sagen.

aths
2004-06-01, 16:10:44
Original geschrieben von kami
Also gerade die Volari war da das falsche Beispiel. ;D Keiner hat sie, jeder lästert.

dius31
2004-06-01, 16:29:43
Original geschrieben von aths
Keiner hat sie, jeder lästert.

ein user hat sie
link:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=144627&perpage=20&pagenumber=1

gruß dius31:)

Tigerchen
2004-06-01, 17:52:26
Original geschrieben von aths
Keiner hat sie, jeder lästert.

Ich würde sie ja kaufen. Aber ich fürchte mich so vor deren Optimierungen
;D

toma007
2004-06-01, 17:59:49
o.k., XGI steht mit der Volari wohl noch ganz am Anfang :grübel:

aber eine Alternative wäre nicht schlecht

Tigerchen
2004-06-01, 19:16:38
Original geschrieben von toma007
o.k., XGI steht mit der Volari wohl noch ganz am Anfang :grübel:

aber eine Alternative wäre nicht schlecht

Wieso am Anfang? Nur weil jetzt nicht mehr SIS sondern XGI der Brand ist wird aus einem Grafikchip auf Xabre-Basis kein Erstlingswerk einer neuen Firma.

Gast
2004-06-02, 21:33:19
Original geschrieben von Tigerchen

Wieso am Anfang? Nur weil jetzt nicht mehr SIS sondern XGI der Brand ist wird aus einem Grafikchip auf Xabre-Basis kein Erstlingswerk einer neuen Firma.

bei der Treiberentwicklung sieht es zumindest nach einem komplett neuen Produkt aus :P

vielleicht ist es eine ganz neue Entwicklermannschaft, scheinbar ist ja kaum Know How vorhanden

Tigerchen
2004-06-03, 16:32:36
Original geschrieben von Gast
bei der Treiberentwicklung sieht es zumindest nach einem komplett neuen Produkt aus :P

vielleicht ist es eine ganz neue Entwicklermannschaft, scheinbar ist ja kaum Know How vorhanden

Du meinst SIS hat viel Geld in eine Garage voller blutiger Anfänger gepumpt die als erstes mal das Rad neu erfinden müßen?

Quasar
2004-06-03, 16:43:50
Original geschrieben von Tigerchen

Ich würde sie ja kaufen. Aber ich fürchte mich so vor deren Optimierungen
;D

Wieso das? Die Unterschiede erkennt man doch nur auf Screenshots in zig-facher Vergrößerung! X-D
.
.
.
;(

Quasar
2004-06-03, 16:45:19
Original geschrieben von Tigerchen

Du meinst SIS hat viel Geld in eine Garage voller blutiger Anfänger gepumpt die als erstes mal das Rad neu erfinden müßen?


XGI wird in ~20 Jahren die Welt beherrschen. MickeySoft hat auch als Garage voll blutiger Anfänger begonnen, die auch noch murksige Visionen (mehr-als-640k-RAM-braucht-kein-Mensch) hatten.

aths
2004-06-03, 18:35:37
Original geschrieben von Quasar
XGI wird in ~20 Jahren die Welt beherrschen. MickeySoft hat auch als Garage voll blutiger Anfänger begonnen, die auch noch murksige Visionen (mehr-als-640k-RAM-braucht-kein-Mensch) hatten. XGI ist neben ATI und NV die einzige mir bekannte Firma, von denen man eine DirectX9-Grafikkarte kaufen kann. Der Chip ansich mag schlecht sein. Sie haben einen, sie versuchen es. Das finde ich irgendwie ... unterstützenswert.

Quasar
2004-06-03, 19:27:30
S3?

Die Club3D Delta-Chrome ist lieferbar - die finde ich angesichts ihres Konzeptes noch viel unterstützenswerter.

Endorphine
2004-06-03, 19:40:28
Wozu sollte man auch eine XGI Volari kaufen, wenn man einen Deltachrome haben kann?

SCNR :bäh: *mitläster*

p.s. aths oder Leo, kauft euch mal einen DC und schreibt ein Review darüber, plz :massa: Oder Quasar :massa:

Quasar
2004-06-03, 21:20:14
Club3D hat mich wohl auf die Ignore-List gesetzt - bisher noch keinerlei Antwort. ;(

Chaintech wäre mir aber eh lieber, da passiv - das würde gut in mein nächstes Projekt passen.

edit:
Es kommt Bewegung in die Sache...

Endorphine
2004-06-03, 21:52:28
Hauptsache, es kommt endlich mal ein Review einer real käuflichen DC aus der Hand eines fachlich versierten Redakteurs.

Tigerchen
2004-06-04, 16:54:42
Original geschrieben von Quasar
XGI wird in ~20 Jahren die Welt beherrschen. MickeySoft hat auch als Garage voll blutiger Anfänger begonnen, die auch noch murksige Visionen (mehr-als-640k-RAM-braucht-kein-Mensch) hatten.

Ups. Jetzt hast du mir aber wirklich Angst gemacht. Vielleicht steckt Doctor Evil dahinter!;D

Tigerchen
2004-06-04, 16:57:04
Original geschrieben von Quasar
Wieso das? Die Unterschiede erkennt man doch nur auf Screenshots in zig-facher Vergrößerung! X-D
.
.
.
;(

Du wirst lachen. Sogar für mich gibt es Grenzen bei den Optimierungen.:)

Gast
2004-06-15, 15:08:18
hi!

sehr guter artikel mit sehr ausführlichen erklärungen! aber ich muss sagen dass nvidia auf solche vorwürfe reagiert hat, denn im neuen beta forceware 61.34 (dl bei guru3d) kann mann sowohl die anisotropische als auch die trilineare optimierungen ausschalten (sichtbare bildverbesserung aber auf kosten der leistung - ca. 5 fps weniger bei farcry). bei ati ist es ne andere sache denn die versuchen ihre optimierungen immer noch geheim zu halten ...

aths
2004-06-15, 15:28:40
Original geschrieben von Gast
hi!

sehr guter artikel mit sehr ausführlichen erklärungen! aber ich muss sagen dass nvidia auf solche vorwürfe reagiert hat, denn im neuen beta forceware 61.34 (dl bei guru3d) kann mann sowohl die anisotropische als auch die trilineare optimierungen ausschalten (sichtbare bildverbesserung aber auf kosten der leistung - ca. 5 fps weniger bei farcry).Bei dieser Treiberversion gibt es bestimmte Unklarheiten, weswegen ich mit NV in Kontakt bin. Die "Optimierungs"-Komplettabschaltung scheint aber zu funzen. (Und ich büße nur ca. 1/6 der fps ein.) Ich weiß gar nicht wieso es den Treiber bei Guru gibt, soweit ich informiert bin, ist diese Version strikt für die Presse gedacht.

Gast
2004-06-15, 16:00:05
Original geschrieben von aths
Bei dieser Treiberversion gibt es bestimmte Unklarheiten, weswegen ich mit NV in Kontakt bin. Die "Optimierungs"-Komplettabschaltung scheint aber zu funzen. (Und ich büße nur ca. 1/6 der fps ein.) Ich weiß gar nicht wieso es den Treiber bei Guru gibt, soweit ich informiert bin, ist diese Version strikt für die Presse gedacht.

Presse hin, Presse her. Alle wollen was Gutes, nicht nur ihr Schreiberlinge. ;)

Ich teste ihn seit dem 12.6. Da gab es ihn noch nicht bei guru. Aber du hast ja selbst irgendwo gesagt, du benutzt keine leaked driver (http://www.tbreak.com/naser/drivers/61.34.exe). :)

Quasar
2004-06-15, 16:25:21
Original geschrieben von aths
soweit ich informiert bin, ist diese Version strikt für die Presse gedacht.

Seit wann hat das Treiber vom leaken abgehalten?

aths
2004-06-15, 16:36:55
Original geschrieben von Gast
Presse hin, Presse her. Alle wollen was Gutes, nicht nur ihr Schreiberlinge. ;)

Ich teste ihn seit dem 12.6. Da gab es ihn noch nicht bei guru. Aber du hast ja selbst irgendwo gesagt, du benutzt keine leaked driver (http://www.tbreak.com/naser/drivers/61.34.exe). :) Das stimmt ja auch.

Original geschrieben von Quasar
Seit wann hat das Treiber vom leaken abgehalten? Wenn ich einen Treiber nehme und die sagen, ist nur für die Presse jetzt, will ich mich schon darauf erlassen können, dass dem so ist. Ansonsten könnte ich noch den Tag warten bis er geleakt wird. Sind NVs Treiberdateien nicht verschlüsselt? Wäre doch möglich, an jedes Medium den Treiber mit einem anderen internen Code auszuliefern. Schwupps weiß man, wer da :nono: das Leak ist.

Gast
2004-06-15, 16:52:55
Ich will doch nicht hoffen, dass es in Zukunft immer 2 Treiberversionen geben wird: einen zum Benchen ("Balken"-Treiber) und einen fuer die Screenshots ("BQ"-Treiber).

Presse-Treiber hoert sich gar nicht gut an....imo.

Quasar
2004-06-15, 17:07:49
Original geschrieben von aths
Sind NVs Treiberdateien nicht verschlüsselt? Wäre doch möglich, an jedes Medium den Treiber mit einem anderen internen Code auszuliefern. Schwupps weiß man, wer da :nono: das Leak ist.

Keine Ahnung, aber solange man den "Leakenden" direkt aus der URL ablesen kann, ist sowas nichtmal nötig. X-D

Liszca
2004-06-17, 00:02:23
Boar, bin ja tierisch erschrocken was für eine hundsmisserable texturqualität die chips haben.

wie wäre es denn mal mit einer neuen testmethode:
anstatt screenshots videos machen, die diese achso unsichtbaren "bugwellen" sichtbar machen.

ausserdem sollten wir alle nicht mehr bei einem neuen treiber release nicht mehr zuerst fragen, "was wird schneller" sondern "was sieht mal wieder noch beschissener aus".

könnten wir nicht referenz videos anfertigen, egal von welchem hersteller, und ein sogenanntes ranking einführen?

nun noch eine frage nebenbei wie sieht es mit dem anisotropischen filter bei dem deltachrome aus?