PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ati cheatet bei Doom3?


Master-blaster
2004-08-15, 23:38:44
http://www.skenegroup.net/tertsi/doom3/ati_optimizations/nvidia_vs_ati1.html
http://www.skenegroup.net/tertsi/doom3/ati_optimizations/nvidia_vs_ati2.html

Das sieht ja ätzend aus. Was meint ihr dazu?

Iceman346
2004-08-15, 23:40:24
Könnte es sein, dass das einfach nur die bekannte AF Optimierung von ATi ist (also das bilineare Filtern aller Texturstages >1)?

mapel110
2004-08-15, 23:48:18
hab auf rage3d gelesen, dass das typische texturflimmern bei Gittern ist. hängt irgendwie mit dem LOD zusammen oder so.

btw die selbe erscheinung hab ich auch bei Medal of honor bei Gitter-darstellungen.

r00t
2004-08-15, 23:48:22
hey ho wir werden alle sterben ..nur weil in doom3 eine bodentextur a weng heller is ganz ehrlich ..sowas würde mir garnich auffallen wenn ich da vorbeirenn^^

Unregistrierter
2004-08-15, 23:55:15
hey ho wir werden alle sterben ..nur weil in doom3 eine bodentextur a weng heller is ganz ehrlich ..sowas würde mir garnich auffallen wenn ich da vorbeirenn^^

Das ist eine Linie die wandert und das ist störend!

MegaManX4
2004-08-15, 23:58:17
Der Witz ist ja das ATI sagt das, wenn die Anwendung AF anfordert, je nach Art der Forderung halt alles Trilinear Anisotrop gefiltert wird. Das Gegenteil ist bei Doom 3 der Fall.

WEGA
2004-08-16, 02:03:19
irgendwelche angeben bezüglich treiber gibts nicht?

sth
2004-08-16, 02:03:51
Ich tippe auf die übliche Stage-Optimierung. Gerade auf Bumpmaps sieht "einfache" Texturfilterung noch viel beschissener aus als sonst...

WEGA
2004-08-16, 02:05:58
das is aber ganzbestimmt kein 8x af

DanMan
2004-08-16, 02:12:46
Ich denke das ist der ATi-LOD, und der ist standartmäßig etwas weiter im Minus als bei nV. Das resultiert dann in starkem Texturflimmern.

Glaube nicht, dass es nur bilinear ist, da ich im hinteren Teil der Bilder keine Kante mehr erkennen kann.

KinGGoliAth
2004-08-16, 02:38:29
hm. also da hat jemand wirklich probleme.....

ich weiß ja nich wie der rest der menschheit shooter spielt aber wenn ich das mache dann laufe ich meistens wild ballernd in der gegend rum und wenn ich mich ununterbrochen durch den raum bewege und ständig per mouseaim die perspektive änder fallen mir aliasing und flackernde pixel und co nun wirklich nicht auf.
darum habe ich AA auch immer aus gehabt, habe es aus und werde es immer aus haben. da hab ich dann lieber doch ein paar frames mehr als augenwischerei, die mir eh nichts bringt weil sie mir nicht auffällt.

wenn natürlich andere leute lieber aliasing und flackernden pixeln nachjagen anstatt sich um die gegner zu kümmern (was ja sinn des spiels is :rolleyes: ) dann is das wohl ausserhalb meiner sphäre...

Mordred
2004-08-16, 07:50:09
Ähem. Also grade beim wild rumheizen sollten einem dann doch diese bugwellen auffallen die man vor sich her schiebt :>

Aber naja sein wir mal ehrlich hat irgendjemand was anderes erwartet? Das ATI wieder cheatet war klar und das es wieder keiner bemerken will war auch klar :> Bin mal gespannt wannm die ersten kommen die den unterscheid zwischen pointsample und bilinear nicht sehen o_O

Aber zu diesem Fall muss ich schon sagen das ist selten krass. Zu erkennen ist die Bugwele zwar immer aber bei den Bodentexturen in Doom ist das schon wirklich heftig. Das alles nur wegen ein paar frames? o_O Warum kommt eigntlich nicht mal einer auf die idee mit Qualität zu Punkten statt mit ercheateten Frames. Selbst NVidia hat sich dazu herabgelassen ihr AF zu verschlimmbessern. Das kann noc heiter werden. Aber naja ich schweife ab

seahawk
2004-08-16, 08:02:14
sieht mal wieder nach dem LOD-Trick von ATI aus

resonatorman
2004-08-16, 10:35:41
Ich hab zwar D3 nicht, aber mir ist folgendes aufgefallen :
Diese sich mitbewegenden Linien hab ich immer, egal ob im Treiber Leistung oder Qualität angeklickt ist, manchmal sieht man sie mehr, mal weniger. Einzig der atuner schafft hier Abhilfe : sobald AF"tri" gewählt wird, ist "Leistung/Qualität" im Treiber ausgegraut, und jetzt ist echtes Tri angesagt - keine Bugwellen mehr.
Wenn so, sollte das doch auch in Doom3 funktionieren und wäre dann kein besonderer Cheat, sondern die ATi-typische Filterqualität.
Übrigens eignet sich zum Sichtbarmachen dieses Effekt die Uru-Demo hervorragend, gleich im ersten Bild, wenn man den Typ durch die Wüste marschieren läßt.

Gast
2004-08-16, 11:13:15
hm. also da hat jemand wirklich probleme.....

ich weiß ja nich wie der rest der menschheit shooter spielt aber wenn ich das mache dann laufe ich meistens wild ballernd in der gegend rum und wenn ich mich ununterbrochen durch den raum bewege und ständig per mouseaim die perspektive änder fallen mir aliasing und flackernde pixel und co nun wirklich nicht auf.
darum habe ich AA auch immer aus gehabt, habe es aus und werde es immer aus haben. da hab ich dann lieber doch ein paar frames mehr als augenwischerei, die mir eh nichts bringt weil sie mir nicht auffällt.

wenn natürlich andere leute lieber aliasing und flackernden pixeln nachjagen anstatt sich um die gegner zu kümmern (was ja sinn des spiels is :rolleyes: ) dann is das wohl ausserhalb meiner sphäre...

Da stimme ich dir voll zu!

Endlich mal einer der es auspricht was viele hier ständig vergessen.

Hauptsache wir können mitreden, nach diesem Prinzip posten hier einige!

ShadowXX
2004-08-16, 11:21:11
Da stimme ich dir voll zu!

Endlich mal einer der es auspricht was viele hier ständig vergessen.

Hauptsache wir können mitreden, nach diesem Prinzip posten hier einige!

ähhmmm..hier muss ich [KoC]Mordred voll zustimmen...

Gerade beim Wilden herumlaufen fallen die Bugwellen und das Geflimmer auf...wenn ich ruhig herumstehe, sieht man eher weniger davon...

Mr. Lolman
2004-08-16, 11:35:37
Öm normalerweise funktioniert ATis TS Optimierung _nur_ unter D3d und _nur_ dann wenn AF über CP geforced wird. Bei OpenGL hat die die TS Optimierung AFAIK noch nie funktioniert.

Naja bei DoomIII forced man halt AF übers CP und schon passt alles.

Jesus
2004-08-16, 11:41:23
Öm normalerweise funktioniert ATis TS Optimierung _nur_ unter D3d und _nur_ dann wenn AF über CP geforced wird. Bei OpenGL hat die die TS Optimierung AFAIK noch nie funktioniert.

Naja bei DoomIII forced man halt AF übers CP und schon passt alles.

eben, das ganze wurde übrigens auch schon in 2 anderen Threads diskutiert..

Xmas
2004-08-16, 11:59:10
Kein Cheat, sondern ein mittlerweile bekannter Treiberbug.

Hier ein möglicher Workaround:
http://www.beyond3d.com/forum/viewtopic.php?t=14874&start=1015

ATIuserr
2004-08-16, 15:37:36
wer diese effekte bei einer ati karte nicht sieht ist entweder blind wie ein maulwurf oder ....

für diese leute ist bestimmt auch schon bei 17fps alles flüssig :P hehehe

obwohl die d3 engine erstaunlich gut mit wenig fps zu spielen ist

WEGA
2004-08-16, 15:41:03
bei mir ist keine kante

Xmas
2004-08-16, 16:14:47
Die Kante tritt ja auch nur auf, wenn eine beliebige OpenGL Anwendung (wie eben Doom3) das AF selbst steuert. Erzwingt der Treiber dagegen AF, funktioniert es wie vorgesehen.

Das Problem sollte mit dem nächsten Catalyst behoben sein.

Ice =A=
2004-08-16, 17:08:02
@Xmas:
Gute Arbeit! Schon probiert, ob bzw. wieviel Performanceverlust das "Beheben des Treiber-Bugs" nach sich zieht? Wenn nämlich viel, dann würde ich das eher für einen absichtlichen Bug halten!

Generell:

Es ist JEDES MAL das gleiche:
Wenn einer sich über schlechtere Bildqualität in irgendeiner Form ausläßt, kommen ein paar Wichtigtuer und schreiben, daß sowas eh nicht auffällt, unwichtig sei usw.
Neben der Tatsache, daß solche Posts VÖLLIG nutzlos sind, bleibt auch die Antwort immer dieselbe:
Wenn jemand mit schlechter Grafik leben will, so darf er das ruhig. Wenn das jemand nicht will, so ist das wohl sein gutes Recht! Wenn jemand 500 Euro für eine High-End-Karte zahlt, will er dann schlechtere Bildqualität, damit er 80 statt 60 fps hat? Kaum. Außerdem sollte man den "Treiberoptimierungen" gerade skeptisch gegenüberstehen, solange sie keine Überhand nehmen (währet den Anfängen!).
Gegen deaktivierbare Optimierungen ist ja außerdem nichts einzuwenden!
Ehrlich gesagt halte ich solche Das-Fällt-Doch-Kaum-Auf-Posts für den Versuch von Leuten mit langsamen Grafikkarten, sich selbst zu beruhigen, daß Ihnen die schlechte Grafikqualität nichts ausmacht!

KinGGoliAth
2004-08-16, 17:35:59
also erst einmal habe ich wie schon erwähnt AA immer aus daher können mir diese treiberschummelein der hersteller egal sein. natürlich wirft es auf die leute ein negatives licht....aber mir isses egal weil es mich nicht interessiert.

ich würde es begrüßen wenn die jungs ehrlich bleiben und den gamer einstellen lassen ob er es lieber schnell oder schön haben will oder nen kompromiss bevorzugt. diese vorgesetzten einschränkungen finde ich zum kotzen.

allerdings bleibe ich dabei, dass man bei einer auflösung von 1024*768 oder noch höher kein aliasing oder flackernde pixel sieht weil man mehr damit beschäftigt is am leben zu bleiben anstatt geländer, gitter und co zu begutachten.

ich hab doom 3 (noch) nich und kann es daher nicht mit eigenen augen beurteilen aber wenn ich mir die beiden screenshots ganz oben angucke dann bin ich mir sicher, dass mir das nicht auffällt, wenn ich durch den level walze.

und nein ich kaufe mir keine karten für 500? (bin ich bled oder was?)und trotzdem habe ich in der regel >100 frames. und ja mir sind 80 frames ohne AA lieber als 60 frames mit AA.
ich könnte das auch einschalten aber dann zeigt die erfahrung, dass die framerate in den keller geht wenn viel auf dem bildschirm losgeht (besonders nebel + AA hat eine unmögliche performance). in folge dessen liegt man dann häufig tot auf dem boden und darf die quickload taste betätigen. :P

neben meinem statement zur "treiberoptimierung" is das nunmal mein meinung dazu. und wenn du das anders siehst is das dein gutes recht.

ps:
zum thema wichtigtuer:
...äußere ich mich nicht wenn ich mich nicht benehmen kann.

ps 2:
hab mir eh eine nvidia karte gegönnt und habe darum keine probs mit mülligen ati treibern :D

Mr. Lolman
2004-08-16, 18:24:48
Nochmal, da wird nix gecheatet, denn ATI wär wohl kaum so blöd, bi-AF dort einzusetzen wo's offensichtlich ist, während andere Texturen die überhaupt kein AF benötigen trotzdem vielleicht sogar trilineares abbekommen.

Ausserdem verliert man durch forcen über CP nur 1-2fps (meine 9700pro zumindest) was die bessere BQ allemal wert ist.

Zur braven Firma NVidia:

Die hatten wohl Glück, dass JC sie so gut leiden kann (warum auch immer), denn hätte JC Demis Shaderversion verwendet, gäbs auf ATi Karten mehr Performance, während NV Karten sogar ein bisschen langsamer rendern. (Er hätte im Übrigen auch beide Methoden verwenden können, denn im Ggs zu Humus Version, kommt bei Demirugs das Gleiche raus, wie bei den Originalshadern...

Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten. ATi hatte im Gegenzug anscheinend Pech, und der D3 interne Workaround beweisst, dass es für die Engine auch kein Problem wär ein auf ATi Karten korrekt gefiltertes Bild zu rendern.

Wäre D3 also ein bisschen Ati freundlicher programmiert worden (zeitlicher Aufwand fast 0), hätte es auch nicht dieses blöde Hickhack und die vernichtenden HardOCP Benchmarks gegeben. Man könnte JC allerdings auch als selbstlosen Robinhood bezeichnen, der mit seiner Engine Treiberbugs eines technologisch hinterherhinkenden Chipgiganten aufzeigt, und es somit NV ermöglicht, unter der Community endlich die gebührende Anerkennung für ihr neues Flaggschiff zu bekommen. Denn es kann ja eigentlich nicht sein, dass ein Chip mit 2 Jahre alter Technik nicht nur leistungsmässig auf dem gleichen Level der Konkurrenz ist, sondern dass er auch um den gleichen Preis verkauft wird, und dass die User ohne weiteres bereit sind diesen auch zu bezahlen, was marktwirtschaftlich gesehen ja eigentlich eine mittlere Frechheit ist.

Quasar
2004-08-16, 18:41:27
Zur braven Firma NVidia:
[ich soll nicht flamen]
Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten.
[ich soll nicht flamen]
Hast du das mal irgendwo zum nachlesen parat? Auf Anhieb kann ich mir das nämlich nur schwer vorstellen.

gsdgse
2004-08-16, 18:47:00
Nochmal, da wird nix gecheatet, denn ATI wär wohl kaum so blöd, bi-AF dort einzusetzen wo's offensichtlich ist, während andere Texturen die überhaupt kein AF benötigen trotzdem vielleicht sogar trilineares abbekommen.

Ausserdem verliert man durch forcen über CP nur 1-2fps (meine 9700pro zumindest) was die bessere BQ allemal wert ist.

Zur braven Firma NVidia:

Die hatten wohl Glück, dass JC sie so gut leiden kann (warum auch immer), denn hätte JC Demis Shaderversion verwendet, gäbs auf ATi Karten mehr Performance, während NV Karten sogar ein bisschen langsamer rendern. (Er hätte im Übrigen auch beide Methoden verwenden können, denn im Ggs zu Humus Version, kommt bei Demirugs das Gleiche raus, wie bei den Originalshadern...

Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten. ATi hatte im Gegenzug anscheinend Pech, und der D3 interne Workaround beweisst, dass es für die Engine auch kein Problem wär ein auf ATi Karten korrekt gefiltertes Bild zu rendern.

Wäre D3 also ein bisschen Ati freundlicher programmiert worden (zeitlicher Aufwand fast 0), hätte es auch nicht dieses blöde Hickhack und die vernichtenden HardOCP Benchmarks gegeben. Man könnte JC allerdings auch als selbstlosen Robinhood bezeichnen, der mit seiner Engine Treiberbugs eines technologisch hinterherhinkenden Chipgiganten aufzeigt, und es somit NV ermöglicht, unter der Community endlich die gebührende Anerkennung für ihr neues Flaggschiff zu bekommen. Denn es kann ja eigentlich nicht sein, dass ein Chip mit 2 Jahre alter Technik nicht nur leistungsmässig auf dem gleichen Level der Konkurrenz ist, sondern dass er auch um den gleichen Preis verkauft wird, und dass die User ohne weiteres bereit sind diesen auch zu bezahlen, was marktwirtschaftlich gesehen ja eigentlich eine mittlere Frechheit ist.

Grünes Gummieboot!

3 Knaller dieses Jahr:

Farcry: ATI vorne
DOOM3: nv vorne
HL2: ATI vorne

Alle anderen PS Gametitel: ATI vorne

Für mich sieht es eher so aus als wäre Doom3 der letzte Rettungsanker für nv !

gsrg
2004-08-16, 18:47:57
Hast du das mal irgendwo zum nachlesen parat? Auf Anhieb kann ich mir das nämlich nur schwer vorstellen.

Ist auch erfunden!!!!

seahawk
2004-08-16, 18:55:05
Die hatten wohl Glück, dass JC sie so gut leiden kann (warum auch immer), denn hätte JC Demis Shaderversion verwendet, gäbs auf ATi Karten mehr Performance, während NV Karten sogar ein bisschen langsamer rendern. (Er hätte im Übrigen auch beide Methoden verwenden können, denn im Ggs zu Humus Version, kommt bei Demirugs das Gleiche raus, wie bei den Originalshadern...

Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten. ATi hatte im Gegenzug anscheinend Pech, und der D3 interne Workaround beweisst, dass es für die Engine auch kein Problem wär ein auf ATi Karten korrekt gefiltertes Bild zu rendern.

Wäre D3 also ein bisschen Ati freundlicher programmiert worden (zeitlicher Aufwand fast 0), hätte es auch nicht dieses blöde Hickhack und die vernichtenden HardOCP Benchmarks gegeben. Man könnte JC allerdings auch als selbstlosen Robinhood bezeichnen, der mit seiner Engine Treiberbugs eines technologisch hinterherhinkenden Chipgiganten aufzeigt, und es somit NV ermöglicht, unter der Community endlich die gebührende Anerkennung für ihr neues Flaggschiff zu bekommen. Denn es kann ja eigentlich nicht sein, dass ein Chip mit 2 Jahre alter Technik nicht nur leistungsmässig auf dem gleichen Level der Konkurrenz ist, sondern dass er auch um den gleichen Preis verkauft wird, und dass die User ohne weiteres bereit sind diesen auch zu bezahlen, was marktwirtschaftlich gesehen ja eigentlich eine mittlere Frechheit ist.

AFAIK ist Demis Shader ein brauchbare Ännährung an den verwendeten Shader, aber nicht vollkommen austauschbar.

Tigerchen
2004-08-16, 18:57:20
Ich tippe auf die übliche Stage-Optimierung. Gerade auf Bumpmaps sieht "einfache" Texturfilterung noch viel beschissener aus als sonst...

Hmm. Bei meiner R9700 Pro und Catalyst 4.4 gibts den Fehler nicht.

Demirug
2004-08-16, 19:05:22
AFAIK ist Demis Shader ein brauchbare Ännährung an den verwendeten Shader, aber nicht vollkommen austauschbar.

Der Graph ist identisch mit dem aus der Texture. Bei der letzten Version von Humus aber inzwischen auch und er kommt dabei mit einer Anweisung weniger aus.

Tesseract
2004-08-16, 19:18:31
Hmm. Bei meiner R9700 Pro und Catalyst 4.4 gibts den Fehler nicht.


mit meiner 9700pro und 4.7 schon

Tjell
2004-08-16, 19:18:51
Stellt Euch doch lieber die Frage, warum irgendwer der großen Chipschmieden cheatet (in diesem Falle sei es einfach dahingestellt, ob oder ob nicht).

Stellt Euch doch mal vor, Intel oder AMD würden, um Rechenzeit zu sparen, ein wenig an Präzision einsparen - wozu soviele Nachkommastellen bei Zwischenergebnissen, reichen dem dummen User denn nicht auch 3 Stellen weniger? Oder 6? Oder...

Aussagen wie "das kann man eh nicht sehen" sind vollkommen am Thema vorbei. Wenn ihr es nicht besser haben wollt, okay. Aber was ist mit den Leuten, denen das Gezeigte nicht reicht und eigentlich vom Prinzip her auch etwas besseres darstellbar ist?

Es kann eigentlich immer wieder nur als Fazit für alle User lauten: klopft den zwei großen auf die Finger, wenn etwas nicht ganz koscher ist.

In diesem Sinne...

:cool:

[Anmerkung] Der Edit hat nur Bechstabenverwuchselung behoben - das mache ich immer. Perfektionist eben. :wink:

sth
2004-08-16, 19:20:34
Hmm. Bei meiner R9700 Pro und Catalyst 4.4 gibts den Fehler nicht.

War ja auch nur 'ne erste Vermutung. Mittlerweile ist es ja wohl geklärt... (Treiberbug)

Mr. Lolman
2004-08-16, 19:21:55
Hast du das mal irgendwo zum nachlesen parat? Auf Anhieb kann ich mir das nämlich nur schwer vorstellen.

Ob ich den Link noch find? Das waren 3 Benchmarkergebnisse von irgendeinem Thread aus dem DoomIII Forum.


/edit:
P.S.: "flamen" richtet sich gegen eine Person, und nicht gegen eine Firma. Ausserdem war der Definition nach eher deine ("ich soll nicht flamen") , als meine Aussagw als "Flame" einzustufen.

/edit:
Ich finds jetzt auf Anhieb nicht mehr. Aber eigentlich wars doch eh schon immer so, dass ATis AF etwas flotter ist. (Warum das so ist wissen wir ja auch alle :))

Mr. Lolman
2004-08-16, 19:22:27
Stellt Euch doch lieber die Frage, warum irgendwer der großen Chipschmieden cheatet (in diesem Falle sei es einfach dahingestellt, ob oder pb nicht).


Schon klar. Nur hat das jetzt nix mit dem Topic zu tun, oder?

Mr. Lolman
2004-08-16, 19:22:43
Der Graph ist identisch mit dem aus der Texture. Bei der letzten Version von Humus aber inzwischen auch und er kommt dabei mit einer Anweisung weniger aus.

Wo gibts denn die?

Tjell
2004-08-16, 19:26:42
Schon klar. Nur hat das jetzt nix mit dem Topic zu tun, oder?
Falls Du das Lesen meines Beitrags nicht bei diesem Satz beendet hast, wirst Du festgestellt haben können, daß ich etwas gegen Einstellung der "Nicht-Sehenden" geschrieben habe. :wink:

Mr. Lolman
2004-08-16, 19:29:55
Falls Du das Lesen meines Beitrags nicht bei diesem Satz beendet hast, wirst Du festgestellt haben können, daß ich etwas gegen Einstellung der "Nicht-Sehenden" geschrieben habe. :wink:

Natürlich hab ich dein Post ganz gelesen. Nur hats imo vorher noch ein bisschen anders ausgesehen. Ich kann mich aber auch täuschen. sry ;(

Quasar
2004-08-16, 19:40:10
Ob ich den Link noch find? Das waren 3 Benchmarkergebnisse von irgendeinem Thread aus dem DoomIII Forum.


/edit:
P.S.: "flamen" richtet sich gegen eine Person, und nicht gegen eine Firma. Ausserdem war der Definition nach eher deine ("ich soll nicht flamen") , als meine Aussagw als "Flame" einzustufen.

/edit:
Ich finds jetzt auf Anhieb nicht mehr. Aber eigentlich wars doch eh schon immer so, dass ATis AF etwas flotter ist. (Warum das so ist wissen wir ja auch alle :))

Watt denn? Wie denn? AF - also nicht trilineares Filtern über alle Stages?
Na gut, mal erinnern....

*erinner*
Richtig - du meinst die Reduzierung der Filterqualität, teils über die Wahrnehmungsgrenze hinaus. :)

Ja.
Doch Äpfel zu Äpfeln in die Kiste geschmissen, sah es vor kurzem noch so aus:
R420p: 63% Zugewinn durch "kleine Tricksereien".
nV40nu: 42% Zugewinn durch "kleine Tricksereien".

Nach dem 65.62ern-Geschwindigkeits"boost" sind wir allerdings fast wieder bei einem Gleichstand:
nV40nu: 61% Zugewinn durch weglassen von noch ein paar Samples mehr...

seahawk
2004-08-16, 20:05:47
Der Graph ist identisch mit dem aus der Texture. Bei der letzten Version von Humus aber inzwischen auch und er kommt dabei mit einer Anweisung weniger aus.

Unabhängig von der Texture ??

Mr. Lolman
2004-08-16, 20:34:27
Watt denn? Wie denn? AF - also nicht trilineares Filtern über alle Stages?
Na gut, mal erinnern....



Die AF Optimerungen sind ja ohnehin aktiv. Und die allgemeine Geisteshaltung geht ja den Weg,den brilinearen Filter prinzipiell für was Gutes zu befinden. Und gerade durch die ganzen aktiven Optimierungen filtert ATi flotter anisotrop. Wenn nur eine TS trylinear abbekommt, ist der Optimierungszugewinn logischerweise nicht so hoch wie wenn alle TS vonden Optimierungen betroffen wären.

Ob NVs AF durch den neuen Treiber mittlerweile so flott ist, wie ATi muss man halt mal überprüfen. :naughty:

Quasar
2004-08-16, 20:36:14
Mr.Lolman,

Ignorierst du mit Absicht den Teil meines Postings, welchen du nicht mitgequotet hast? :|

Mr. Lolman
2004-08-16, 20:42:29
Mr.Lolman,

Ignorierst du mit Absicht den Teil meines Postings, welchen du nicht mitgequotet hast? :|

Natürlich nicht. Aber mit relativen Zahlen kann man viel und gleichzeitig garnix beweisen :P

Quasar
2004-08-16, 20:45:15
Brauchst mir nicht die Zunge raushängen zu lassen - das wird bei kleinen Kindern bisweilen als rügenswert empfunden.
Insbesondere nicht, wenn du solche Sätze verfasst:
"Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten."
IMO schon eine relativ relative Aussage, oder?

Mr. Lolman
2004-08-16, 21:09:11
Brauchst mir nicht die Zunge raushängen zu lassen - das wird bei kleinen Kindern bisweilen als rügenswert empfunden.
Insbesondere nicht, wenn du solche Sätze verfasst:
"Auch hatte NV ziemliches Glück, dass sich JC so sehr ums AF gekümmert hat, denn beim trilinearen Filtern über alle TS (ist zwar nicht sehr sinnhaft, aber immernoch gängige Praxis, beim app. kontrolliertem AF) brechen NV Karten auch mehr ein , als ATi Karten."
IMO schon eine relativ relative Aussage, oder?


Unsere Diskussion zerstört den ganzen Thread, aber meinetwegen...

Meine Aussage was bis dato gültig (Jeder weiss, das bis zum aktuellen NV Treiber Atis AF flotter war), deswegen reichts das ungefähre Verhältnis wiederzugeben. Wenn du einen Gegenbeweis antreten willst (Neuer Nv Treiber macht NV AF min. so schnell wie ATi AF), solltest du schon mit absoluten Zahlen kommen, und nicht mit dem Verhältnis des Zugewinns durch "treiberspezifische AF Optimierungen" - die thematisch nichteinmal von Belangen sind, da Atis scheinbar verbuggtes OpenGL App AF durch die Art der Ansteuerung einer Applikation, zu eben diesem Ergebnis kommt, worüber sich hier im Thread alle mokieren - erklären zu versuchen, dass meine Aussage nicht haltbar ist.

Quasar
2004-08-16, 21:37:35
Wenn du einen Gegenbeweis antreten willst (Neuer Nv Treiber macht NV AF min. so schnell wie ATi AF), [...]
Nichts dergleichen liegt in meiner Absicht, lies' nochmal....

[...]da Atis scheinbar verbuggtes OpenGL App AF durch die Art der Ansteuerung einer Applikation, zu eben diesem Ergebnis kommt, [...]
Auch die OpenGL-API erwähnte ich mit keinem Wort.

Meine Aussage was bis dato gültig (Jeder weiss, das bis zum aktuellen NV Treiber Atis AF flotter war), [...]

Deine Aussage war allerdings, daß "beim trilinearen Filtern über alle TS (beim app. kontrolliertem AF) NV Karten auch mehr ein[brechen] , als ATi Karten."

Von flotter war dabei soweit ich das gelesen habe, überhaupt keine Rede.

[...] dass meine Aussage nicht haltbar ist.
Das hoffte ich, mit meinen relativen Zahlen bereits getan zu haben, denn der Bezug war der relativ stärkere Einbruch der nV-Karten bei trilinearen Filtern über alle Stages, wie du schriebst.

Sorry, wenn ich damit OT bin/war, aber bevor sich solche Behauptungen zu sog. urban legends weiterentwickeln, ist es besser, beizeiten mal ein, zwei Worte dazu zu verlieren.

*ausklink*

Demirug
2004-08-16, 21:57:16
Wo gibts denn die?

http://www.beyond3d.com/forum/viewtopic.php?t=14967

Demirug
2004-08-16, 21:59:02
Unabhängig von der Texture ??

Es wird an dieser Stelle immer die gleiche Texture benutzt. Hat JC bestätigt.

Colin MacLaren
2004-08-16, 22:47:40
hm. also da hat jemand wirklich probleme.....

ich weiß ja nich wie der rest der menschheit shooter spielt aber wenn ich das mache dann laufe ich meistens wild ballernd in der gegend rum und wenn ich mich ununterbrochen durch den raum bewege und ständig per mouseaim die perspektive änder fallen mir aliasing und flackernde pixel und co nun wirklich nicht auf.
darum habe ich AA auch immer aus gehabt, habe es aus und werde es immer aus haben. da hab ich dann lieber doch ein paar frames mehr als augenwischerei, die mir eh nichts bringt weil sie mir nicht auffällt.

wenn natürlich andere leute lieber aliasing und flackernden pixeln nachjagen anstatt sich um die gegner zu kümmern (was ja sinn des spiels is :rolleyes: ) dann is das wohl ausserhalb meiner sphäre...


Ich hätte es nicht besser ausdrücken können. Und genau aufgrund solcher Kleinigkeiten, über die sich aufzuregen fast schon lächerlich ist, performt - und das sagg ich aus eigener Erfarhung - Atis AF deutlich besser.

Ice =A=
2004-08-16, 23:54:15
Ich muss mich wiederholen:
Alle, die schlechtere Grafik und/oder Grafikfehler aufgrund von Treiberspielereien zur Performancesteigerung NICHT stört, sollen diesem Thread bitte fern bleiben bzw. von Postings absehen. Es geht hier nicht darum, wen was stört, sondern OB in ATIs Treibern Grafikqualität zugunsten von Geschwindigkeit geopfert wird!
Damit sind v.a. KinGGoliAth und Colin MacLaren gemeint.
(Nicht beleidigend gemeint!!!)

@ Colin MacLaren:
ATIs Filtering "performt" keineswegs besser, ATI betrügt nur besser! Daß das eine große Leistung ist, wage ich zu bezweifeln. Die Argumentation ist sehr einfach: Spiele auf nVidia-Karten ganz ohne AF, das ist sozusagen die Filteroptimierung auf die Spitze getrieben. Und das ist sogar noch schneller als bei ATI! :)))

Colin MacLaren
2004-08-17, 00:29:12
Colin MacLaren:
ATIs Filtering "performt" keineswegs besser, ATI betrügt nur besser! Daß das eine große Leistung ist, wage ich zu bezweifeln. Die Argumentation ist sehr einfach: Spiele auf nVidia-Karten ganz ohne AF, das ist sozusagen die Filteroptimierung auf die Spitze getrieben. Und das ist sogar noch schneller als bei ATI! :)))

Seh ich anders. Wenn ich bei NVIDIA die Optimierungen zuschalte sieht es besenfalls noch genausogut aus wie bei Ati, eher schlechter, dennoch ist die Performance schlechter.

tombman
2004-08-17, 02:09:54
naja, eh nur wieder das übliche. ati darf trotz 30% mehr takt nicht schneller sein, außer sie "cheaten". die nvidianer sind da auf einem heiligen kreuzzug - argumentieren sinnlos.

und was macht nvidia selbst? ist so sehr von ati methode fasziniert, daß sie mit jedem neuen treiber versuchen sich ati immer mehr anzunähern. sagt eh alles ;)

ich für meinen teil warte eh nur mehr auf SLI. die leistungen von x800xtpe und 6800ultra sind schon langweilig für mich ;)

Mordred
2004-08-17, 02:42:33
naja, eh nur wieder das übliche. ati darf trotz 30% mehr takt nicht schneller sein, außer sie "cheaten". die nvidianer sind da auf einem heiligen kreuzzug - argumentieren sinnlos.

und was macht nvidia selbst? ist so sehr von ati methode fasziniert, daß sie mit jedem neuen treiber versuchen sich ati immer mehr anzunähern. sagt eh alles ;)

ich für meinen teil warte eh nur mehr auf SLI. die leistungen von x800xtpe und 6800ultra sind schon langweilig für mich ;)

kmf hat recht habs mal entfernt

Wie kommst du eigntlich drauf das NVidia von ATI fasziniert sein soll?! Ati ist technisch eigntlich durchweg schlechter aber naja :> Mit dir reden (wenn oben geannter fall nicht zutrifft) ist so oder so sinnlos :> Das sie ebenfalls "cheaten" hat wohl eher den grund das der Kunde so dumm ist nur auf FPS zu gucken (bestes beispiel für einen solchen Fall kennst du ja selbst recht gut, wenn du verstehst :>)

*trallala*

* Mach mal halblang, der 1. Absatz deines Postings zielt deutlich in Richtung Punktevergabe. Überspann den Bogen nicht! *

aths
2004-08-17, 03:09:38
Tombman, du spricht zurecht bei der Radeon von 30% höherem Takt (jedenfalls bei der kaum erhältlichen PE, die XT ist ja "nur" 25% schneller.) Warum sprichst du nicht von dem fast 40% höherem Transistorcount beim NV40?

Mordred
2004-08-17, 03:54:31
Tombman, du spricht zurecht bei der Radeon von 30% höherem Takt (jedenfalls bei der kaum erhältlichen PE, die XT ist ja "nur" 25% schneller.) Warum sprichst du nicht von dem fast 40% höherem Transistorcount beim NV40?
Weil man das ja pro NVidia auslegen könnte :>

MikBach
2004-08-17, 09:43:36
Tombman, du spricht zurecht bei der Radeon von 30% höherem Takt (jedenfalls bei der kaum erhältlichen PE, die XT ist ja "nur" 25% schneller.) Warum sprichst du nicht von dem fast 40% höherem Transistorcount beim NV40?
:|
weil man nicht von Transistocount auf Performance schliessen kann.
Siehe R3xx und NV35/NV38.

deekey777
2004-08-17, 09:57:58
:|
weil man nicht von Transistocount auf Performance schliessen kann.
Siehe R3xx und NV35/NV38.


Wogegen Doom 3 alles andere als eine shaderlastige Anwendung ist.

Auf der ersten Seite ist der vermeintliche Grund von Xmas genannt worden. Leider scheint Xmas bei vielen auf der Ignorierliste zu stehen...

MikBach
2004-08-17, 10:09:05
Wogegen Doom 3 alles andere als eine shaderlastige Anwendung ist.
Ja.
BTW Meine Aussage war allgemein und nicht auf Doom3 bezogen.
Asche über mein Haupt.

Auf der ersten Seite ist der vermeintliche Grund von Xmas genannt worden. Leider scheint Xmas bei vielen auf der Ignorierliste zu stehen...
Ist jetzt nicht dein Ernst oder?
Wie man einen Guru auf Ignore setzen kann ist mir ein Rätsel.
*schulterzuck*

Xmas
2004-08-17, 13:31:05
:|
weil man nicht von Transistocount auf Performance schliessen kann.
Siehe R3xx und NV35/NV38.
Nein, vom Takt kann man aber auch nicht direkt auf Performance schließen. Um höhere Performance zu erreichen, kann man den Takt, die Anzahl der Recheneinheiten oder durch besseres Design deren Durchsatz erhöhen. Letzteren beiden Punkten ist mit mehr Transistoren sehr geholfen.

Einfach nur den Takt zu vergleichen und folglich ATI überall vorne zu erwarten ist nämlich ebenso naiv.



Wie man einen Mod auf Ignore setzen soll, ist mir noch viel eher ein Rätsel ;)

deekey777
2004-08-17, 13:33:37
...

Wie man einen Mod auf Ignore setzen soll, ist mir noch viel eher ein Rätsel ;)


Das war auch ironisch gemeint. Nach deinem Posting hätte sich der Nebel der Verschwörungstheorie auflösen sollen.

Xmas
2004-08-17, 13:50:30
Das war auch an MikBach gerichtet. Mir war schon klar, wie du es gemeint hast ;)

Tigerchen
2004-08-17, 14:59:33
mit meiner 9700pro und 4.7 schon

Der Treiber macht ja auch Fehler bei Thief 3. Weshalb ich zum 4.4 zurückgekehrt bin.

r@w
2004-08-17, 15:11:34
Ob NVs AF durch den neuen Treiber mittlerweile so flott ist, wie ATi muss man halt mal überprüfen. :naughty:Sag mal, geht's noch?

Ich habe selber eine R9800p zu Hause und würde das ATI-AF nicht einmal geschenkt wollen (was defakto sogar so ist ;-). Was nützt Dir Dein "flott", wenn's einfach bescheiden aussieht? Warum eigentlich nicht gleich bilinear auf allen Stages und dafür dann aber das LOT noch weiter kräftig nach oben schrauben? Sieht dann zwar noch beschissener aus, aber was meinst Du, wie "flott" dann erst das AF werden wird?

Sorry, aber irgendwie bekomme ich langsame den Eindruck, dass Du...
...egal.

ATI sollte lieber endlich mal nachziehen und diesen ganzen Mist abschaltbar machen.
Aber vermutlich 'trauen' sie sich das nicht... sonst könnten die Tester ja auf die Idee kommen, ohne diesen ganzen Optimierungs-Müll zu benchen... so wie es bei nVidia ja derzeit auch geschieht... von einigen lobenswerten Ausnahmen mal abgesehen.

Razor

Dunkeltier
2004-08-17, 15:17:00
Nein, vom Takt kann man aber auch nicht direkt auf Performance schließen. Um höhere Performance zu erreichen, kann man den Takt, die Anzahl der Recheneinheiten oder durch besseres Design deren Durchsatz erhöhen. Letzteren beiden Punkten ist mit mehr Transistoren sehr geholfen.

Einfach nur den Takt zu vergleichen und folglich ATI überall vorne zu erwarten ist nämlich ebenso naiv.



Wie man einen Mod auf Ignore setzen soll, ist mir noch viel eher ein Rätsel ;)


Auch den ersteren Punkt (höheren Takt) kann mit mehr Transistoren geholfen werden. Siehe Kyro I & II. Mit einigen Millionen Transistoren mehr blieb die GPU letztlich kühler und war dadurch höher taktbar, das Design (Featureset) blieb gleich. Habe ich Recht oder habe ich Recht? :|

:urolleyes :ucrazy4: :ucrazy:

Mr. Lolman
2004-08-17, 15:36:01
Sag mal, geht's noch?

Ich habe selber eine R9800p zu Hause und würde das ATI-AF nicht einmal geschenkt wollen (was defakto sogar so ist ;-). Was nützt Dir Dein "flott", wenn's einfach bescheiden aussieht? Warum eigentlich nicht gleich bilinear auf allen Stages und dafür dann aber das LOT noch weiter kräftig nach oben schrauben? Sieht dann zwar noch beschissener aus, aber was meinst Du, wie "flott" dann erst das AF werden wird?


Och Razorle, hatten wir die Diskussion nicht schon ein paarmal. Sicha ists
toll perfektes AF zu haben, aber das ist nunmal halt total langsam. Und wenn ich das AF geschenkt bekomm, und es deswegen nicht so toll aussieht, wie es theoretisch möglich wär, jo mein Gott. IOch will die Spiele _spielen_ und mich nicht an pefekt gefilterten Flächen erfreuen. Meine Spielerseele ist ohnehin schon viel zu degeneriert. Ich brech DoomIII tw. mitten im Spiel ab um zu testen ob ich mit Shaderreplacements nicht noch ein paar fps herauskitzeln kann, damit der AF Grad vielleicht noch eine Stufe höher geht, bei gleichen fps, anstatt das ich mich dem Spiel hingeb.

bi-Af ist bei Doom zu vergessen, das App AF auch. Ich spiels mit 4xtriAF und so läufts eigentlich auch ganz gut. Und wenn ATi s AF so sehr optimiert ist, das ich D3 mit 4xtri noch spielen kann solls mir recht sein. Was hab ich vom Lehrbuch AF wenn ichs sowieos nicht nutzen kann, ausser dem Wissen dass meine GraKa sehr schön filtern kann, aber gleichzeitig dafür zu langsam ist.


Sorry, aber irgendwie bekomme ich langsame den Eindruck, dass Du...
...egal.


Na was. Sags ruhig...


ATI sollte lieber endlich mal nachziehen und diesen ganzen Mist abschaltbar machen.
Aber vermutlich 'trauen' sie sich das nicht... sonst könnten die Tester ja auf die Idee kommen, ohne diesen ganzen Optimierungs-Müll zu benchen... so wie es bei nVidia ja derzeit auch geschieht... von einigen lobenswerten Ausnahmen mal abgesehen.

Razor

Schon wieder solche Pauschalisierungen, ich denke nicht, dass bei allen aktuellen NV Tests die Optimierungen deaktiviert werden. Da hätts schon einen Aufschrei gegegeben. Und wenns Ati nicht deaktivierbar macht, dann penetreiert man eben die Registry. Oder irgendjemand erbarmt sich mal ein Tool zu schreiben. Beim TS0 AF wars ja eigentlich kein Problem, auch wenn da die Leute es auch erst vehement fordern mussten. Wenn die R420 Optimierungen tatsächlich so übel wären, wären schon längst Forderungen in der Richtung laut geworden.

Ich hab mit dem AF meiner GraKa kein Problem und freue mich, dass dabei mehr Poewr für AA übrig bleibt.

Ice =A=
2004-08-17, 15:53:28
Was r@w schreibt, ist das Vernünftigste seit langem!
Optimieren sollen nVidia und ATI meinetwegen wie sie wollen, solange es abschaltbar ist. Und das ist es eben nur bei nVidia! (Ich habe leider 'ne ATI).

DrumDub
2004-08-17, 15:57:53
Was r@w schreibt, ist das Vernünftigste seit langem!
Optimieren sollen nVidia und ATI meinetwegen wie sie wollen, solange es abschaltbar ist. Und das ist es eben nur bei nVidia! (Ich habe leider 'ne ATI).

abschaltbar ist alles auch bei den x800ern. leider eben nur über die registry. das ist der hauptvorwurf, den man ati machen muss.
die 9x00 sind ja nicht betroffen.

aths
2004-08-17, 16:14:19
Ich hab mit dem AF meiner GraKa kein Problem und freue mich, dass dabei mehr Poewr für AA übrig bleibt.Das ist schön für dich :) Ich hatte mit dem Radeon-AF durchaus ein Problem, daher FX 5900. Über Performance freue ich mich erst, wenn auch die Bildqualität stimmt. Dabei zählt für mich nicht, dass beim flüchtigen Blick alles OK ist – ich möchte mich im Spiel mit Argusaugen umsehen können, ohne was "böses" zu sehen.

Bei Radeon und NV40 geht der Performance-Gewinn beim AF direkt mit gesenkter Texturqualität einher. Das AF da kann nur schnell sein, wenn auch beträchtlich Texturqualität geopfert wird. Natürlich ist es nicht "total langsam", sehr gutes AF zu haben. Siehe Deltachrome. R300 hätte locker die Füllratenpower dafür – ATI sparte aber an den Transistoren für die Berechnungslogik. Nvidia ahnte vielleicht, mit dem NV40 füllratenmäßig hinter der Konkurrenz zu liegen und imitierte das Spar-Muster.

MikBach
2004-08-17, 16:22:59
Nein, vom Takt kann man aber auch nicht direkt auf Performance schließen. Um höhere Performance zu erreichen, kann man den Takt, die Anzahl der Recheneinheiten oder durch besseres Design deren Durchsatz erhöhen. Letzteren beiden Punkten ist mit mehr Transistoren sehr geholfen.

Einfach nur den Takt zu vergleichen und folglich ATI überall vorne zu erwarten ist nämlich ebenso naiv.
Das ist mir bewusst. Sieht man ja auch an der guten Shaderleistung von Nvidia.
Aber 30/25% mehr Takt sind halt nicht zu verachten.

Wie man einen Mod auf Ignore setzen soll, ist mir noch viel eher ein Rätsel ;)
Ähm, das wollte ich eigentlich sagen, hab einfach das falsche Wort benutzt bzw den Mod vergessen, weil ich es halt dämlich fände, wenn jemand einen Guru(auch ohne Modstatus) auf Ignore setzen würde. ;)

DrumDub
2004-08-17, 16:28:14
Bei Radeon und NV40 geht der Performance-Gewinn beim AF direkt mit gesenkter Texturqualität einher. Das AF da kann nur schnell sein, wenn auch beträchtlich Texturqualität geopfert wird. Natürlich ist es nicht "total langsam", sehr gutes AF zu haben. Siehe Deltachrome. R300 hätte locker die Füllratenpower dafür – ATI sparte aber an den Transistoren für die Berechnungslogik. Nvidia ahnte vielleicht, mit dem NV40 füllratenmäßig hinter der Konkurrenz zu liegen und imitierte das Spar-Muster.

soweit d'accord.

der letzte satz ist mir nicht ganz klar. heißt das nun, dass das aktuelle af des nv40 ne software/treiber-lösung ist bzw. das doch besseres af genutzt werden kann? aus deiner aussage schließe ich nämlich, dass nv damit lediglich den füllratennachteil (gegenüber den x800ern) ausgleichen will, jedoch keine transistoren damit gespart hat.

MikBach
2004-08-17, 16:35:51
abschaltbar ist alles auch bei den x800ern. leider eben nur über die registry. das ist der hauptvorwurf, den man ati machen muss.
die 9x00 sind ja nicht betroffen.
Winkelabhängikeit bei beiden?
Ja, den Vorwurf muss sich ATI gefallen lassen. Auch, dass die Mobility-Serie nicht von Haus aus unterstüzt wird. Warum da die Notbookhersteller zuständig sein sollen ist mir ein Rätsel.

MikBach
2004-08-17, 16:48:04
Das ist schön für dich :) Ich hatte mit dem Radeon-AF durchaus ein Problem, daher FX 5900. Über Performance freue ich mich erst, wenn auch die Bildqualität stimmt. Dabei zählt für mich nicht, dass beim flüchtigen Blick alles OK ist – ich möchte mich im Spiel mit Argusaugen umsehen können, ohne was "böses" zu sehen.
Schön für dich :smile: Obwohl ich weiss, wo ich hinschauen muss, fällt es mir beim Spielen auf meiner 9800PRO kaum auf, sehr selten nur, bzw sagen wir mal es stört nicht.
Und Menschen, die nicht wissen, worauf man achten sollte, wird es nie im Leben stören.

Bei Radeon und NV40 geht der Performance-Gewinn beim AF direkt mit gesenkter Texturqualität einher. Das AF da kann nur schnell sein, wenn auch beträchtlich Texturqualität geopfert wird. Natürlich ist es nicht "total langsam", sehr gutes AF zu haben. Siehe Deltachrome. R300 hätte locker die Füllratenpower dafür – ATI sparte aber an den Transistoren für die Berechnungslogik. Nvidia ahnte vielleicht, mit dem NV40 füllratenmäßig hinter der Konkurrenz zu liegen und imitierte das Spar-Muster.
Na ja, dafür ist der Deltachrome mit 8 Pipelines nicht so der Bringer. Wenn man Transistoren für gutes AF einsetzt, muss man woanders sparen.
Umsonst ist nichts. ;)

deekey777
2004-08-17, 16:55:47
Zur AF-Qualität meiner 9800 Pro: Halo mit AF8x (im CP auf Standard) sieht fürchterlich aus, besonders in Gängen ("Aquarium"-Blick). Zum Glück gibt es rTool.

tombman
2004-08-17, 16:57:11
Mordred']

*trallala*

*Flame(-versuch)*

@ transistorcount: der nv40 hat hauptsächlich mehr wegen 32bit (ati 24bit) , und nicht wegen den wunder-speed-transis die alles soviel schneller machen pro takt.

i.ü. ist die af qualität absolut gleichwertig zu nv. ist ja bis heute noch nicht gelungen einen besseren screenshot oder video zu erzeugen auf nv hw :D bis jetzt konnten noch alle nvidianer attaken abgewehrt werden :)

tombman, halt mal den Ball flach. Für diesesmal bleibt es bei einer Verwarnung.

LovesuckZ
2004-08-17, 17:05:54
Also ich finde die Meinung einiger User seh gut, die meinen, dass "superbes" AF zu langsam waere und deswegen man optimieren muesste.
Deswegen bin ich dafuer, dass AA ueber 4x bei den High End, ab 2x bei Midrange und im Lowend Bereich ueberhaupt kein AA zur Verfuegung stehen sollte. Denn "toll perfektes A[A] zu haben, aber das ist nunmal halt total langsam. Und wenn ich das A[A] [=geringes bzw. kein AA Anmerkung der Redaktion] geschenkt bekomm, und es deswegen nicht so toll aussieht, wie es theoretisch möglich wär, jo mein Gott. IOch will die Spiele _spielen_ und mich nicht an pefekt [geglaetten Kanten] erfreuen."

Daher, weg mit dem Anti-Alaising und hoeheren Aufloesungen!

Ich frage mich aber nun, warum soviele User noch vor einem halben jahr ueber das schlechte AA der FX Karten gemeckert haben. Hm, war wohl nur ne illusion...

MikBach
2004-08-17, 17:09:44
Zur AF-Qualität meiner 9800 Pro: Halo mit AF8x (im CP auf Standard) sieht fürchterlich aus, besonders in Gängen ("Aquarium"-Blick)
Da kann ich leider nicht mitreden.

Zum Glück gibt es rTool.
Jo, danke Exxtreme. Benutze ich auch.

Wäre echt cool, wenn man so ein Tool für die X800 proggen könnte, damit auch die paar Prozent Adleraugen wieder zufrieden sind. ;)

MikBach
2004-08-17, 17:19:13
Deswegen bin ich dafuer, dass AA ueber 4x bei den High End, ab 2x bei Midrange und im Lowend Bereich ueberhaupt kein AA zur Verfuegung stehen sollte. Denn "toll perfektes A[A] zu haben, aber das ist nunmal halt total langsam. Und wenn ich das A[A] [=geringes bzw. kein AA Anmerkung der Redaktion] geschenkt bekomm, und es deswegen nicht so toll aussieht, wie es theoretisch möglich wär, jo mein Gott. IOch will die Spiele _spielen_ und mich nicht an pefekt [geglaetten Kanten] erfreuen."

Daher, weg mit dem Anti-Alaising und hoeheren Aufloesungen!

Du hast aber die Smiles vergessen. ;)
AA ist hauptsächlich vom Speicher abhängig, damit lässt sich nicht so viel Transis(Rechenleistung) sparen wie beim AF.

Ich frage mich aber nun, warum soviele User noch vor einem halben jahr ueber das schlechte AA der FX Karten gemeckert haben. Hm, war wohl nur ne illusion...
Weil AA sogar Daus sehen und das Bild als "geschmeidiger" empfinden, besonders wenn man nur einen 17" Monitor hat und 1024x768 fahren kann.

Mr. Lolman
2004-08-17, 17:22:46
Also ich finde die Meinung einiger User seh gut, die meinen, dass "superbes" AF zu langsam waere und deswegen man optimieren muesste.
Deswegen bin ich dafuer, dass AA ueber 4x bei den High End, ab 2x bei Midrange und im Lowend Bereich ueberhaupt kein AA zur Verfuegung stehen sollte. Denn "toll perfektes A[A] zu haben, aber das ist nunmal halt total langsam. Und wenn ich das A[A] [=geringes bzw. kein AA Anmerkung der Redaktion] geschenkt bekomm, und es deswegen nicht so toll aussieht, wie es theoretisch möglich wär, jo mein Gott. IOch will die Spiele _spielen_ und mich nicht an pefekt [geglaetten Kanten] erfreuen."

Daher, weg mit dem Anti-Alaising und hoeheren Aufloesungen!

Ich frage mich aber nun, warum soviele User noch vor einem halben jahr ueber das schlechte AA der FX Karten gemeckert haben. Hm, war wohl nur ne illusion...

Dein Posts strotzt nur so von Sarkasmus. :)
Und der Vergleich ist überzogen. Es ist ja nicht so, dass man AF ATi Karte garkein AF wählen kann, weil es zu langsam ist, nein, man bekommt eine optimierte Version, die man noch dazu über Reg Einträge steuern kann.

Wenn du schn den AA Vergleich heranziehst, wäre es was ganz was anderes, wenn z.B, auf Mid-Range Karten nur ein optimiertes AA zur Verfügung gestellt werden würde, bei dem die schwachkontrastige Kanten auch weniger geglättet werden. Wenns 30% Performance bringt, und dafür die Optimierung nur in Einzelfällen sichtbar ist, und ich noch dazu die Möglichkeit hätte, diese auch (über Reg. Keys) zu deaktivieren, ja warum sollt ich dann darauf verzcihten?

Mordred
2004-08-17, 17:33:15
du hast leider überhaupt keinen wert- Ähem, mal abgesehen davon das du wohl kaum in der Lage bist über mich zu urteilen, machst du dich mal wieder lächerlich :> Woran meinst du das beurteilen zu können, hmm? :> Gewöhn dir mal an nachzudenken vorm posten das scheinst du verdammt selten zu tun :>

außer vielleicht als beispiel hier um zu zeigen wieviel admin-protection man hier braucht um bei flames nicht bepunktet zu werden. Ähem das beste Beispiel dafür bist wohl eher du :> Hier wurden schon Leute (richthofen als beispiel) gekickt die weit geniesbarer waren wie du es bist. Warum du hier Narrenfreiheit geniesst ist mir allerdings ein Rätsel. Bringt mich auf meine Entertainer Theorie zurück :>

Auch können sie mir ruhig punkte geben so selten wie ich mal "flame" (würde ich persönlich nicht so einstufen aber das ist sache der mods) besteht für mich eh keine Gefahr ;) Naja un mal ehrlich leiber nen Punkt als jemanden wie dich unkommentiert seinen unfug schreiben lassen :>

* Ich verstehs nicht! Als hätt ich dich nicht vorher gewarnt. Was bitteschön soll jetzt dieser Mist in der Diskussion hier? *
frag tombman :> ich wollte diesen thread eigntlich ruhen lassen

€:Topic frage hat sich erlddigt während es editierens wurde sie schon beantwortet ._.

* [KoC]Mordred, eigentlich wollte ich die Entscheidung, ob und wie du bestraft wirst, den Kollegen, die hier moderieren überlassen. Da du aber den Part, nachdem ich ihn angekreidet habe, aus deinem Posting gelöscht hast, ist es für die Kollegen nicht mehr nachvollziehbar. Aus diesem Grund endscheide ich hier alleine: 2 Punkte wegen Nichtbeachtung der Moderation. Den dir zustehenden Flamepunkt erlasse ich dir, da Tombman auch mit einer Verwarnung davongekommen ist. *

Ice =A=
2004-08-17, 17:36:53
Zum Thema Treieroptimierungen:
Ich persönlich habe nichts gegen Treiberoptimierungen.
Ich finde es sogar gut, wenn die Hersteller den dummen Usern vorschreiben, was für eine Filterung die zu nehmen haben! So ein Durchschnittsuser ist ja nun wirklich für alles zu blöd!
Und daß eine High-End-Karte dann halt auch scheiße aussieht (bei 100fps), das finde ich auch voll in Ordnung. Schließlich kann man mit jedem Frame mehr viel besser angeben. Ich kaufe mir die X800XT ja ausschließlich für dreistellige Frame-Raten, die Auflösung muß dann halt bei 640x480 bleiben, man kann nicht alles haben.
Auch stehe ich total auf Bugwellen! Besonders z.B. in CounterStrike kann ich damit die Entfernungen viel besser abschätzen!!! DAS nenn ich mal ein hilfreichen Feature!

Im Ernst:
1. Ich sehe schlechtes (oder gar fehlendes) Filtering sofort. Jede Wette!
2. Eine andere Berechtigung für die neue Grafikkartengeneration als hochqualitatives Filtering und AA gibt es momentan nicht und wird es auch noch einige Zeit nicht geben.
Damit ist eigentlich alles gesagt!

DrumDub
2004-08-17, 17:43:51
Winkelabhängikeit bei beiden?


ich bezog das auf 6x00 und x800er, die bekanntlich winkelabhängiges af liefern. das die fxen (und gf3,4) da natürlich immer noch nen vorteil haben gegenüber den anderen, sollte je bekannt sein.

wobei dazu gesagt werden muss, dass ati schon länger beim af trickst, als dies nvidia tut. der hauptunterschied bisher war, dass ati auf grund von desginentscheidungen, die aus kostenerwägungen heraus erwogen wurden, eben nur winkelabhängiges af kann, das auch nicht so präzise ist (mip-map-lod-bias, nur 6bit lod fraction) wie das von nv. die farge, die mich daher beschäftigt, ist, ob der nv40 auch af kann, welches nicht (so extrem) winkelabhängig ist.

zu "atis filtertricks" siehe: http://www.3dcenter.org/artikel/2003/11-21_a.php

MikBach
2004-08-17, 17:44:43
Zum Thema Treieroptimierungen:
Im Ernst:
1. Ich sehe schlechtes (oder gar fehlendes) Filtering sofort. Jede Wette!
2. Eine andere Berechtigung für die neue Grafikkartengeneration als hochqualitatives Filtering und AA gibt es momentan nicht und wird es auch noch einige Zeit nicht geben.
Damit ist eigentlich alles gesagt!
Gar nichts ist damit gesagt. Dass du schlechtes bzw fehlendes (AF)Filtering siehst, beweisst noch gar nichts. Ich wette, dass es deutlich mehr User gibt die "schlechtes"(was man von einer 9800PRO nun wirklich nicht behaupten kann) AF nicht sehen, als die die es sehen. Deswegen ist deine Aussage irrelevant für die Masse. Amen.

DrumDub
2004-08-17, 17:48:20
Mordred'] BEi Ati ist afaik in HArdware nur in Winkelabhängiger Variante vorhanden o_O

korrekt.

obs beim nv4x abschaltbar ist, weiß bisher wohl keiner (außer nv selbst).

aths
2004-08-17, 17:49:29
soweit d'accord.

der letzte satz ist mir nicht ganz klar. heißt das nun, dass das aktuelle af des nv40 ne software/treiber-lösung ist bzw. das doch besseres af genutzt werden kann? aus deiner aussage schließe ich nämlich, dass nv damit lediglich den füllratennachteil (gegenüber den x800ern) ausgleichen will, jedoch keine transistoren damit gespart hat.Wir begeben uns an dieser Stelle auf das Feld der Spekulationen. DK sagte ja im Interview (die Antwort auf das AF kommt original von DK) dass Transistoren gespart worden seinen. In der Tat gibt der NV40 insgesamt ein widersprüchliches Bild: An einigen Stellen wurden sichtlich Transistoren gespart, an anderen Stellen fast verschwenderisch genutzt.

Ob das NV40-AF ggü. dem Deltrachrome-AF wirklich bemerkenswert viel Transistoren spart, weiß ich nicht. Meine Vermutung ist, dass vielleicht ein wenig gespart werden kann. Ich halte es für praktisch sicher, dass NV das Muster wegen der Füllratenersparnis zulasten der Qualität implementierte, und nicht weil der Transistorcount nicht mehr hergab. Das Muster ist aber auf jeden Fall eine HW-Lösung. Die Frage ist nur, ob es für 4x - 16x noch bessere HW-Lösungen gibt, die lediglich nicht freigeschaltet wurden.

MikBach
2004-08-17, 17:49:29
ich bezog das auf 6x00 und x800er, die bekanntlich winkelabhängiges af liefern.
:confused:
An nichts anderes habe ich gedacht, sonst hätte ich ja nicht "beide" hingeschrieben.

MetalWarrior
2004-08-17, 17:49:54
Ich glaube nicht, dass es eine spezielle "Cheat"-Optimierung für Doom 3 gibt. Ich habe ausgiebig mit dem Cat 4.6 und dem neuen 4.9b getestet. Bei beiden gab es dasselbe leichte Flimmern bei Bodengittern. Sonst ist mir nix besonderes aufgefallen Also kein (sichtbarer) Unterschied zwischen beiden Treibern.

Ice =A=
2004-08-17, 17:51:44
@ MikBach:
Das kommt auf die Definition von Relevanz an. Für mich ist die Aussage sehr wohl relevant für die Masse, wenn es nur einen einzigen gibt, auf den sie zutrifft!
Und mal ganz ehrlich: Wenn Du selbst eine X800XT oder 6800Ultra hättest, die bei höchster Qualität immer ca. 100fps liefert, wolltest Du dann Qualitätsmindernde "Features"? Ganz ehrlich!?! Und beharre bitte nicht auf Deiner Meinung nur aus Prinzip.

@Alle:
Lassen sich mit atuner wirklich ALLE Treiberopti8mierungen bei ATI-Karten abschalten?!? Wenn nicht, lassen sie sich irgendwie (mit Registrytricks oder anderen Programmen) komplett abschalten? Vielen Dank!

aths
2004-08-17, 17:52:20
Das ist mir bewusst. Sieht man ja auch an der guten Shaderleistung von Nvidia.
Aber 30/25% mehr Takt sind halt nicht zu verachten. Die NV40-Architektur der Shaderpipe bringt für die arithmetische Rechenleistung mehr als 25-30% mehr Takt. Den (taktnormalisierten) Vorteil schätze ich auf ~ 50%.

aths
2004-08-17, 17:56:36
Schön für dich :smile: Obwohl ich weiss, wo ich hinschauen muss, fällt es mir beim Spielen auf meiner 9800PRO kaum auf, sehr selten nur, bzw sagen wir mal es stört nicht."Säulentest". Stell dich unter eine Säule deren Texturen AF vertragen könnten. Gucke nach oben und dreh dich etwas. Je nach Winkel sind die Texturen scharf oder unscharf.
Na ja, dafür ist der Deltachrome mit 8 Pipelines nicht so der Bringer. Wenn man Transistoren für gutes AF einsetzt, muss man woanders sparen.
Umsonst ist nichts. ;) Kein Grund, die AF-Leistung des DC kleinzureden. Der DC kann nämlich jede Zwischenstufe (also auch 5x, 6x, 7x, 9x, etc ...) applizieren. Er nutzt die verbrauchte Füllrate beinahe optimal aus. Der S3 DC ist eben nicht reineweg auf Speed optimiert. Wenn man sich ansieht, dass S3 das in einem Chip mit so wenig Stromverbrauch realisieren kann, dann kann man daraus schlussfolgern, ATI und NV könnten das auch – wenn sie wollten.

Mordred
2004-08-17, 17:56:47
korrekt.

obs beim nv4x abschaltbar ist, weiß bisher wohl keiner (außer nv selbst).

Hmm da hilft wohl wirklich nur abwarten. Ansich kann ich mir nicht vorstellen das es dort nur eine optimierte Variante gibt. Allein schon weil ja auch Quadros auf Basis des NV40 erscheinen werden. Glaube kaum das dort sowas geduldet werden würde. Aber naja wird sich ja zeigen ;)

DrumDub
2004-08-17, 17:57:13
aths

danke. :) ich dachte, es gäb vielleicht was neues zum thema. nun denn, interssant bleibts somit auf jeden fall. ich hoffe ja mal stark, dass in einiger zeit ein artikel erscheint, wenn mehr details zu den af-möglichkeiten des nv4x bekannt sind. das wär echt super.*hint*

aths
2004-08-17, 17:59:14
@ transistorcount: der nv40 hat hauptsächlich mehr wegen 32bit (ati 24bit) , und nicht wegen den wunder-speed-transis die alles soviel schneller machen pro takt.Mein Artikel zur NV40-Pipe wird bald veröffentlicht. Deshalb spare ich mir hier eine längere Antwort und schreibe einfach kurz: NV40-Pipes sind beim Rechnen pro Takt sowohl genauer als auch schneller als eine X800-Pipe.

i.ü. ist die af qualität absolut gleichwertig zu nv. ist ja bis heute noch nicht gelungen einen besseren screenshot oder video zu erzeugen auf nv hw :D bis jetzt konnten noch alle nvidianer attaken abgewehrt werden :)Wird durch Wiederholung nicht richtiger. Schade, dass du nur Nvidianer siehst, obwohl Nvidia-Fans und ATI-Fans in diesem Forum etwa gleich häufig vorkommen. Schließt man von der Beobachtung, dass du praktisch nur Nvidia-Fans siehst darauf, dass du dem ATI-Lager zuzurechnen bist, nimmt es nicht Wunder, dass du die geringere AF-Qualität bei der Radeon nicht anerkennst (obwohl es sich hier um eine Tatsache handelt. Die Frage ist lediglich, "wie schlimm" die Nachteile bei der Radeon sind.)

MikBach
2004-08-17, 17:59:22
Die NV40-Architektur der Shaderpipe bringt für die arithmetische Rechenleistung mehr als 25-30% mehr Takt. Den (taktnormalisierten) Vorteil schätze ich auf ~ 50%.
:confused:
Und? Leider spiegelt sich das nicht in den (Spiele)-Benchmarks wieder.

BTW kannst du mir mal kurz deine Kristalkugel leihen, ich hätte da vielleicht Verwendung für. ;)

DrumDub
2004-08-17, 18:01:21
:confused:
Und? Leider spiegelt sich das nicht in den (Spiele)-Benchmarks wieder.


vergiss mal die füllrate nicht. die ist auch nicht ganz unerheblich neben der reinen rechenleistung.

aths
2004-08-17, 18:06:19
:confused:
Und? Leider spiegelt sich das nicht in den (Spiele)-Benchmarks wieder.Was limitiert denn bei heutigen Spielen?
BTW kannst du mir mal kurz deine Kristalkugel leihen, ich hätte da vielleicht Verwendung für. ;) Angesichts meiner bisherigen Kenntnisse was beide Pipeline-Architekturen betrifft halte ich es für nicht überheblich, darauf basierend eine Vermutung zu treffen was die Leistung angeht.

MikBach
2004-08-17, 18:07:18
"Säulentest". Stell dich unter eine Säule deren Texturen AF vertragen könnten. Gucke nach oben und dreh dich etwas. Je nach Winkel sind die Texturen scharf oder unscharf.
Ich will SPIELEN und nicht vor einer Säule hocken und das Bild hin und her schwenken.
BTW wie oft kommen den Säulen prozentual gesehen in einem Spiel vor?
1%?

Kein Grund, die AF-Leistung des DC kleinzureden. Der DC kann nämlich jede Zwischenstufe (also auch 5x, 6x, 7x, 9x, etc ...) applizieren. Er nutzt die verbrauchte Füllrate beinahe optimal aus. Der S3 DC ist eben nicht reineweg auf Speed optimiert. Wenn man sich ansieht, dass S3 das in einem Chip mit so wenig Stromverbrauch realisieren kann, dann kann man daraus schlussfolgern, ATI und NV könnten das auch – wenn sie wollten.
Ich will doch gar nichts kleinreden. Lies mein Post noch mal :smile:dann wird dir auffallen, dass du bisschen an meiner Aussage vorbeiredest.

MikBach
2004-08-17, 18:08:13
vergiss mal die füllrate nicht. die ist auch nicht ganz unerheblich neben der reinen rechenleistung.
Danke, genau das meinte ich.

Jesus
2004-08-17, 18:09:01
:confused:
Und? Leider spiegelt sich das nicht in den (Spiele)-Benchmarks wieder.

BTW kannst du mir mal kurz deine Kristalkugel leihen, ich hätte da vielleicht Verwendung für. ;)

dass sich die theoretischen Mutmassungen so mancher hier nicht sehr häufig bestätigen ist ja mittlerweile nix neues mehr ( bzw. durch Praxistests aka Benchmarks negiert werden, siehe FC, Doom3 ).
:wink:

aths
2004-08-17, 18:09:18
Gar nichts ist damit gesagt. Dass du schlechtes bzw fehlendes (AF)Filtering siehst, beweisst noch gar nichts. Ich wette, dass es deutlich mehr User gibt die "schlechtes"(was man von einer 9800PRO nun wirklich nicht behaupten kann) AF nicht sehen, als die die es sehen. Deswegen ist deine Aussage irrelevant für die Masse. Amen.Sry, aber X-D

Seit wann ist das Urteil "der Masse" richtiger, als das Urteil von Leuten, die sich weitergehend mit der Materie beschäftigen? Ist nicht das relevant, was richtig ist? Sollte man seine Weltsicht darauf aufbauen, was die Masse sieht und was sie nicht sieht, oder nicht lieber auf (nachprüfbaren) Fakten?

Wäre es nicht sinnvoller, "der Masse" zu zeigen, worin die Vor- und Nachteile bestimmter Implementierungen eines Features liegen?

Ich will SPIELEN und nicht vor einer Säule hocken und das Bild hin und her schwenken.
BTW wie oft kommen den Säulen prozentual gesehen in einem Spiel vor?Hängt vom Spiel ab. Das funktioniert ja mit jeder beliebigen Wand, je nach dem, wie man auf sie guckt. Ich kann es nunmal nicht ab, wenn trotz AF je nach Winkel die Textur erheblich unschärfer wird. Denn um genau das zu vermeiden, dass verzerrte Texturen unscharf sind (ob sie verzerrt dargestellt werden hängt von der Position bzw. dem Winkel ab, von dem ich auf sie gucke) habe ich AF ja aktiviert.

Mr. Lolman
2004-08-17, 18:13:43
@ MikBach:
@Alle:
Lassen sich mit atuner wirklich ALLE Treiberopti8mierungen bei ATI-Karten abschalten?!? Wenn nicht, lassen sie sich irgendwie (mit Registrytricks oder anderen Programmen) komplett abschalten? Vielen Dank!

AFAIK können Atunrer und rTool nur die Texturstageoptimierung abschalten (= die am besten erkennbare) Für alle anderen muss man Regkeys verwedenen (LOD Optimierung, bilinear,...), die ich aber leider nicht auswendig weiss. Nur die Winkelabhängigkeit bleibt weiterhin aktiv.

@aths:

[idealistisches Denken = off]
Grafikkarten wollen verkauft werden. Und die Hauptkäuferschicht ist immernoch die breite Masse. Und ich wage zu behaupten, dass dieser eher ein 20-60% fps Vorteil auffällt, als Optimierungen beim AF, nochdazu wo die wenigsten wissen, wie perfektes AF überhaupt aussieht, geschweige denn funktioniert.
[idealistisches Denken = on]

MikBach
2004-08-17, 18:18:29
Was limitiert denn bei heutigen Spielen?
Die Frage meinst du jetzt nicht ernst?
Es gibt doch verschiedene Faktoren. IMO ist der grösste die Unfähigkeit der Prorammierer bzw die Zeit, die sie haben um ein Spiel fertig zu stellen. :biggrin:
Wenn ich mir ansehe, was da mit Patches manchmal drin ist, kann ich nur staunen, nicht immer.

Angesichts meiner bisherigen Kenntnisse was beide Pipeline-Architekturen betrifft halte ich es für nicht überheblich, darauf basierend eine Vermutung zu treffen was die Leistung angeht.
Akzeptiert. :)
Nur sagt die aritmetische Leistung eben nichts über die Gesamtleistung aus.

MikBach
2004-08-17, 18:27:25
Sry, aber X-D

Seit wann ist das Urteil "der Masse" richtiger, als das Urteil von Leuten, die sich weitergehend mit der Materie beschäftigen? Ist nicht das relevant, was richtig ist? Sollte man seine Weltsicht darauf aufbauen, was die Masse sieht und was sie nicht sieht, oder nicht lieber auf (nachprüfbaren) Fakten?
Das Urteil der Masse ist nicht richtiger, sondern wichtiger, weil sie ja die Abnehmer solcher Karten sind.


Wäre es nicht sinnvoller, "der Masse" zu zeigen, worin die Vor- und Nachteile bestimmter Implementierungen eines Features liegen?
Ja, mach mal. :) Ich wollte letztens meinem Schwager die Unterschiede zwischen Stageoptimierung AN und AUS zeigen, nach 10 Minuten habe ich es aufgegeben, und das an Stellen, wo ich es gesehen habe.

aths
2004-08-17, 18:35:36
[idealistisches Denken = off]
Grafikkarten wollen verkauft werden. Und die Hauptkäuferschicht ist immernoch die breite Masse. Und ich wage zu behaupten, dass dieser eher ein 20-60% fps Vorteil auffällt, als Optimierungen beim AF, nochdazu wo die wenigsten wissen, wie perfektes AF überhaupt aussieht, geschweige denn funktioniert.
[idealistisches Denken = on]Aus diesem Grunde bedarf es kritischer Medien (wozu auch die User zählen) um diesem Treiben Einhalt zu gebieten.

aths
2004-08-17, 18:37:44
Die Frage meinst du jetzt nicht ernst?.Doch.
Es gibt doch verschiedene Faktoren. IMO ist der grösste die Unfähigkeit der Prorammierer bzw die Zeit, die sie haben um ein Spiel fertig zu stellen. :biggrin: Falsche Antwort :) Richtig wäre: "Meistens limitiert die CPU".

Danach kommt Füllrate (bzw. je nach Graka-Modell Bandbreite.) Arithmetische Pixelshader Leistung ist für heutige Spiele noch nicht so wichtig.
Akzeptiert. :)
Nur sagt die aritmetische Leistung eben nichts über die Gesamtleistung aus.Genau darauf zielte meine Frage nach der Limitierung ab.

aths
2004-08-17, 18:41:12
Das Urteil der Masse ist nicht richtiger, sondern wichtiger, weil sie ja die Abnehmer solcher Karten sind.Imo ist das wichtigste "die Wahrheit". Damit man mit "Wahrheit" was anfangen kann, muss sie objektivierbar sein. Das ist schwierig bei Fragen der Wahrnehmung, z. B. was die Texturdarstellungs-Approximationsberechnungen angeht. Dennoch lassen sich Kriterien aufstellen und begründen. ATI verstößt derzeit deutlich stärker gegen diese Kriterien als Nvidia, wobei Nvidias AF beim NV40 qualitätsmäßig ja bekanntlich auch gehörig nachließ, liegen sie damit noch immer vor der Radeon.

Ja, mach mal. :) Ich wollte letztens meinem Schwager die Unterschiede zwischen Stageoptimierung AN und AUS zeigen, nach 10 Minuten habe ich es aufgegeben, und das an Stellen, wo ich es gesehen habe.Mir ist es schon passiert, dass jemand bei 800x600 (auf einem sehr scharfen 17" Moni) die Unterschiede zwischen 1x und 2x RGSSAA nicht sah (das heißt, den Vorteil äußerst geringschätzte.)

r@h
2004-08-17, 18:42:45
@aths:
[idealistisches Denken = off]
Grafikkarten wollen verkauft werden. Und die Hauptkäuferschicht ist immernoch die breite Masse. Und ich wage zu behaupten, dass dieser eher ein 20-60% fps Vorteil auffällt, als Optimierungen beim AF, nochdazu wo die wenigsten wissen, wie perfektes AF überhaupt aussieht, geschweige denn funktioniert.
[idealistisches Denken = on]Und genau ist hier (im Forum) das Problem.

Die meisten sollten eigentlich wissen, was AF ist und wofür es (ursprünglich) genutzt werden sollte...
...geben sich aber damit zu frieden, dass sie es eigentlich nur in bestimmten Situationen tatsächlich bekommen.

Und DAS verstehe ich nicht.

Auch Du redest hier immer um den heißen brei und sagst nicht einfach, dass ATI's (optimiertes) AF einfach scheiße ist. Dass Winkelabhängigkeit (auch bei nVidia) scheiße ist. Dass Optimierungen, die nicht 'bequem' abschaltbar sind und vom IHV bewußt nicht offengelegt werden einfach nur scheiße sind.

nVidia hat's gelernt, warum soll also ATI das nicht auch können?

Die 'Masse' von der Du redest, findet das Häkchen im Treiber 'eh nicht, um sich die Liste der (abschaltbaren) Optimierungen anzeigen zu lassen, insofern dürfen diese auch gerne weiter vor hin sich dämmern. Im High-End-Segemnt aber erwarte ich, dass ein 500 Taler Kärtchen schlicht ALLE Bedürfnisse befriedigt... ergo: Performance UND Qualität... meinetwegen auch nicht zur gleichen Zeit, wenn's denn unbedingt sein muss.

Noch besser sind natürlich Profile für Games, bei denen die eine oder andere Optimierung gar nicht mal so auffällt und deswegen auch aktiviert werden kann, obwohl sie in anderen wieder völlig untragbar ist und dort abgeschaltet werden muss.

Sorry, aber für mich gibt es schlicht nur EINEN Grund, Optimierungen nicht offen zu legen und deaktivierbar zu gestalten...

BESCHISS .
... und keinen anderen.

Es wird schlicht Leistung vorgetäuscht, wo keine ist.
Punkt.

Razor

P.S.: und das auch noch 'schönzureden' hilft NIEMANDEN.

MikBach
2004-08-17, 18:46:44
Falsche Antwort :) Richtig wäre: "Meistens limitiert die CPU".
Den Smile hast du aber gesehen? ;)
Bei 1600x1200 mit AA und AF muss deine Antwort auch nicht unbedingt richtig sein, auch bei den neuen Karten.

MikBach
2004-08-17, 18:52:50
Imo ist das wichtigste "die Wahrheit". Damit man mit "Wahrheit" was anfangen kann, muss sie objektivierbar sein. Das ist schwierig bei Fragen der Wahrnehmung, z. B. was die Texturdarstellungs-Approximationsberechnungen angeht. Dennoch lassen sich Kriterien aufstellen und begründen. ATI verstößt derzeit deutlich stärker gegen diese Kriterien als Nvidia, wobei Nvidias AF beim NV40 qualitätsmäßig ja bekanntlich auch gehörig nachließ, liegen sie damit noch immer vor der Radeon.
Ist ja schön und gut. Wenn jemand es nicht sieht ist für ihn die Wahrheit irrelevant, weil es ihn nicht stört.

Mir ist es schon passiert, dass jemand bei 800x600 (auf einem sehr scharfen 17" Moni) die Unterschiede zwischen 1x und 2x RGSSAA nicht sah (das heißt, den Vorteil äußerst geringschätzte.)
Siehst du, da lieferst du dir selbst den Beweis. Was/Wie Technikfreaks sehen ist eben nicht für Alle nachvollziehbar.

Tjell
2004-08-17, 18:54:05
Hui, hier weht ja ein rauher Wind... :frown:



Mir soll mal einer der FPS-vor-Qualität-Verfechter erklären, was so schlecht daran sein soll, mit technischen Artikeln die User darauf aufmerksam zu machen, daß Ihnen von den Chipschmieden Ihre Auswahl beschnitten wird. Auch wenn nicht jeder einen Unterschied in der Grafikqualität feststellen kann, warum sollte jeder darauf festgenagelt sein, statt (noch) besserer Grafik noch mehr Frames zu erzielen, die man vielleicht auch noch nicht mal mehr wahrnehmen kann, z. B. bei Frameraten jenseits der 80?

Jesus
2004-08-17, 19:07:36
Hui, hier weht ja ein rauher Wind... :frown:



Mir soll mal einer der FPS-vor-Qualität-Verfechter erklären, was so schlecht daran sein soll, mit technischen Artikeln die User darauf aufmerksam zu machen, daß Ihnen von den Chipschmieden Ihre Auswahl beschnitten wird. Auch wenn nicht jeder einen Unterschied in der Grafikqualität feststellen kann, warum sollte jeder darauf festgenagelt sein, statt (noch) besserer Grafik noch mehr Frames zu erzielen, die man vielleicht auch noch nicht mal mehr wahrnehmen kann, z. B. bei Frameraten jenseits der 80?

dagegen hätte ich auch nichts :wink:

allerdings würde ich ( wo wir schon beim Thema AF sind ) gerne mal endlich richtige Beweise für das überlegen NV AF / miserables ATI AF sehen. In allen Reviews bisher habe ich auf keinem Screenshot irgendwo grosse qualitative Unterschiede sehen können ( und auch kein Reviewer hat das , von 6800 / X800 ausgegangen ).

Ich finde es zwar gut dass es AF Tester gibt und dass damit alles mögliche an Optimierungen aufgedeckt werden kann, allerdings bringt mir das dann auch nichts wenn ich dasselbe nicht in einem Spiel nachvollziehen kann, weil die Fälle unter denen da getestet wird so konstruiert sind dass sie in dem Mass so gut wie nie vorkommen werden.

OT Ende.

aths
2004-08-17, 19:08:52
Den Smile hast du aber gesehen? ;)
Bei 1600x1200 mit AA und AF muss deine Antwort auch nicht unbedingt richtig sein, auch bei den neuen Karten.In 1600x1200 spielen wenige, selbst Nutzer der neueren Karten nur dann, wenn sie mit z. B. 85 Hz leben können (oder einen guten TFT haben.) Auch in 1600x1200 ist die CPU oft noch eine Bremse (sonst würde die Leistung ggü. 1024x768 deutlich stärker abfallen.)

Ist ja schön und gut. Wenn jemand es nicht sieht ist für ihn die Wahrheit irrelevant, weil es ihn nicht stört. Natürlich. Ihn würde allerdings auch ein fps-Verlust von sagen wir 15-20% nicht stören. Wer unempfindlich gegen verringerte AF-Qualität ist, soll sie gerne per Treiber reduzieren können.

Siehst du, da lieferst du dir selbst den Beweis. Was/Wie Technikfreaks sehen ist eben nicht für Alle nachvollziehbar. Darauf kommt es ja auch nicht an.

MikBach
2004-08-17, 19:11:42
Und genau ist hier (im Forum) das Problem.

Die meisten sollten eigentlich wissen, was AF ist und wofür es (ursprünglich) genutzt werden sollte...
...geben sich aber damit zu frieden, dass sie es eigentlich nur in bestimmten Situationen tatsächlich bekommen.

Und DAS verstehe ich nicht.

Auch Du redest hier immer um den heißen brei und sagst nicht einfach, dass ATI's (optimiertes) AF einfach scheiße ist. Dass Winkelabhängigkeit (auch bei nVidia) scheiße ist. Dass Optimierungen, die nicht 'bequem' abschaltbar sind und vom IHV bewußt nicht offengelegt werden einfach nur scheiße sind.

nVidia hat's gelernt, warum soll also ATI das nicht auch können?

Die 'Masse' von der Du redest, findet das Häkchen im Treiber 'eh nicht, um sich die Liste der (abschaltbaren) Optimierungen anzeigen zu lassen, insofern dürfen diese auch gerne weiter vor hin sich dämmern. Im High-End-Segemnt aber erwarte ich, dass ein 500 Taler Kärtchen schlicht ALLE Bedürfnisse befriedigt... ergo: Performance UND Qualität... meinetwegen auch nicht zur gleichen Zeit, wenn's denn unbedingt sein muss.

Noch besser sind natürlich Profile für Games, bei denen die eine oder andere Optimierung gar nicht mal so auffällt und deswegen auch aktiviert werden kann, obwohl sie in anderen wieder völlig untragbar ist und dort abgeschaltet werden muss.

Sorry, aber für mich gibt es schlicht nur EINEN Grund, Optimierungen nicht offen zu legen und deaktivierbar zu gestalten...

BESCHISS .
... und keinen anderen.

Es wird schlicht Leistung vorgetäuscht, wo keine ist.
Punkt.

Razor

P.S.: und das auch noch 'schönzureden' hilft NIEMANDEN.

Na ja, vielleicht ist ATI ja auch der Meinung, dass die breite Masse es nicht sieht.
Vielleicht haben sie ja Tests mit Daus gemacht und die Optimierung so gewählt, wie die meisten(Alle) es nicht als störend empfinden.
Damit wir uns hier nicht falsch verstehen, ich finde es auch scheisse, das ATI eine Deaktivierung der Optimierung nicht anbietet.
Vielleicht sollten sie diese Funktion einfach nur gut im Treiber verstecken, oder einen Patch zum Treiber anbieten, den sich Freaks aufspielen können, wenn sie mit der BQ nicht zufrieden sind.
ATI muss da echt was machen, denn sonst werden sich die versierten User jeden Tag die Köpfe in den Foren einschlagen.
Das mit den Profilen finde ich auch eine gute Idee.

robbitop
2004-08-17, 19:13:53
In allen Reviews bisher habe ich auf keinem Screenshot irgendwo grosse qualitative Unterschiede sehen können

sowas sieht man nur in Bewegung.
Und auch das hängt mit der Wahrnehmung des Spielers zusammen.

aths
2004-08-17, 19:17:18
Ich finde es zwar gut dass es AF Tester gibt und dass damit alles mögliche an Optimierungen aufgedeckt werden kann, allerdings bringt mir das dann auch nichts wenn ich dasselbe nicht in einem Spiel nachvollziehen kann, weil die Fälle unter denen da getestet wird so konstruiert sind dass sie in dem Mass so gut wie nie vorkommen werden.Gegenüber dem "alten" AF (à la GF3/4Ti/FX) ist das NV40-AF ja nicht sehr toll, und nicht mehr so viel besser als das von der Radeon. Die weiteren AF-"Optimierungen" bei der X800 sind so gewählt, dass sie bei üblichen Texturen nicht (oder fast nicht) auffallen. Allerdings: "Dank" dieser Optimierung können Texturen, die den Frequenzumfang maximal ausnutzen, nicht mehr korrekt dargestellt werden – der Trick funktioniert also nur so lange, wie im Spiel mit bewusst leicht unscharfen Basistexturen gearbeitet wird.

Es kann sein, dass NV40 zu solchen Tricks ebenfalls fähig ist. Ich traue NV ohne weiteres zu, solche Tricks – sofern die HW das kann – klammheimlich einzusetzen. Allerdings hoffe ich, dass im Modus "Hohe Qualität" solcher Quatsch vollständig deaktiviert bleibt.

Die "brilineare" Optimierung wird bei der Radeon recht vorsichtig genutzt, jedenfalls fällt sie nicht so sehr auf wie die vergleichbare "Optimierung" bei der GeForce. Dafür kann mans dort komplett abschalten, wenn es stört.



Ich habe kürzlich Max Payne 2 eine Zeit lang im "Performace"-Mode auf meiner FX gespielt, inkl. aktivierter AF-Stage-Optimierung. Minutenlang fielen mir keine Nachteile auf. Bis eine Textur die "Optimierung" enthüllte (mein Auge wurde von einem MIP-Band beleidigt.) Meiner Einschätzung nach ist Radeon 9600-Grafik von der Texturqualität her für die meisten Gelegenheitsspieler völlig ausreichend. Und: Lieber vernünftige Leistung einer 9600 als Niedrig-Performance mit einer 64-Bit-FX 5200. Da nützt auch tollstes 8x AF nix. Allerdings stelle ich an ein Highend-Produkt andere Anforderungen, unter anderem möchte ich die Optiona auf durchgehende Texturqualität.

Quasar
2004-08-17, 19:19:13
Auch in 1600x1200 ist die CPU oft noch eine Bremse (sonst würde die Leistung ggü. 1024x768 deutlich stärker abfallen.)

Falschrum. Wenn die CPU (und auch sonst nix außer der Grafikkarte) in 1024x768 keine Bremse mehr wäre, würde die Leistung bis hin zu 1600x1200 stärker abfallen, nämlich mindestens um Faktor 2,44.

Tjell
2004-08-17, 19:20:23
dagegen hätte ich auch nichts :wink:

allerdings würde ich ( wo wir schon beim Thema AF sind ) gerne mal endlich richtige Beweise für das überlegen NV AF / miserables ATI AF sehen. In allen Reviews bisher habe ich auf keinem Screenshot irgendwo grosse qualitative Unterschiede sehen können ( und auch kein Reviewer hat das , von 6800 / X800 ausgegangen ).
...
Ich glaube, daß die Problematik darin liegt, daß Unterschiede am ehesten
bei Bewegung zu erkennen wären (womit ich jetzt nicht unterstelle, daß es sie nun auch wirklich gibt :wink:).

Überhaupt sollte mal ein großes Magazin, daß sich kompetent schimpft, dafür gewonnen werden, hochaufgelöste Videos auf einer Heft-DVD zu veröffentlichen, um den Usern einmal zu zeigen, wie sich in bewegten Bildern Qualitätseinstellungen und die eingebauten Optimierungen de facto in Spielen auswirken.

aths
2004-08-17, 19:25:04
Falschrum. Wenn die CPU (und auch sonst nix außer der Grafikkarte) in 1024x768 keine Bremse mehr wäre, würde die Leistung bis hin zu 1600x1200 stärker abfallen, nämlich mindestens um Faktor 2,44.Hm? Meine Argumentation war: Weil die Leistung in 1600x1200 nicht so sehr abfällt, limitiert offenbar die Grafikkarte nicht so sehr, als dass keine CPU-Limitierung mehr vorläge. Also wirkt sich auch in 1600x1200 die CPU noch limitierend aus.

MikBach
2004-08-17, 19:25:54
Ich glaube, daß die Problematik darin liegt, daß Unterschiede am ehesten
bei Bewegung zu erkennen wären (womit ich jetzt nicht unterstelle, daß es sie nun auch wirklich gibt :wink:).
Das ist korrekt. Allerdings habe ich es verschiedenen Personen in Bewegung gezeigt. Ich habe sie gesehen, die meisten aber nicht.

Überhaupt sollte mal ein großes Magazin, daß sich kompetent schimpft, dafür gewonnen werden, hochaufgelöste Videos auf einer Heft-DVD zu veröffentlichen, um den Usern einmal zu zeigen, wie sich in bewegten Bildern Qualitätseinstellungen und die eingebauten Optimierungen de facto in Spielen auswirken.
Dafür bin ich schon seit langem. Dann kann sich nämlich jeder eine Meinung bilden der eine Graka kaufen will, ob er da was sieht oder nicht.

Mr. Lolman
2004-08-17, 19:32:46
Ich glaube, daß die Problematik darin liegt, daß Unterschiede am ehesten
bei Bewegung zu erkennen wären (womit ich jetzt nicht unterstelle, daß es sie nun auch wirklich gibt :wink:).


Wo wär das Problem in ein Review ein paar animierte Gifs zu packen?

Quasar
2004-08-17, 19:49:05
Hm? Meine Argumentation war: Weil die Leistung in 1600x1200 nicht so sehr abfällt, limitiert offenbar die Grafikkarte nicht so sehr, als dass keine CPU-Limitierung mehr vorläge. Also wirkt sich auch in 1600x1200 die CPU noch limitierend aus.

Hm. Wenn du davon ausgehst, die CPU bremst auch in 16x12 noch die Graka aus, dann tut sie es umso stärker in 10x7. Die Tatsache, daß der Leistungsverlust von 10x7 nach 16x12 nicht stärker ausfällt, liegt darin begründet, daß unabhängig vom Grad der Limitierung in 16x12, die Graka in 10x7 noch viel stärker eingebremst wird.
Oder reden wir hier komplett aneinander vorbei?

tombman
2004-08-17, 19:51:50
@bewegung: nein, es gibt _keine_ bugwelle bei ati, wenn es sie nicht auch bei nv gibt ;) auch ned mehr texturschimmern (wenn, dann beide) oder moiree (höchstens ein bischen konstrastreicher aber ned mehr)

nochmal: keine screenshots, keine videos - since ever :D

technische interna waren, sind und werden immer irrelevant sein.

Gast
2004-08-17, 20:35:45
@bewegung: nein, es gibt _keine_ bugwelle bei ati, wenn es sie nicht auch bei nv gibt ;) auch ned mehr texturschimmern (wenn, dann beide) oder moiree (höchstens ein bischen konstrastreicher aber ned mehr)

nochmal: keine screenshots, keine videos - since ever :D

technische interna waren, sind und werden immer irrelevant sein.

Sieht man ja an den Bildern gell?

aths
2004-08-17, 20:44:31
Hm. Wenn du davon ausgehst, die CPU bremst auch in 16x12 noch die Graka aus, dann tut sie es umso stärker in 10x7. Die Tatsache, daß der Leistungsverlust von 10x7 nach 16x12 nicht stärker ausfällt, liegt darin begründet, daß unabhängig vom Grad der Limitierung in 16x12, die Graka in 10x7 noch viel stärker eingebremst wird.
Oder reden wir hier komplett aneinander vorbei?Nein. Aber die Frage war, ob in 1600x1200 die CPU noch limitiert, oder nicht. Wenn die CPU keine Rolle spielt, der Flaschenhals also voll die Graka ist, skaliert die Leistung nur noch mit der Auflösung. Natürlich ist bei CPU-Limitierung in 1600x1200 geringer als in 1024x768. Trotzdem gewinnen (praktisch) alle Spiele noch durch eine stärkere CPU, auch wenn man in 1600x1200 bencht.

Colin MacLaren
2004-08-17, 21:02:43
Eines sollten die Qualitätsverfechter, die sich um Aufklärungsarbeit bei der breiten Masse bemühen, imho bedenken - wie ihre Ausführungen bei genau dieser Gruppe ankommen.
Ich habe spaßenshalber verschiedenen Mitgliedern meines Clans - bis auf zwei Ausnahmen sicher keine Hardwareinteressierte, dafür aber allesamt Gamer, von ein bis acht Stunden Spielzeit für Tag eigentlich alles dabei - mit diversen Sceenshotvergleichen präsentiert, über was hier unermüdlich seitenweise diskutiert wird. Sie fanden diese Untersuchungen und die verschiedenen beklagten Mängel in der Filterqualität, höflich ausgedrückt, einfach nur lächerlich, ganz vorbei war es dann, wo ich Screenshits mit eingefärbten MipMaps präsentierte. Die Äußerungen über diejenigen, die sich wochenlang mit diesen "Cheats" beschäftigen erspare ich mir jetzt, hier aufzuführen. In den meisten Fällen mußte ich sie auf die einzelnen Stellen, wo denn da nun Unterschiede sichtbar wären, hinweisen, von allein wäre es ihnen nie aufgefallen. Ingame schon gar nicht. Ergo erreicht Ihr mit dieser "Aufklärungsarbeit" so ziemlich das genaue Gegenteil, von dem was Ihr erreichen würde. Ich wage zu behaupten, daß der absoluten Mehrheit der User, auch wenn sie den Unterschied kennen würden, ihre konstanten 60 fps bei Doom3 lieber wären, als die lehrbuchmäßige Filterqualität, die ingame sowieso keinem normalen Menschen auffällt, weil sie eben nicht einfach mal stehen bleiben und den Screen nach schlechter gefilterten Flecken absuchen.

Daß die IHVs eher auf die Masse der User Rücksicht nehmen, als auf eine kleine Gruppe von Freaks, erscheint mir logisch und nachvollziehbar. Bei Ati sind nicht alle Optimierungen deaktivierbar, da lieber am Transistorcount gespart wurde. Wäre dies nicht Fall, würden sich die gleichen Leute, die sich über die Filteroptimierungen beschweren, über die hohe Verlustleistung der Karten beklagen, wenn die Zahl der Transistoren (und damit btw. auch der Preis) entsprechend höher ausfiele.

aths
2004-08-17, 21:37:30
Sie fanden diese Untersuchungen und die verschiedenen beklagten Mängel in der Filterqualität, höflich ausgedrückt, einfach nur lächerlich, ganz vorbei war es dann, wo ich Screenshits mit eingefärbten MipMaps präsentierte.Wenn man sich mit diesem Niveau zufrieden gibt, bräuchte man gar nicht erst über 3D-Technik zu reden. Auch nicht über Doom3-Technik bzw. mögliche Cheats. Wer weiß schon, was Pixelshader (Fragmentshader) sind und wie sie funktionieren?

Wenn ich z. B. ein lineares Gleichungssystem lösen möchte, interessiert mich doch auch nicht, wie viele Leute schon mit Bruchrechnung Probleme haben ...

MikBach
2004-08-17, 21:53:16
Wenn man sich mit diesem Niveau zufrieden gibt, bräuchte man gar nicht erst über 3D-Technik zu reden. Auch nicht über Doom3-Technik bzw. mögliche Cheats. Wer weiß schon, was Pixelshader (Fragmentshader) sind und wie sie funktionieren?

Ich. :biggrin:

Fragmentshader besitzen grundsätzlich die Aufgabe den Fragmenten eine Farbe zuzuordnen, ob diese Farbe endgültig sein wird hängt davon ab, ob die Farbe in möglichen folgenden Rendering Pässen noch verändert wird. Zum Bestimmen der Ausgabe gibt es zwei Bereiche innerhalb der Fragmentshader, zum einen sind das Texture Shading und zum anderen das Texture Blending, wobei das Texture Shading die Funktion der Texture Fetches und des Filtern übernimmt.

aths
2004-08-17, 22:36:46
Ich. :biggrin:

Fragmentshader besitzen grundsätzlich die Aufgabe den Fragmenten eine Farbe zuzuordnen, ob diese Farbe endgültig sein wird hängt davon ab, ob die Farbe in möglichen folgenden Rendering Pässen noch verändert wird. Zum Bestimmen der Ausgabe gibt es zwei Bereiche innerhalb der Fragmentshader, zum einen sind das Texture Shading und zum anderen das Texture Blending, wobei das Texture Shading die Funktion der Texture Fetches und des Filtern übernimmt.Das beschreibt in etwa, was sie machen, aber nicht, wie sie funktionieren.

MikBach
2004-08-17, 22:44:08
Das beschreibt in etwa, was sie machen, aber nicht, wie sie funktionieren.
Was heisst denn hier "in etwa"?
Was meinst mit fuktionieren?

PS muss jetzt aber echt pennen gehen, Morgen geht es weiter. :biggrin:

Gast
2004-08-17, 23:21:58
http://img26.exs.cx/img26/1545/ut2003.jpg

Selbe Settings auf PNY 6800 GT wie oben und kein Banding wie bei der X800.

zeckensack
2004-08-17, 23:48:06
@bewegung: nein, es gibt _keine_ bugwelle bei ati, wenn es sie nicht auch bei nv gibt ;) auch ned mehr texturschimmern (wenn, dann beide) oder moiree (höchstens ein bischen konstrastreicher aber ned mehr)Ich behaupte das Gegenteil.nochmal: keine screenshots, keine videos - since ever :DEnglisch solltest du lieber lassen. Das wirkt albern.technische interna waren, sind und werden immer irrelevant sein.Das glaube ich nicht. Ich glaube vielmehr dass deine Meinung, nachdem du ja mittlerweile zur Genüge das dir gegebene Maß an Sehkraft und Objektivität zur Schau gestellt hast, eigentlich keine Sau mehr interessiert.

tombman
2004-08-18, 00:34:23
Ich behaupte das Gegenteil.Englisch solltest du lieber lassen. Das wirkt albern.Das glaube ich nicht. Ich glaube vielmehr dass deine Meinung, nachdem du ja mittlerweile zur Genüge das dir gegebene Maß an Sehkraft und Objektivität zur Schau gestellt hast, eigentlich keine Sau mehr interessiert.

behaupten kannst viel, beweisen wenig. fraps KANN videos machen.
und wer das wie kritisiert tut das nur, weil ers beim was nimma kann.
und bezeichne meine anhänger nicht als säue, du vergißt schon wieder, daß ich mit meiner meinung NICHT allein bin, so sehr du diese tatsache auch ignorieren magst :cool:

zeckensack
2004-08-18, 00:50:19
behaupten kannst viel, beweisen wenig.Ich will dir auch garnichts beweisen. Ich habe bereits gelernt, dass du gegen Fakten resistent bist, und habe keine Lust an dir meine kostbare Zeit zu verschwenden, indem ich irgendwelche Beweise produziere, die du akzeptieren würdest (was ja bekanntermaßen unmöglich ist). Wenn du allerdings der Meinung bist, ich hätte mir das nicht selbst mal angesehen, und meine Einschätzung der Sachlage frei erfunden: dazu habe ich gerade zufällig einen passenden Beweis vorrätig. Schaust du hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2147878&postcount=364). Ob du mir jetzt deswegen glaubst, dass ich das Spiel tatsächlich auf beiden Karten für mehrere Stunden gespielt habe, ist mir auch reichlich egal. Die zwei Minuten die ich brauche um diese Antwort zu schreiben, tun mir nicht wirklich weh.

tombman
2004-08-18, 01:09:02
Ich will dir auch garnichts beweisen. Ich habe bereits gelernt, dass du gegen Fakten resistent bist, und habe keine Lust an dir meine kostbare Zeit zu verschwenden, indem ich irgendwelche Beweise produziere, die du akzeptieren würdest (was ja bekanntermaßen unmöglich ist). Wenn du allerdings der Meinung bist, ich hätte mir das nicht selbst mal angesehen, und meine Einschätzung der Sachlage frei erfunden: dazu habe ich gerade zufällig einen passenden Beweis vorrätig. Schaust du hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2147878&postcount=364). Ob du mir jetzt deswegen glaubst, dass ich das Spiel tatsächlich auf beiden Karten für mehrere Stunden gespielt habe, ist mir auch reichlich egal. Die zwei Minuten die ich brauche um diese Antwort zu schreiben, tun mir nicht wirklich weh.

lol, welche fakten? ich seh kein video von dir. und alles außer einem video ist kein beweis, sondern nur wieder blinde nvidia technik götzenanbetung. schon vergessen?- technikinterna kann man nicht sehen. außerdem interessieren mich nur x800 und 6800, deine hochrechnungen und schlüsse von den 5700 und 9500 karten sind kein ersatz. wennst schon was dazu sagen willst, dann teste wenigstens die echten karten und nicht die vorige generation.

für deine kostbare zeit hab ich nur ein mildes lächeln übrig- keiner der stundenlang games spielt und in foren tausende posts abgibt hat "kostbare zeit"

Ice =A=
2004-08-18, 01:10:48
Oben (auf dieser Seite) hat ein "gast" den Link zu einem Bild gepostet.
Dazu kann ich nur sagen: Sehr schönes Bild, sehr schöner (und auffallender) Unterschied zwischen ATI und nVidia. Gute Arbeit!
Sieht man da in Bewegung bei der ATI die berüchtigte Bugwelle?!? Und wenn ja, kann man die wegkriegen?
So als Standbild sieht das von ATI ja fast besser aus, weil da die hochauflösende Textur länger beibehalten wird. Bei nVidia siehts dafür homogener aus!

P.S.:
Der Unterschied dürfte sogar einem (fast) Blinden auffallen. Soviel zu der These, daß man Kleinigkeiten sowieso nicht sieht... (Und das is nur ein Standbild!)

maas
2004-08-18, 01:11:10
Schon lächerlich, was hier abgeht. Und wie hier manche Fanatiker die schlechte Bildqualität herunterspielen. Mich als ATI-Besitzer stört das jedenfalls.

Und wer hier (wie weiter oben) behauptet, er würde beim Zocken gar nicht auf die Bildqualität achten können, ist ein Heuchler. Niemand, der sich regelmäßig in einem 3D-Hardware-Forum herumtreibt, kann ernsthaft behaupten, dass ihn schlechte Bildqualität nicht stören würde. Dann wäre er nicht hier.

Wir wollen hier doch alle das gleiche: immer schönere Spiele und bessere Grafik. Da gibt es auch nichts herunterzuspielen, nur weil der Lieblingshersteller mal wieder Mist baut.

Iceman346
2004-08-18, 01:29:48
Sieht man da in Bewegung bei der ATI die berüchtigte Bugwelle?!? Und wenn ja, kann man die wegkriegen?

Ja die sieht man. In Bewegung wird sie erst richtig deutlich, auf festen Screenshots ist sie eher schwierig zu erkennen.

Wie und ob man sie bei den XT Karten wegkriegen kann weiss ich nicht.

Alertstatus Red
2004-08-18, 01:35:19
Öm normalerweise funktioniert ATis TS Optimierung _nur_ unter D3d und _nur_ dann wenn AF über CP geforced wird. Bei OpenGL hat die die TS Optimierung AFAIK noch nie funktioniert.

Naja bei DoomIII forced man halt AF übers CP und schon passt alles.
Genau, ich setze auch der AF in CP, ned in der game ... oki, hab ne 9800pro, vielleicht ist diese von der ganze AF + Brilineare fein raus, mir jedesfall ist mir ned ausgefallen, und mal erlich, in der hitze des gefechte, hab kein zeit mir das genau anschauen .... wo aber probeweise doch hingeschaut habe, nach das der ort von monstern befreiht habe, ist mir ned ausgefallen, und zügig gehts doch, ich liebe meine 9800pro, dazu ist noch, dank VGA Silencer, gerauscharm und hitzt ned der inner von meine kiste. Will keine xt800 und keine 6800, warte auf die next gen hardware, und auf PCIe, vorher kommt weder ATi, weder NVidia das farbe meine kohle zu sehen ;-)

tombman
2004-08-18, 01:37:56
Ja die sieht man. .

hast du eine x800 und selbst getestet oder nur hörensagen?

Ice =A=
2004-08-18, 02:55:38
Sieht man diese Bugwelle auch noch, wenn man das AF in den ATI-Treibern auf 8x mit maximaler Qualität einstellt?
Danke!

Iceman346
2004-08-18, 03:09:57
... oki, hab ne 9800pro, vielleicht ist diese von der ganze AF + Brilineare fein raus, mir jedesfall ist mir ned ausgefallen

Die 9800Pro hat auch die Stageoptimierung (die kriegst du, wenn du nur über das CP AF anwählst, definitiv vorgesetzt), also alle Texturstages >1 werden lediglich bilinear gefiltert. Dies kann für Bugwellen sorgen, tut es beispielsweise in UT2003/4, da dort die Detailtexturen dann nur bilinear gefiltert werden. Deaktivieren kannst du das mit dem rTool oder dem aTuner.

Brilinear filtern tut die 9800 Pro meines Wissens nach nicht. Das ist auf die 9600er Karten + alle X800er beschränkt.

mapel110
2004-08-18, 04:15:25
Die 9800Pro hat auch die Stageoptimierung (die kriegst Brilinear filtern tut die 9800 Pro meines Wissens nach nicht. Das ist auf die 9600er Karten + alle X800er beschränkt.

alle R420-derivate filtern Brilinear. ergo x800 und höher. Alle Karten darunter haben diese Optimierung nicht. also auch die 9600er nicht.

MadManniMan
2004-08-18, 05:21:57
@Lolman und A. Red:

Warum erzwingt ihr vollstes AF, wenn schon id selbst Texturstage-Optimierungen vorsieht? AFAIK bekommt nur die diffuse Map AF ab.


@mapelchen:

Oh doch, die 9600er sind sogar etwas fieser, was Brihaftigkeit angeht :ugly2: Beim aktuellen Überblick vom Tech-Report Doom3 betreffen ( hier (http://www.tech-report.com/etc/2004q3/doom3-midlow/index.x?pg=7) ) kann man durch genaues Hinschauen aufs Bodengitter sogar schon im Standbild die Unterschiede erkennen.


@tombman:

Auch auf die Gefahr hin, einen oder mehrere Punkte zu erhaschen - deine ignorante Art geht mir auf den Sack. So selbstgefällig und obercool, wie du dich zu geben versuchst, hättest du im wahren Leben (nicht von mir - ist nicht mein Stil) schon längst eine gelangt bekommen.
Ich schreibe nicht "nichts für Ungut" oder Ähnliches, weil es mir auch nicht Leid tut, was ich dich betreffend hier schreibe - ich bin nur ehrlich.
Mögen "deine Anhänger" nun auf mich einschlagen, ich bin bereit.

mapel110
2004-08-18, 05:26:26
@mapelchen:

Oh doch, die 9600er sind sogar etwas fieser, was Brihaftigkeit angeht :ugly2: Beim aktuellen Überblick vom Tech-Report Doom3 betreffen ( hier (http://www.tech-report.com/etc/2004q3/doom3-midlow/index.x?pg=7) ) kann man durch genaues Hinschauen aufs Bodengitter sogar schon im Standbild die Unterschiede erkennen.



Wie soll eine Karte/chip Brilinear filtern, wenn ihr die technischen Möglichkeiten dazu fehlen?

MadManniMan
2004-08-18, 05:46:37
Wie soll eine Karte/chip Brilinear filtern, wenn ihr die technischen Möglichkeiten dazu fehlen?

Nay, tut sie doch nich :) Der RV350(360) ist zwar grob ein R300 mit nur einem Quad, aber der Shrink auf 0,13µ war eben nicht die einzige Designänderung. Das Bri-Band(also der Bereich, in dem nur Bilinear gefiltert wird) ist bei den 9600ern am größten, bei den RV420ern am kleinsten und irgendwo dazwischen liegt die Brilinearität von NV3X und NV40.

Kann es sein, daß du da grad deine lange Abwesenheitsphase hattest, als das diskutiert wurde? Q hat damals einen interessanten Artikel geschrieben ... klick (http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/).

mapel110
2004-08-18, 06:15:25
Kann es sein, daß du da grad deine lange Abwesenheitsphase hattest, als das diskutiert wurde? Q hat damals einen interessanten Artikel geschrieben ... klick (http://www.computerbase.de/artikel/hardware/grafikkarten/versteckspiele_atis_texturfilter/).

Jo, wusste ich nicht. Danke für den Link.

r@h
2004-08-18, 06:54:28
Das ist korrekt. Allerdings habe ich es verschiedenen Personen in Bewegung gezeigt. Ich habe sie gesehen, die meisten aber nicht.Der beste Ort für soetwas sind LAN-Partys.

Und nicht die meisten haben es nicht gesehen, sondern die meisten waren erstaunt, wie z.Bsp. FarCry (oder zuletzt Doom3) auch aussehen kann. Noch erstaunter waren sie (ja, selbst nVidia-Nutzer ;-), dass man dieses über das "Steuer-Fenster" beeinflussen kann und entäuscht waren die ATI-User, dass es bei ihnen nicht geht. Zwar hatten 2 Leutz da gleich erzählt, dass man da doch Proggi's hätte, um gewisse Dinge bei ATI trotzdem hinzubekommen, wurden dafür aber nur mit fragenden Blicken gestraft.

Ja die meisten haben keine Ahnung, was ihnen da entgeht.

Haben sie aber erst einmal gesehen, wie so etwas auch aussehen kann... ja eigentlich auszusehen hat, dann wollen sie es auch... bekommen dies dann aber nicht.

So kannst Du Dir villeicht ungefähr vorstellen, was mir passierte, als ich nach Monaten der exklusiven nVidia-Nutzung wieder 'ne ATI im Hauptrechner hatte und mir eigentlich permanent sagte:

"Wirklich gute performance und sehr hübsches AA."
"Aber was zum Geier haben die da mit den Filtern angestellt?"
Und spätestens nach Games wie FC und Uru (und da waren noch so einige andere!), ist die Karte wieder im hohen Bogen raus geflogen.

-

Ja, viele sehen es nicht... weil sie einfach nichts anderes kennen...
...und so den Beschiss der IHV's einfach stumpf akzeptieren.

Allerdings ist dies kein Grund, gegen andere Hardware zu maulen, wenn sie diese noch nicht einmal im direkten Vergleich gegenübergestellt gesehen haben und nur auf die unzähligen Reviews verweisen, die offenbar selbst nicht einmal bei den laufenden Benchmarks anwesend waren. Oder wie soll man es erklären, dass offensichtliche Quali-Unterschiede da sind, darauf dann aber erst eingegangen wird, wenn man mit der Nase (in die Schei.e ;-) hinein gestoßen wird?

Vielen 'Reviewern' täte es wirklich mal gut, den Befehl "timedemo 1" vor dem "demo <xxx>" mal weg zu lassen, um mal zu schaun', wie so ein Timedemo 'normal' aussieht. Aber vermutlich ist dies einfach zuviel verlangt...

Razor

Grestorn
2004-08-18, 07:12:56
behaupten kannst viel, beweisen wenig. fraps KANN videos machen.
und wer das wie kritisiert tut das nur, weil ers beim was nimma kann.
und bezeichne meine anhänger nicht als säue, du vergißt schon wieder, daß ich mit meiner meinung NICHT allein bin, so sehr du diese tatsache auch ignorieren magst :cool:Nur als Anmerkung, Du bist nicht der einzige, der beide Karten hat (siehe Signatur). Und im Gegensatz zu Dir habe ich sie auch gleichzeitig im Einsatz, in zwei Rechnern, die nebeneinander stehen.

Die Performance lässt sich damit sicherlich nicht mehr vergleichen, da die Rechner zu unterschiedlich sind. Aber da gibt's ja nun genügend Material im Internet.

Aber die Qualität lässt sie hervorragend vergleichen!

Grestorn
2004-08-18, 07:22:30
Warum erzwingt ihr vollstes AF, wenn schon id selbst Texturstage-Optimierungen vorsieht? AFAIK bekommt nur die diffuse Map AF ab.Die Texturestage Optimierung von ATI bei AF übers Panel bezieht sich nur darauf, ob Tri- oder Bilinear gefiltert wird. AF werden alle Stages gefiltert.

Dagegen steuert Doom3, wenn man es lässt und der Treiber korrekt funktionieren würde, direkt welche Stages überhaupt anisotrop gefiltert werden.
@tombman:

Auch auf die Gefahr hin, einen oder mehrere Punkte zu erhaschen - deine ignorante Art geht mir auf den Sack. So selbstgefällig und obercool, wie du dich zu geben versuchst, hättest du im wahren Leben (nicht von mir - ist nicht mein Stil) schon längst eine gelangt bekommen.
Ich schreibe nicht "nichts für Ungut" oder Ähnliches, weil es mir auch nicht Leid tut, was ich dich betreffend hier schreibe - ich bin nur ehrlich.
Mögen "deine Anhänger" nun auf mich einschlagen, ich bin bereit.Wahre Worte. Die "Anhänger" macht er sich ohnehin eh alle selbst. Das traurige daran ist ja nur sich jemanden vorzustellen, dessen Ego so etwas nötig hat...

MikBach
2004-08-18, 08:44:34
dazu habe ich gerade zufällig einen passenden Beweis vorrätig. Schaust du hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2147878&postcount=364).
:uconf2:
Was soll denn das wieder beweisen?
Wenn man nicht weiss wie der Algorytmus bei der Optimierung funktioniert und keine internen Kenntnisse über die Architektur des Chips hat, kann man das imo nicht so genau sagen.
Ausserdem von irgendwelchen Zahlen auf die subjektive Bildqualität zu urteilen ist imo unmöglich.

MikBach
2004-08-18, 09:19:37
Der beste Ort für soetwas sind LAN-Partys.

Und nicht die meisten haben es nicht gesehen, sondern die meisten waren erstaunt, wie z.Bsp. FarCry (oder zuletzt Doom3) auch aussehen kann. Noch erstaunter waren sie (ja, selbst nVidia-Nutzer ;-), dass man dieses über das "Steuer-Fenster" beeinflussen kann und entäuscht waren die ATI-User, dass es bei ihnen nicht geht. Zwar hatten 2 Leutz da gleich erzählt, dass man da doch Proggi's hätte, um gewisse Dinge bei ATI trotzdem hinzubekommen, wurden dafür aber nur mit fragenden Blicken gestraft.
Das ist ja das Problem. Die meisten wissen nicht, das es Programme gibt, die man benutzen kann, wenn man mit der BQ nicht zufrieden ist.
Echt scheisse von ATI, dass es nicht über Treiber geht.



Haben sie aber erst einmal gesehen, wie so etwas auch aussehen kann... ja eigentlich auszusehen hat, dann wollen sie es auch... bekommen dies dann aber nicht.

So kannst Du Dir villeicht ungefähr vorstellen, was mir passierte, als ich nach Monaten der exklusiven nVidia-Nutzung wieder 'ne ATI im Hauptrechner hatte und mir eigentlich permanent sagte:

"Wirklich gute performance und sehr hübsches AA."
"Aber was zum Geier haben die da mit den Filtern angestellt?"
Und spätestens nach Games wie FC und Uru (und da waren noch so einige andere!), ist die Karte wieder im hohen Bogen raus geflogen.

-

Ja, viele sehen es nicht... weil sie einfach nichts anderes kennen...
...und so den Beschiss der IHV's einfach stumpf akzeptieren.
Ja, kann ich durchaus verstehen.
Das würde ich aber nicht so pauschaliesieren.
Die meisten sehen(oder nehmen es nicht wahr) noch nicht mal die Bildfehler(Häuserdächer) auf einem durschnittlichen Fernseher bei 50Hz.(hab ich letztens bei der Tour de France richtig fett gesehen) Das beisst in den Augen.
:O
edit: wollte noch anmerken, dass ich in einer Runde mit 4(allerdings durchschnittlichen) Gamern sas und es wurde eine eine längere Zeit die Hubschrauberperspektive gezeigt, nach einer Weile meinte ich "Oh man, voll die Bildfehler, ich kriege gleich Augenkrebs"
Antwort:"Wo? Du übertreibst mal wieder" *schulterzuck*

Allerdings ist dies kein Grund, gegen andere Hardware zu maulen, wenn sie diese noch nicht einmal im direkten Vergleich gegenübergestellt gesehen haben und nur auf die unzähligen Reviews verweisen, die offenbar selbst nicht einmal bei den laufenden Benchmarks anwesend waren. Oder wie soll man es erklären, dass offensichtliche Quali-Unterschiede da sind, darauf dann aber erst eingegangen wird, wenn man mit der Nase (in die Schei.e ;-) hinein gestoßen wird?

Razor
Weil die meisten es nicht sehen?
Eine andere Erklärung kann ich mir einfach bei so vielen Revievs nicht vorstellen.

MadManniMan
2004-08-18, 11:27:21
Die Texturestage Optimierung von ATI bei AF übers Panel bezieht sich nur darauf, ob Tri- oder Bilinear gefiltert wird. AF werden alle Stages gefiltert.

Dagegen steuert Doom3, wenn man es lässt und der Treiber korrekt funktionieren würde, direkt welche Stages überhaupt anisotrop gefiltert werden.

Und genau das macht es bei mir auch :grübel: Erste vergleiche zwischen voll erzwungenem und App-Gesteuerten brachten nur Performanceunterschiede :ratlos:

r@h
2004-08-18, 11:30:52
Das ist ja das Problem. Die meisten wissen nicht, das es Programme gibt, die man benutzen kann, wenn man mit der BQ nicht zufrieden ist.
Echt scheisse von ATI, dass es nicht über Treiber geht.Genau das ist es, was mir primär am Herzen liegt. Sollen die IHV's doch 'optimieren', was das Zeug hält. Aber dann sollte es auch Möglichkeiten (im Treiber !) geben, diese

a) zu lokalisieren und
b) zu deaktivieren

wenn man denn will.

Schade nur, dass diese extreme AF-Winkelabhängigkeit wohl nicht abzustellen sein wird...
...weder bei ATI noch bei nVidia (seit NV40).

Ja, kann ich durchaus verstehen.
Das würde ich aber nicht so pauschaliesieren.
Die meisten sehen(oder nehmen es nicht wahr) noch nicht mal die Bildfehler(Häuserdächer) auf einem durschnittlichen Fernseher bei 50Hz.(hab ich letztens bei der Tour de France richtig fett gesehen) Das beisst in den Augen.

: O

edit: wollte noch anmerken, dass ich in einer Runde mit 4(allerdings durchschnittlichen) Gamern sas und es wurde eine eine längere Zeit die Hubschrauberperspektive gezeigt, nach einer Weile meinte ich "Oh man, voll die Bildfehler, ich kriege gleich Augenkrebs"
Antwort:"Wo? Du übertreibst mal wieder" *schulterzuck*Es soll ja tatsächlich auch Leute geben, die man wohl als "fast blind" einstufen muss. Allerdings gehe ich davon aus, dass Leute, die hier über Qualität reden, diese auch wahrzunehmen vermögen. Wenn nicht, sollte man sich aus solchen Diskussionen echt heraus halten.

Weil die meisten es nicht sehen?
Eine andere Erklärung kann ich mir einfach bei so vielen Revievs nicht vorstellen.Wenn da die Benches mit hunderten von frames (jetzt 'etwas' übertrieben ;-) an einem vorbei flimmern und ich von IHV's oder den Resellern einfach nicht genug Zeit bekomme auch etwas anderes zu machen, kann man dies selbstredend überhaupt nicht entdecken (und unter diesem Druck standen in der Sartphase fast die meisten Reviewer). Nicht zu verzeihen ist allerdings, dass wenn genug Zeit zur Verfügung steht, ebenfalls nicht darauf eingegangen wird und einfach nur stumpf Balken miteinander vergleichen werden...

Kompetenz ist allerdings noch ein ganz anderes Thema, was hier jetzt aber zu weit führen würde.
Ehrlichkeit noch ein anderes...

Meinst Du nicht, dass viele 'Reviewer' einfach Angst haben, bei der nächsten Hardware-"Verteilung" nicht mehr berücksichtigt zu werden? Bei den nächsten "Direkt-Info's" nicht mehr zu dem Kreis der 'Erlauchten' zu gehören?
:confused:

Funzt doch bei der DPA auch ganz hervorragend...
(was hier aber nun wirklich vollkommen OT ist ;-)

Fakt ist, dass es offenbar nicht nur Leute gibt, die nicht sehen 'können', sondern auch solche, die nicht sehen 'wollen'.
Und da sehe ich eigentlich das allergrößte Problem...

Razor

P.S.: Zu den Leuten, die nicht sehen 'dürfen' sage ich dann lieber nichts mehr... ;)

MikBach
2004-08-18, 12:24:51
Es soll ja tatsächlich auch Leute geben, die man wohl als "fast blind" einstufen muss. Allerdings gehe ich davon aus, dass Leute, die hier über Qualität reden, diese auch wahrzunehmen vermögen. Wenn nicht, sollte man sich aus solchen Diskussionen echt heraus halten.
Also mit blind hat das wenig zu tun, einige brauchen noch nicht mal eine Brille. Ich habe langsam die Vermutung, dass die Wahrnemungsfähigkeit von der Intelligenz abhängig ist, und man schon recht intelligent sein muss um da Unterschiede beim Spielen festzustellen.


Meinst Du nicht, dass viele 'Reviewer' einfach Angst haben, bei der nächsten Hardware-"Verteilung" nicht mehr berücksichtigt zu werden? Bei den nächsten "Direkt-Info's" nicht mehr zu dem Kreis der 'Erlauchten' zu gehören?
:confused:
Das wird Nvidia doch auch so machen.

Razor

P.S.: Zu den Leuten, die nicht sehen 'dürfen' sage ich dann lieber nichts mehr... ;)
Was willst du mir jetzt damit sagen?
Ich habe doch gesagt, dass ich die TS-Optimierung sehe.

r@h
2004-08-18, 13:28:31
Also mit blind hat das wenig zu tun, einige brauchen noch nicht mal eine Brille. Ich habe langsam die Vermutung, dass die Wahrnemungsfähigkeit von der Intelligenz abhängig ist, und man schon recht intelligent sein muss um da Unterschiede beim Spielen festzustellen.Mit "Intelligenz" hat das nun überhaupt nichts zu tun...

Das wird Nvidia doch auch so machen.Öhm... ja klar!
Und?
:confused:

Dewegen schrieb ich ja auch vorher "IHV's"...

Was willst du mir jetzt damit sagen?
Ich habe doch gesagt, dass ich die TS-Optimierung sehe.Das bezog ich eigentlich eher auf den von Dir nicht mitgequoteten Teil mit der DPA... ist aber nicht so wichtig.

Razor

JaDz
2004-08-18, 14:39:33
Dewegen schrieb ich ja auch vorher "IHV's"...


Dann hättest Du lieber "IHVs" schreiben sollen, damit die Mehrzahl auch ersichtlich wird. ;)

Gast
2004-08-18, 14:42:09
Mit "Intelligenz" hat das nun überhaupt nichts zu tun...


Razor
Doch!
Mir war schon klar, dass das Sehen erst im Gehirn stattfindet.
Mehr aber auch nicht.
Jetzt habe ich bisschen(2 min) gegoogelt und...
BINGO!
http://www.psychol.uni-giessen.de/dl/showfile/Probst/1499/Dia-29_Wahrnehm-Grafomotor.pdf
http://www.puramaryam.de/channelninnen.html
Krass.
Je intelligenter man ist, desto mehr sieht man.

Ich will mich mal bei allen für diese aufschlussreiche Diskussion bedanken. Jetzt sehe ich einige Sachen bisschen anders.
War mein letzter Post zum Thema BQ.

PS Respekt an alle, die diese Optimierungen so deutlich sehen, das zeugt von extremer Intelligenz.

MikBach

[edit by Crushi]
Ersten Link gefixt.

Jesus
2004-08-18, 14:48:49
wieso zum Geier wurde mein Quote gelöscht ? Das ist das einzig sinnvolle was in diesem Thread noch vorhanden ist, und die Lösung aller fragen, da ja viele hier anscheinend gerne darüber hinweg lesen :eek:

mapel110
2004-08-18, 15:44:42
wieso zum Geier wurde mein Quote gelöscht ? Das ist das einzig sinnvolle was in diesem Thread noch vorhanden ist, und die Lösung aller fragen, da ja viele hier anscheinend gerne darüber hinweg lesen :eek:

1. gehts derzeit hier in der Diskussion um was ganz anderes. also hat der bezug gefehlt. Ich sehe hier jedenfalls keinen, der diese Info offensichtlich überlesen hätte.

2. Direkt darunter war noch ein spambeitrag. da bot es sich an, diesen gleich mit zu trashen. :)

rest per PN falls du noch Argumente haben solltest.
mfg

tombman
2004-08-18, 16:44:20
@tombman:

Auch auf die Gefahr hin, einen oder mehrere Punkte zu erhaschen - deine ignorante Art geht mir auf den Sack. So selbstgefällig und obercool, wie du dich zu geben versuchst, hättest du im wahren Leben (nicht von mir - ist nicht mein Stil) schon längst eine gelangt bekommen.
Ich schreibe nicht "nichts für Ungut" oder Ähnliches, weil es mir auch nicht Leid tut, was ich dich betreffend hier schreibe - ich bin nur ehrlich.
Mögen "deine Anhänger" nun auf mich einschlagen, ich bin bereit.

also "eine langen" würde bei mir in einer klage enden. im gegensatz zu dir bin ich dieser kindergarten-schulhof-prügelei-welt schon lang entwachsen.

i.ü. finde ich interessant, daß du hier offenbar flamen kannst ohne bepunktet zu werden... wieder so ein protektionskind?

tombman
2004-08-18, 16:54:25
Wahre Worte. Die "Anhänger" macht er sich ohnehin eh alle selbst. Das traurige daran ist ja nur sich jemanden vorzustellen, dessen Ego so etwas nötig hat...

die mach ich mir ned selbst, die melden sich per pn bei mir. :)
klar isses für die schwer "öffentlich" pro-tombman zu posten, weil man dann eventuell ebenso angefeindet wird wie ich, wenn man sich nicht der 3dc hauseigenen pro-nvidia linie anschließt. außerdem ist so gut wie des ganze internet auf meiner seite, denn wenn man sich die reviews durchließt kommen so gut wie alle reviewer zu dem schluß, daß es keine großen unterschiede in der BQ gibt.

SamLombardo
2004-08-18, 17:09:31
die mach ich mir ned selbst, die melden sich per pn bei mir. :)
klar isses für die schwer "öffentlich" pro-tombman zu posten, weil man dann eventuell ebenso angefeindet wird wie ich, wenn man sich nicht der 3dc hauseigenen pro-nvidia linie anschließt. außerdem ist so gut wie des ganze internet auf meiner seite, denn wenn man sich die reviews durchließt kommen so gut wie alle reviewer zu dem schluß, daß es keine großen unterschiede in der BQ gibt.

Messiaskomplex? :| Er schart Anhänger um sich gegen die Nvidia Verschwörung :eek:

Sry for Spam

Grestorn
2004-08-18, 17:10:50
die mach ich mir ned selbst, die melden sich per pn bei mir. :)
klar isses für die schwer "öffentlich" pro-tombman zu posten, weil man dann eventuell ebenso angefeindet wird wie ich, wenn man sich nicht der 3dc hauseigenen pro-nvidia linie anschließt. außerdem ist so gut wie des ganze internet auf meiner seite, denn wenn man sich die reviews durchließt kommen so gut wie alle reviewer zu dem schluß, daß es keine großen unterschiede in der BQ gibt.Angefeindet wirst Du nicht wegen Deiner Meinung - die ist für sich gesehen ok - sondern wegen der Art wie Du sie vertrittst.

Alle, die nicht deiner Meinung sind, hältst Du per se entweder für Trottel oder nVidia-Fanboys. Außerdem meinst Du der einzige zu sein, der sich eine optjektive Meinung erlauben darf.

Das ist zumindest der Inhalt, den Du mit Deinen Beiträgen hier vermittelst, und da wunderst Du Dich, dass hier einige etwas gegen Dich haben?

Übrigens: Die wenigsten, die hier im Forum schreiben, haben irgendetwas mit dem 3dc zu tun, ich weiß nicht, wie Du darauf kommst, dass hier alle "die 3dc hauseigene pro-nvidia Linie" vertreten. Auf die Idee, dass das wirklich die Meinung dieser Leute sein könnte, kommst Du wohl erst gar nicht.

Und im Übrigen gebe ich Dir in gewisser Weise Recht: Im Großteil der Fälle sieht man tatsächlich keinen Unterschied in der BQ zwischen einer x800 und einer 6800 (jeweils "Quality" und Optimierungen nach Treiberdefaults). Es gibt Ausnahmen, mit denen man aber wohl leben kann, insbesondere, weil man schon sehr genau hinsehen muss. Es sind aber die anderen Dinge, die mich persönlich an der ATI Karte stören, an forderster Front die Treiberproblematik. Und jetzt erzähl mir bitte keiner, ich wüsste nicht, wovon ich rede.

Crushinator
2004-08-18, 17:18:51
Da das Niveau in diesem Thread fast alles bisher da gewesene in den Schatten gestellt hat, wird er zwecks Aufräumen und ggf. notwendiger Punktevergabe vorerst geschlossen.

Crushinator
2004-08-19, 00:57:39
(...)
Englisch solltest du lieber lassen. Das wirkt albern.
(...) Ich glaube vielmehr dass deine Meinung, nachdem du ja mittlerweile zur Genüge das dir gegebene Maß an Sehkraft und Objektivität zur Schau gestellt hast, eigentlich keine Sau mehr interessiert. Als ich in Deinem Beitrag nach einem auch nur kleinsten Bezug zum Topic suchte, mußte ich feststellen, daß er nicht nur OT ist, sondern je nach Sichtweise auch noch als flamehaltig bewertet werden kann. Ich darf somit und zum letzten mal bitten, solche geistigen Ergüsse in Zukunft per PN zu verschicken!


@tombman:
Auch auf die Gefahr hin, einen oder mehrere Punkte zu erhaschen - deine ignorante Art geht mir auf den Sack. So selbstgefällig und obercool, wie du dich zu geben versuchst, hättest du im wahren Leben (nicht von mir - ist nicht mein Stil) schon längst eine gelangt bekommen.
Ich schreibe nicht "nichts für Ungut" oder Ähnliches, weil es mir auch nicht Leid tut, was ich dich betreffend hier schreibe - ich bin nur ehrlich.
Mögen "deine Anhänger" nun auf mich einschlagen, ich bin bereit. Ich bin Anhänger der Forumsregeln, und von denen ausgegangen beinhaltet dieser Beitrag einen direkten Flameversuch, der leider auch noch völlig OT ist. Dafür daß er dabei - durch die nachfolgenden Reaktionen - den Thread fast mit sich gerissen hätte, gibt es selbstverständlich einen wunderschönen Punkt!

[edit]
Du bekommst ihn aber leider nicht, denn ich wurde von einem Kollegen auf den im Trash versenkten Teil dieses Thread aufmerksam gemacht, dessen Beiträge hätten fairerweise dann auch alle bepunktet werden müssen.

(...)
Wahre Worte. Die "Anhänger" macht er sich ohnehin eh alle selbst. Das traurige daran ist ja nur sich jemanden vorzustellen, dessen Ego so etwas nötig hat... Mußte das wirklich sein? Was genau stellt man sich vor, was dieser Kommentar - andere nennen's auch bashing - erreichen soll? Bisher führte er jedenfalls zu weiteren OT-Beiträgen, und das ist noch glücklich ausgegangen. Bitte unterlasse es in Zukunft mitzuflamen!

die mach ich mir ned selbst, die melden sich per pn bei mir. :)
klar isses für die schwer "öffentlich" pro-tombman zu posten, weil man dann eventuell ebenso angefeindet wird wie ich, wenn man sich nicht der 3dc hauseigenen pro-nvidia linie anschließt. außerdem ist so gut wie des ganze internet auf meiner seite, denn wenn man sich die reviews durchließt kommen so gut wie alle reviewer zu dem schluß, daß es keine großen unterschiede in der BQ gibt. Das Topic verfehlt dieser Beitrag nicht nur locker um 90%, er ist an objektiven und/oder nachvollziehbaren Argumenten (mal wieder) sehr arm geraten. Du solltest ernsthaft überlegen, ob nicht eher diese Art von Beiträgen der Grund dafür ist, daß Du - wie Du es übertriebenermaßen ausdrückst - "angefeindet wirst" als eine uns unterstellte "hauseigene pro-nvidia linie". Abgesehen davon, gehört Kritik an selbst sowas fiktives wie eine "hauseigene Linie" eher in dieses (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=35) Unterforum.

Nur vorsorglich für alle:
Eine Diskussion über die Verwarnungen hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im “3DCenter & 3DCenter Forum“ zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
Regeln und Richtlinien für die Moderation (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046)

P.S. Thread ist wieder offen. Bitte reißt Euch jetzt zusammen und diskutiert wenigstens in einer wahrnehmbaren Nähe des Topic, sonst ist er ganz schnell wieder zu, von den Punkten die es regnen wird ganz zu schweigen.

Mordred
2004-08-19, 05:52:38
also "eine langen" würde bei mir in einer klage enden. im gegensatz zu dir bin ich dieser kindergarten-schulhof-prügelei-welt schon lang entwachsen.

i.ü. finde ich interessant, daß du hier offenbar flamen kannst ohne bepunktet zu werden... wieder so ein protektionskind?
Lies sein Posting besser nochmal ._.

@Grestorn: JA die ATI Treiber die sind immermal für nen Lacher gut. Mittlerweile scheint sich aber wenigstens diese Problematik langsam zu legen. SIe sind jedanfalls schonweit geniesbarer als sie es zum BEispiel zu Rage128 ZEiten waren. Bis zur Qualität der NV Treiber wirds zwar noch bisschen dauern aber wenigstens da sind sie auf dem richtigen weg.

€:Formulierung verändert sonnst fühlt sich Crushi verarscht :>

seahawk
2004-08-19, 08:06:47
Also hier fällt es mir wirklich sehr schwer keine punktwürdige Aussage zu treffen, wenn ich mir so einen bestimmten Poster angucke, aber gut das ist OT und damit ad acta gelegt.

Ich verstehe eigentlich nicht, warum diese ganze Diskussion hier wieder aufkocht. Das wurde doch alles schon bis zum Erbrechen und zurück diskutiert. Subjektive Wahrnehmung ist subjektiv und damit für jeden anders. Das kann man nicht ändern und wie jeder sich seine Meinung bildet ist auch seines Sache.

Die technischen Unterschied sind denke ich allen hier inzwischen bekannt und ausdiskutiert.

Jesus
2004-08-19, 12:14:39
um mal ganz zurück zum Threadthema zu kommen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162740

LovesuckZ
2004-08-19, 12:17:43
um mal ganz zurück zum Threadthema zu kommen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=162740

Und was willst du uns sagen?

Jesus
2004-08-19, 12:25:50
das es wohl auch auf NV karten qualitative Unterschiede zwischen CP und App AF gibt und zwar im selben Masse wie auf ATI Karten ( CP AF = bessere Qualität ).

Nächstes mal einfach den Link anklicken, da stehts auch ... :wink:

seahawk
2004-08-19, 12:25:57
* dieses Posting war Mist *

Jesus
2004-08-19, 12:28:20
:up:

LovesuckZ
2004-08-19, 12:30:38
das es wohl auch auf NV karten qualitative Unterschiede zwischen CP und App AF gibt und zwar im selben Masse wie auf ATI Karten ( CP AF = bessere Qualität ).


Und?
Irgendwie logisch, dass vollstaendig trilinear ueber jede Stage und ohne LOD Spielchen besser aussieht als AF nur bei bestimmten Texturen.

Ansonsten nochmal Xmas:
Kein Cheat, sondern ein mittlerweile bekannter Treiberbug.


Nun nochmal, was hat das mit dem Thema zu tun?
Immerhin geht es hier um die Unterschiede zwischen Nvidia's und ATi's AF ueber's CP.

Mr. Lolman
2004-08-19, 18:18:42
@Lolman und A. Red:

Warum erzwingt ihr vollstes AF, wenn schon id selbst Texturstage-Optimierungen vorsieht? AFAIK bekommt nur die diffuse Map AF ab.



Schau dir doch mal das Bodengitter vom allerersten Raum an. Da fordert DoomIII standardmässig 'feinstes' bi-AF für die Haupttextur an. GL_LINEAR_MIPMAP_NEAREST (reines bi-AF) schaut m.E. nicht viel schlechter aus.

4xtri AF über Controlpanel eingestellt, und schon ist alles relativ ordentlich gefiltert und die Performance langt bei meiner 9700pro noch für 2xAA (bei 1024). Wem die Grafik immernoch zu flimmrig ist, der kann ja den bekannten 'Trick' - mit der Mipmap Detail Ebene um eine Stufe runtersetzen - anwenden.

Komisch, das nur DoomIII als einziges OpenGL Spiel so bockig ist, und das Programmiergott JC einfach so übersehen hat, dass ATi Karten z.T. ordentlich an Performance gewinnen können wenn man in den Shaderanweisungen auf dependent texture reads verzichtet.

Xmas
2004-08-19, 18:56:08
Schau dir doch mal das Bodengitter vom allerersten Raum an. Da fordert DoomIII standardmässig 'feinstes' bi-AF für die Haupttextur an. GL_LINEAR_MIPMAP_NEAREST (reines bi-AF) schaut m.E. nicht viel schlechter aus.
Kein Cheat, auch kein bi-AF (schon gar nicht von Doom3 "angefordert"), sondern ein mittlerweile bekannter (und gefixter) Treiberbug...

Komisch, das nur DoomIII als einziges OpenGL Spiel so bockig ist, und das Programmiergott JC einfach so übersehen hat, dass ATi Karten z.T. ordentlich an Performance gewinnen können wenn man in den Shaderanweisungen auf dependent texture reads verzichtet.
Ordentlich Performance gewinnt man nur, wenn man im CP AF erzwingt. Was man eigentlich nicht tun sollte, wenn die Anwendung AF kontrolliert. Denn die weiß besser was nötig ist.

zeckensack
2004-08-19, 20:20:50
Kein Cheat, auch kein bi-AF (schon gar nicht von Doom3 "angefordert"), sondern ein mittlerweile bekannter (und gefixter) Treiberbug...Gefixt? Edit: ab welchem Treiber? Ich bilde mir auch ein, dass die Bugwelle in Doom 3 mit dem Cat 4.8 schwächer geworden ist (App-AF, 4x, LINEAR_MIPMAP_LINEAR natürlich).
Aber der Bug, den ich dereinst selbst meldete, und für den ich auch einen gnadenlosen Repro-Test habe, ist in Cat 4.8 immer noch vorhanden.

Quasar
2004-08-19, 20:25:14
OT:
Momentan scheint alles, was OpenGL betrifft, auf den allheilsbringenden 4.9er geschoben zu werden, auch ein Funktionieren der ViewPerf 8.01 (ebenfalls OpenGL, für die, denen das nix sagt).

Xmas
2004-08-19, 20:47:01
Gefixt? Edit: ab welchem Treiber? Ich bilde mir auch ein, dass die Bugwelle in Doom 3 mit dem Cat 4.8 schwächer geworden ist (App-AF, 4x, LINEAR_MIPMAP_LINEAR natürlich).
Aber der Bug, den ich dereinst selbst meldete, und für den ich auch einen gnadenlosen Repro-Test habe, ist in Cat 4.8 immer noch vorhanden.
Im nächsten Treiber, laut Herrn Persson (http://www.beyond3d.com/forum/viewtopic.php?t=14874&postdays=0&postorder=asc&start=1040).

aths
2004-08-21, 23:06:00
LOL
was macht ihr eigentlich den ganzen tag, mit reaster Microscop vorm PC sitzen und Standbilder vergleichen....LOOOL
das ist doch so was von egal was die mit ihren Treibern machen.
Wenn man mal ehrlich zu sich selbst ist muss man feststellen dass man da garnix grosartig merkt wenn man SPIELT.Beim Deto 61.77 hatte ich die "trilineare Optimierung" aktiv und das in Doom sofort gemerkt. Nur volle trilineare Filterung befriedigt mich in Doom3. Kurz danach schaltete ich (in der cfg-Datei) auch noch Texturkomprimierung aus. Eigentlich bin ich ein Freund von TC, aber nicht bei diesen Artefakten. Zur Strafe darf ich Dumm3 jetzt in 800x600 spielen ;( (Und es ist noch immer nicht "sauber", da gibts z. B. Aliasing durch dünne Linien vom specular light.)