PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Optimierungen


Seiten : 1 2 3 4 [5]

Quasar
2004-05-22, 12:57:08
Wenn die PS2.0-Effekte schnell genug per CPU berechnet werden könnten, wozu dann überhaupt DX9-Karten?

LovesuckZ
2004-05-22, 12:57:43
Original geschrieben von MadMan2k
Wogegen ich mich hingegen sträube, ist, dass diese Vorteiele schon beim NV40 zum tragen kommen, da er meiner Ansicht nach
a) für entsprechend lange Shader zu langsam ist und
b) das Branching bei ihm zuviel kostet, sodass es auch bei kurzen Shadern zu keinen Vorteilen führt.

Auch wenn es nicht zum Thema passt:
ATi bietet im Gegensatz zum NV40 kein SM3.0. Auch wenn der NV40 keinen Vorteil davon ziehen würde, ermöglicht er den gamer in naeherer Zukunft SM3.0 unterstuetzende Spiele zu sehen. Und jeder kann selbst entscheiden, ob er nur auf SM2.0 beschraenkt sein oder die Auswahl haben will (Pech für ATi, dass sie beim SM2.0 nicht schneller sind!).

AYAlf
2004-05-22, 17:27:02
Original geschrieben von LovesuckZ
Auch wenn es nicht zum Thema passt:
ATi bietet im Gegensatz zum NV40 kein SM3.0. Auch wenn der NV40 keinen Vorteil davon ziehen würde, ermöglicht er den gamer in naeherer Zukunft SM3.0 unterstuetzende Spiele zu sehen. Und jeder kann selbst entscheiden, ob er nur auf SM2.0 beschraenkt sein oder die Auswahl haben will (Pech für ATi, dass sie beim SM2.0 nicht schneller sind!).

was bezeichnest du denn hier mit naeherer zukunft?

und fuer die paar shader (denke mal 1-5) die in den naechsten spielen sm3 angekuendigt wurden, lohnt es sich bestimmt nicht eine graka mit diesem fearure zu kaufen! also fuer spieler voellig uninteressant. die einzigen die davon profitieren duerften, sind die 3dgurus und die spieleentwickler.
aber warum kommen eigentlich die nvfanboys immer wieder auf den einen (einzigen) vorteil der 6800 zu sprechen. es geht hier gar nicht um die 6800. es geht hier um das optimierungen von ati karten. also lasst doch mal die "janz dollen" features der nvidia da wo sie hin gehoeren. und sprechen wir ueber die wirklich wichtigen themen.

Tigerchen
2004-05-22, 17:31:44
Original geschrieben von r@h
Es geht hier um ATI's Eiertanz, selbst nicht zu optimieren (was glatt gelogen war) und deswegen die Optimierung der Konkurrenz für einen Vergleich abzuschalten zu lassen. Schon mekrwürdig, dass dies hier einige noch immer nicht verstanden haben...

Razor

Klar ist solches Marketing, wie immer, zum kotzen. Da brauchen wir gar nicht drüber zu diskutieren.

Aber ich denke schon daß es eigentlich um Grundsätzlicheres geht. Es werden erstaunliche Dinge von den Gurus gefordert die ein wenig wirklichkeitsfern sind.
Es wird z.B. nicht gefordert daß so gefiltert wird daß ein Bild herauskommt daß in der optischen direkt in Spielen sichtbaren Qualität etwa dem entspricht was die GeForce3 bietet. Sondern es wird gefordert daß der technische Weg auf dem diese Qualität erreicht wird zum alleinigen Masstab gemacht wird. Alle haben diesen Weg der reinen Lehre zu beschreiten um eine "Vergleichbarkeit" zu gewährleisten. Ich sage euch. Der Weg ist nicht das Ziel.
Darum fordere ich InGame Screenshots bzw. Erfahrungsberichte wie das Ganze in Bewegung aussieht. Sollte ATI da wirklich patzen ist Kritik angebracht. Bis dahin ist das hier eine sinnlose Erregung derer die nicht wahrhaben wollen daß die Welt sich weitergedreht hat.

Tigerchen
2004-05-22, 17:43:10
Original geschrieben von Quasar
Wenn ich mir die bei nVNews verlinkten Quali-Vergleiche in CoD anschaue, die drastische Unterschiede in der Qualität (gibt sicherlich auch andere Beispiele, wo Radeon9800-Karten bessere IQ haben) zeigen, von den Reviewern aber mit "basically the IQ is on the same level" abgehandelt werden, ist das kein Wunder.

In der Tat hat die R9600 da eine schlechtere Qualität als der nV40.
Aber erstaunlicher Weise ist Qualität beim R420 wiederrum einen Hauch besser als beim nV40. Der Unterschied ist allerdings vernachlässigbar.

Gast
2004-05-22, 17:45:46
Original geschrieben von AYAlf
was bezeichnest du denn hier mit naeherer zukunft?

und fuer die paar shader (denke mal 1-5) die in den naechsten spielen sm3 angekuendigt wurden, lohnt es sich bestimmt nicht eine graka mit diesem fearure zu kaufen! also fuer spieler voellig uninteressant. die einzigen die davon profitieren duerften, sind die 3dgurus und die spieleentwickler.
aber warum kommen eigentlich die nvfanboys immer wieder auf den einen (einzigen) vorteil der 6800 zu sprechen. es geht hier gar nicht um die 6800. es geht hier um das optimierungen von ati karten. also lasst doch mal die "janz dollen" features der nvidia da wo sie hin gehoeren. und sprechen wir ueber die wirklich wichtigen themen.
Unwichtiges OT-Geplapper gelöscht.

Winter[Raven]
2004-05-22, 18:10:31
Original geschrieben von Tigerchen

In der Tat hat die R9600 da eine schlechtere Qualität als der nV40.
Aber erstaunlicher Weise ist Qualität beim R420 wiederrum einen Hauch besser als beim nV40. Der Unterschied ist allerdings vernachlässigbar.


Ähh?

Also bei den BQ Vergleichen sieht das AF eines NV40 "bisschen" besser aus, so werden die Weitentfernte Texturen besser gefiltert, wodurch auch einiges mehr an Details zusehn gibt.

LovesuckZ
2004-05-22, 18:22:34
Original geschrieben von Tigerchen

Aber erstaunlicher Weise ist Qualität beim R420 wiederrum einen Hauch besser als beim nV40. Der Unterschied ist allerdings vernachlässigbar.


Was auf die veränderte isotrope Filterung zurueck zu führen ist, die laut MS, eine bessere Qualitaet liefere...

Tigerchen
2004-05-22, 18:41:41
Original geschrieben von Winter[Raven]
Ähh?

Also bei den BQ Vergleichen sieht das AF eines NV40 "bisschen" besser aus, so werden die Weitentfernte Texturen besser gefiltert, wodurch auch einiges mehr an Details zusehn gibt.

Ich hatte jetzt nur die trilinearen Screenshots gesehen.

Winter[Raven]
2004-05-22, 18:46:43
Naja ... irgend eine polnische Webseite hat ne Test NV40 vs R420XT gemacht und die BQ verglichen, da lag der NV40 was das AF angeht vorn, bei AA sah es so aus dass der NV40 die Person, Golfschläger besser dagstellt hat auch richtig ausgeleuchtet, der R420 aber ehe den Boden und die Berge.

Gast
2004-05-22, 20:52:37
hey luvsucks,

lt. diverser tests ist die x800 im Shadermark 2.0 immer noch ca. 25% schneller als die 6800. Was auf die optimerten Pixelpipelines zurückzuführen ist.

siehe

http://www.nordichardware.se/Recensioner/?page=13&skrivelse=223

Gast
2004-05-22, 20:54:32
oder auch hier

http://www.hothardware.com/viewarticle.cfm?page=8&articleid=517

also erstmal informieren bevor man sowas postet :)

LovesuckZ
2004-05-22, 21:02:03
Original geschrieben von Gast
also erstmal informieren bevor man sowas postet :)

http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=14

Jaja, immer diese Informationen. Wie du siehst, ist eine GT gegenüber einer Pro mit FP32 vs FP24 nicht langsamer. Eine 6800U kann mit FP16 sogar gegen eine XT mithalten, trotz 30% niedrigen Coretakt. Und bitte nicht vergessen, die Ergebnisse der r420 Karten sind erst mit dem naechsten offiziellen Treiber repraesentativ.

Gast
2004-05-22, 21:06:41
@ Tigerchen

Es geht doch gar nicht darum ob das Bild was der R420 am Ende darstellt gleich oder zumindest vergleichbar mit irgendeiner anderen Karte aussieht (was vielleicht sogar eine gute Entwicklung ist?), sondern lediglich das seitens ATI Anforderungen bei den den Tests an den "Competitor" (Nvidia) gestellt wurden, die sie selbst nicht haben oder einhalten. Sowas nennt sich Vortäuschung falscher Tatsachen und wenn unsereinem das im Leben passiert und es einem nachgewiesen werden kann sitz man vielleicht ein bißchen seiner Zeit hinter schwedischen Gardinen ab.;)

flatbrain
2004-05-22, 21:34:26
Ich hab mein Fazit aus der Diskussion gezogen, ich lass diese Generation aus und hoffe auf die NextGenChips, meine 9800Pro sollte solange reichen, zur Not schraub ich halt einige Einstellungen runter ;) ! Ich geb jedenfalls keine 500€ für eine GraKa aus, die nicht meine Mindestanforderungen erfüllt - dies ist sowohl bei nV als auch ATi momentan der Fall! Zumal man in absehbarer Zeit (ca 1 Jahr +/-X) NextGenChips erhält, die aus den Fehlern dieser Chips hoffentlich das Richtige gelernt haben...

*optimismusan*, also volle Bildqualität bei akzepteblen Strombedarf und effizienter Ein-Slot-Kühlung, gammakorrigierten RGAA und und wirkliche trilineare Filter, obwohl letzteres meinem ungeübten Auge entgehen dürfte *ooptimismusaus* !

cu flatbrain

@ die, die es betrifft:
Trennt euch von diesem albernen Fanboygehabe, sowas hat sich noch kein IHV verdient... :)

/OT: Weiss jemand, warum meine Signatur nicht mehr angezeigt wird?

Mmmmmh
2004-05-22, 21:40:07
Original geschrieben von flatbrain
Ich hab mein Fazit aus der Diskussion gezogen, ich lass diese Generation aus und hoffe auf die NextGenChips, meine 9800Pro sollte solange reichen, zur Not schraub ich halt einige Einstellungen runter ;) ! Ich geb jedenfalls keine 500€ für eine GraKa aus, die nicht meine Mindestanforderungen erfüllt - dies ist sowohl bei nV als auch ATi momentan der Fall! Zumal man in absehbarer Zeit (ca 1 Jahr +/-X) NextGenChips erhält, die aus den Fehlern dieser Chips hoffentlich das Richtige gelernt haben...

*optimismusan*, also volle Bildqualität bei akzepteblen Strombedarf und effizienter Ein-Slot-Kühlung, gammakorrigierten RGAA und und wirkliche trilineare Filter, obwohl letzteres meinem ungeübten Auge entgehen dürfte *ooptimismusaus* !

cu flatbrain

@ die, die es betrifft:
Trennt euch von diesem albernen Fanboygehabe, sowas hat sich noch kein IHV verdient... :)

Trifft den Nagel auf den Kopf!:up:

tb
2004-05-22, 22:08:02
Original geschrieben von Gast
hey luvsucks,

lt. diverser tests ist die x800 im Shadermark 2.0 immer noch ca. 25% schneller als die 6800. Was auf die optimerten Pixelpipelines zurückzuführen ist.

siehe

http://www.nordichardware.se/Recensioner/?page=13&skrivelse=223

Hier die letzten Werte von Anton, mit der ShaderMark v2.1 beta, welche der fertigen Version entspricht, muss halt nur gegen das fertige SDK Update kompiliert werden:

http://www.tommti-systems.de//main-Dateien/MISC/sm2beta.gif

Den letzten Shader bitte nicht beachten, der geht noch nicht richtig auf der 6800.

LovesuckZ
2004-05-22, 22:12:30
Koenntest du eventuell von ihm auch Zahlen vom offiziellen CAT4.5 bekommen?

tb
2004-05-22, 22:18:42
Ich werd Ihn mal fragen.

LovesuckZ
2004-05-22, 22:19:57
Danke.

seahawk
2004-05-22, 22:27:12
Original geschrieben von tb
Hier die letzten Werte von Anton, mit der ShaderMark v2.1 beta, welche der fertigen Version entspricht, muss halt nur gegen das fertige SDK Update kompiliert werden:

http://www.tommti-systems.de//main-Dateien/MISC/sm2beta.gif

Den letzten Shader bitte nicht beachten, der geht noch nicht richtig auf der 6800.

Naja das bekannte Ergebniss , die Shaderleistung der ATI ist überlegen.

LovesuckZ
2004-05-22, 22:29:16
Original geschrieben von seahawk
Naja das bekannte Ergebniss , die Shaderleistung der ATI ist überlegen.

Warte mal dem vergleich mit dem offiziellen Treiber ab. Ich gehe davon aus, dass ATi dann ein bisschen an Nvidia naeher rueckt...
Wobei die Unterschiede klar sein sollten, bei 70MHz Taktunterschied.

robbitop
2004-05-22, 22:45:04
und FP32
Da limitiert die Chipinterne Bandbreite.
Eine optionale FP16 Messung wäre gut.

tRpii
2004-05-22, 23:29:49
Original geschrieben von LovesuckZ
Warte mal dem vergleich mit dem offiziellen Treiber ab. Ich gehe davon aus, dass ATi dann ein bisschen an Nvidia naeher rueckt...
Wobei die Unterschiede klar sein sollten, bei 70MHz Taktunterschied.

Du meinst sicher wenn Nvidia die Treiber rausbringt.. aber davon abgesehen glaube ich nicht dass sich durch einen finalen Treiberrelease, Welten auftun werden.. ein paar Prozentchen sind drin, das wars aber sicher auch schon da NV ihre Karte sicher nicht mit den totalen Dümpeltreibern ins Review-Rennen geschickt hat

LovesuckZ
2004-05-22, 23:36:12
Original geschrieben von tRpii
Du meinst sicher wenn Nvidia die Treiber rausbringt..

Nein, den jetzigen CAT4.5. Dieser ist naemlich, oh Wunder, unter PS2.0 Anwendungen zwiscne 0 - 23% langsamer als der "beta 4.5".

tRpii
2004-05-22, 23:39:22
Achso, stimmt.. naja, mal schauen was daraus noch wird

r@h
2004-05-23, 00:08:53
Original geschrieben von Tigerchen
Klar ist solches Marketing, wie immer, zum kotzen. Da brauchen wir gar nicht drüber zu diskutieren.Zumindest in diesem Punkt sind wir uns einig... gut !
;-)
Original geschrieben von Tigerchen
Aber ich denke schon daß es eigentlich um Grundsätzlicheres geht. Es werden erstaunliche Dinge von den Gurus gefordert die ein wenig wirklichkeitsfern sind.
Es wird z.B. nicht gefordert daß so gefiltert wird daß ein Bild herauskommt daß in der optischen direkt in Spielen sichtbaren Qualität etwa dem entspricht was die GeForce3 bietet. Sondern es wird gefordert daß der technische Weg auf dem diese Qualität erreicht wird zum alleinigen Masstab gemacht wird. Alle haben diesen Weg der reinen Lehre zu beschreiten um eine "Vergleichbarkeit" zu gewährleisten. Ich sage euch. Der Weg ist nicht das Ziel.
Darum fordere ich InGame Screenshots bzw. Erfahrungsberichte wie das Ganze in Bewegung aussieht. Sollte ATI da wirklich patzen ist Kritik angebracht. Bis dahin ist das hier eine sinnlose Erregung derer die nicht wahrhaben wollen daß die Welt sich weitergedreht hat.Noch einmal zum mitschreiben:

- Winkelabhängigkeit
- Stageoptimierung
- <unknown> with patrent pending (oder auch nicht ;-)

Das reicht doch wohl langsam, oder ?

Die BQ wurde sowieso schon übelst malträtiert und nun kommt halt noch etwas dazu... und glaube mir... es ist mir völlig wurscht, ob sie mit dieser zusätzlichen 'Optimierung' die gleiche BQ erreichen, wie ohne diese, weil die BQ vorher einfach schon schlecht war.

Ich will einen Schalter im Treiber, der diesen Mist deaktiviert... ganz egal, was die IHV's davon halten. Und ich will zukünftig Hardware, die in der Lage ist, auch dann 8°/16° anisotrop zu filtern, wenn es nach den IHV's nicht sooooo schlimm wäre, dies nicht zu tun.

Ich hoffe, dass ich mich nun klar ausgedrückt habe...

Razor

Fusion_Power
2004-05-23, 00:26:32
Ich muß zugeben, ich kann dem ganzen Rummel um dieses AF nix abgewinnen. ok, es mag daran liegen, das ich AF IMMER DEAKTIVIERT habe was wiederum an der Tatsache liegt, das meine Rechner nie schnell genug für so nen Firlefanz waren.
Und wenn ich nen schnellen Shooter zocke UT2003 oder so, dann kann ich euch versichern fällt nicht auf, ob die Texturen AF gefiltert sind oder nicht. Mann, ich könnte Bilinear zocken, in der Hitze des Gefächts währ das auch nicht zu sehen. Aber ok. man steht ja mal ab und zu für ne Sekunde, da darfs zumindest Trilinear sein :D

Natürlich sollten heutige Karten voll die power für alle Effekte haben. Ich versteh eh nicht, warum 2004 grakas ZU LANGSAM für so nen uralten Technik-Pipelkram wie AF sein sollen. ich meine, die jonglieren mit millionen Shadern und Vertecs aber ein bissel gefiltere solln die nicht hinbekommen??? Ja is es denn so schwer, nen vernünftiges AF und AA - Rechenwerk auf den Chip unterzubringen? ODer wird absichtlich am falschen Ende gespart???

Winter[Raven]
2004-05-23, 01:01:27
Original geschrieben von seahawk
http://www.tommti-systems.de//main-Dateien/MISC/sm2beta.gif

Naja das bekannte Ergebniss , die Shaderleistung der ATI ist überlegen.

Was die Benches angeht sollte man "abwarten" insbesondere beim NV40, den bei ihm ist noch nicht das letze Wort gefallen ... ;D

Nein, den jetzigen CAT4.5. Dieser ist naemlich, oh Wunder, unter PS2.0 Anwendungen zwiscne 0 - 23% langsamer als der "beta 4.5".

LÖL?

Nicht dein ernst, oder?

Erst die Taktung in letzer Minute und jetzt noch die Treiber?

Ati ist ganz tief gesunken *eg*

robbitop
2004-05-23, 01:40:54
hm bringt der ATi Shadercompiler 0-25% mehrleistung oder wurde "optimiert"
sorry, ich hab das nicht wirklich mitbekommen...

Tigerchen
2004-05-23, 05:59:32
Original geschrieben von Gast
@ Tigerchen

Es geht doch gar nicht darum ob das Bild was der R420 am Ende darstellt gleich oder zumindest vergleichbar mit irgendeiner anderen Karte aussieht (was vielleicht sogar eine gute Entwicklung ist?), sondern lediglich das seitens ATI Anforderungen bei den den Tests an den "Competitor" (Nvidia) gestellt wurden, die sie selbst nicht haben oder einhalten. Sowas nennt sich Vortäuschung falscher Tatsachen und wenn unsereinem das im Leben passiert und es einem nachgewiesen werden kann sitz man vielleicht ein bißchen seiner Zeit hinter schwedischen Gardinen ab.;)

Ich habe eben nicht den Eindruck daß es nur darum geht. Denn darüber braucht man gar nicht zu streiten. Solches Gebaren ist einfach nur grausig.

Tigerchen
2004-05-23, 06:05:47
Original geschrieben von robbitop
und FP32
Da limitiert die Chipinterne Bandbreite.
Eine optionale FP16 Messung wäre gut.

Hmm. Einerseits wird volles trilineares Filtern gefordert weil Benchmarkbalken ja egal sind und dann wird FP16 gefordert weil der Benchmarkbalken für eine Seite zu kurz ist.

Sphinx
2004-05-23, 07:10:17
Original geschrieben von Tigerchen

Hmm. Einerseits wird volles trilineares Filtern gefordert weil Benchmarkbalken ja egal sind und dann wird FP16 gefordert weil der Benchmarkbalken für eine Seite zu kurz ist.



Wo ist dein Ironie Smiley ,)

Tigerchen
2004-05-23, 09:09:01
Original geschrieben von Sphinx
Wo ist dein Ironie Smiley ,)
:biggrin:

Da isser!

LovesuckZ
2004-05-23, 09:09:34
Original geschrieben von Tigerchen

Hmm. Einerseits wird volles trilineares Filtern gefordert weil Benchmarkbalken ja egal sind und dann wird FP16 gefordert weil der Benchmarkbalken für eine Seite zu kurz ist.


Kann der Shadermark nicht reduzierte Genauigkeit fordern? Wenn ja, warum dann nicht mitvergleichen?

Tigerchen
2004-05-23, 10:20:09
Original geschrieben von LovesuckZ
Kann der Shadermark nicht reduzierte Genauigkeit fordern? Wenn ja, warum dann nicht mitvergleichen?

Weil nur BQ relevant ist nach der reinen Lehre?
Oder du stellst die FP16 Werte daneben und erwähnst auch deutlich daß die Qualität mitunter schlechter sein kann.
Da schlechtere Qualität aber für dich auf gar keinen Fall akzeptabel ist sind die Werte doch bedeutungslos oder? Du hast FP32! Die Konkurrenz nur FP24! Und damit ist nV überlegen. Denn Überlegenheit definiert sich nur über die Qualität. Oder habe ich da was falsch verstanden?

LovesuckZ
2004-05-23, 10:27:18
Original geschrieben von Tigerchen
Weil nur BQ relevant ist nach der reinen Lehre?

Aha, also heißt das auch, dass FP24 keine BQ der reinen Lehre biete?
Dir ist bewusst, dass der Entwickler bewusst _pp anfordern kann, wenn es ausreicht? Hier liegt der Unterschied, da Nvidia nicht gegen den Willen einfach an einigen Anweisungen ein _pp anhaengt.

Oder du stellst die FP16 Werte daneben und erwähnst auch deutlich daß die Qualität mitunter schlechter sein kann.

Solange wie man es auf den Vergleichsbilder nicht sehe, waere es erlaubt, wozu also auf eine schlechtere, nicht sehbare BQ hinweisen? Kennst du diese Behauptung?

Da schlechtere Qualität aber für dich auf gar keinen Fall akzeptabel ist sind die Werte doch bedeutungslos oder? Du hast FP32! Die Konkurrenz nur FP24! Und damit ist nV überlegen. Denn Überlegenheit definiert sich nur über die Qualität. Oder habe ich da was falsch verstanden?


Sinn versteh ich nicht?!
Wie kann _pp schlechter aussehen, wenn es als Genauigkeit vollkommen ausreiche und vom Entwickler deswegen angefordert werde?

Exxtreme
2004-05-23, 10:30:58
Original geschrieben von robbitop
und FP32
Da limitiert die Chipinterne Bandbreite.
Eine optionale FP16 Messung wäre gut.
Bitte nicht die Shadergenauigkeit mit der Farbtiefe verwechseln. :) Die Verwendung von FP32 sollte keine Geschwindigkeitsverluste zur Folge haben wenn der Chip komplett auf FP32 ausgelegt ist. FP32 frisst aber mehr Transistoren weg. Bandbreite limitiert da AFAIK nicht.

LovesuckZ
2004-05-23, 10:32:16
Original geschrieben von Exxtreme
FP32 frisst aber mehr Transistoren weg. Bandbreite limitiert da AFAIK nicht.

Doch tut sie, neben dem Registerproblem :)

Tigerchen
2004-05-23, 10:34:18
Original geschrieben von LovesuckZ
Aha, also heißt das auch, dass FP24 keine BQ der reinen Lehre biete?

Aber sicher doch. Ich fordere ja keine reine Lehre das tun einige andere

Solange wie man es auf den Vergleichsbilder nicht sehe, waere es erlaubt, wozu also auf eine schlechtere, nicht sehbare BQ hinweisen? Kennst du diese Behauptung?

Das ist korrekt. Es gibt aber nun mal FarCry-Bilder die deutlich zeigen daß FP16 schlechter sein kann. Wo man es nicht sieht kann man es natürlich anwenden. Kein Problem. Ich will das gar nicht verleugnen.:)

Sinn ersteh ich nicht?!

Hmm. Liegts an mir? (kann ja sein) Hats jemand anderer verstanden?

Exxtreme
2004-05-23, 10:36:17
Original geschrieben von LovesuckZ
Doch tut sie, neben dem Registerproblem :)
Nochmal. Shadergenauigkeit hat nichts mit der Farbtiefe zu tun. :) Wenn der Chip mit FP32 langsamer ist dann limitiert eher die Rechenleistung und nicht die Bandbreite. Und wenn der NV40 immer noch ein Temp-Register-Problem hat, dann ist das IMHO schlecht und eher ein Designfehler.

LovesuckZ
2004-05-23, 10:38:21
Original geschrieben von Tigerchen
Das ist korrekt. Es gibt aber nun mal FarCry-Bilder die deutlich zeigen daß FP16 schlechter sein kann. Wo man es nicht sieht kann man es natürlich anwenden. Kein Problem. Ich will das gar nicht verleugnen.:)

Und genau das kann auch "brilinear" passieren. Nur der Unterschied ist, dass man hier eben beim nächsten Patch volle Genauigkeit anfordern oder sie durch ein externes Tool erzwingen kann.

LovesuckZ
2004-05-23, 10:40:41
Original geschrieben von Exxtreme
Nochmal. Shadergenauigkeit hat nichts mit der Farbtiefe zu tun. :)

Und wenn es doch so ist? Denn der Vorteil, den der NV40 durch FP16 ziehen kann, ist deutlich groeßer als beim NV38.
Es gab auch Leute, die meinen, dass der NV40 bandbreitenlimitert wäre. Bewiesen wurde es noch nicht richtig (wobei, dass ich irgendwo gelesen habe, dass Nvidia angibt mit der zur Zeit verfügbaren Speicherbandbreite nut ca. 12 Pixel/takt zu erreichen).

Demirug
2004-05-23, 10:46:18
Original geschrieben von Exxtreme
Bitte nicht die Shadergenauigkeit mit der Farbtiefe verwechseln. :) Die Verwendung von FP32 sollte keine Geschwindigkeitsverluste zur Folge haben wenn der Chip komplett auf FP32 ausgelegt ist. FP32 frisst aber mehr Transistoren weg. Bandbreite limitiert da AFAIK nicht.

Einiges von der Verwirrung dürfte unter Umständen daher kommen das nVidia in den Gesamtkomplex der Rechengenauigkeit auch die Texturen einbezogen hat. Dort gilt dann natürlich das eine FP16 Textur schneller als eine FP32 Textur sein kann wenn die bandbreite kanpp ist.

Zu anderen kommt noch hinzu das der NV40 natürlich auf FP32 ausgelegt ist aber nach wie vor ein paar abkürzungen kennt wenn FP16 ausreicht. Die FP16 Normalisierung ist dabei das was am meisten herraussticht.

In wie fern es beim NV40 noch ein internes bandbreiten Problem (FPU <-> Registerfile) gibt ist derzeit noch weitgehend unerforscht. Aber es wird sich schwer sagen lassen wenn man dort etwas entdeckt ob es wirklich ein bandbreiten oder doch ein Speichermengenproblem ist.

Exxtreme
2004-05-23, 10:48:12
Original geschrieben von LovesuckZ
Und wenn es doch so ist? Denn der Vorteil, den der NV40 durch FP16 ziehen kann, ist deutlich groeßer als beim NV38.
Es gab auch Leute, die meinen, dass der NV40 bandbreitenlimitert wäre. Bewiesen wurde es noch nicht richtig (wobei, dass ich irgendwo gelesen habe, dass Nvidia angibt mit der zur Zeit verfügbaren Speicherbandbreite nut ca. 12 Pixel/takt zu erreichen).
Die Angaben von Nvidia beziehen sich auf die Pixelpipelines und nicht auf den Shaderdurchsatz. ;) Du verwechselst Farbtiefe mit Shadergenauigkeit. Und ja, ich gebe zu, daß die Verwendung von FP16 auch Vorteile haben kann. Das hängt aber eher mit zu knappen Registern zusammen. Es hängt aber nicht an der Bandbreite.

LovesuckZ
2004-05-23, 10:50:14
Original geschrieben von Exxtreme
Die Angaben von Nvidia beziehen sich auf die Pixelpipelines und nicht auf den Shaderdurchsatz. ;)

Ich dachte, ich haett's durch den Absatz klar abgetrennt...

Du verwechselst Farbtiefe mit Shadergenauigkeit.

nein :)

Und ja, ich gebe zu, daß die Verwendung von FP16 auch Vorteile haben kann. Das hängt aber eher mit zu knappen Registern zusammen. Es hängt aber nicht an der Bandbreite.

Warum sollte die Erhöhung des Registerspeichers eine staerkere Limitierung bewirken als das kleinere des NV38?!

Demirug
2004-05-23, 10:53:46
Original geschrieben von LovesuckZ
Es gab auch Leute, die meinen, dass der NV40 bandbreitenlimitert wäre. Bewiesen wurde es noch nicht richtig (wobei, dass ich irgendwo gelesen habe, dass Nvidia angibt mit der zur Zeit verfügbaren Speicherbandbreite nut ca. 12 Pixel/takt zu erreichen).

Die 12 Pixel/Takt beziehen sich auf bilineare Single-Textureing mit 32 BIT RGBA Texturen. Und der Wert stimmt auch relative genau mit echten Messungen überein.

Je komplexer der Filter wird oder desto mehr Texturlagen gebraucht werden desto kleiner wird das Bandbreiten Problem.

Steel
2004-05-23, 11:59:11
WTF?
Ich frage mich echt, was dieser Hypethread soll.

ATIs Algorythmus analysiert die Texturen um festzustellen, wieviel Filterung notwendig ist, um die selbe Qualität wie beim nativen Trilinear zu erreichen.

Das ist ein grosser Unterschied dazu, was NV macht - nämlich pauschal die Qualität zu verringern - und deshalb ist es notwendig die "Trilineare Optimierung" bei NV-Karten abzuschalten, weil DANN erst Äpfel mit Äpfeln verglichen werden in Bezug auf die Qualität.
Das natürlich nur, wenn der Algo wirklich fehlerfrei funktioniert.

Ob er nun vollkommen fehlerfrei funktioniert oder nicht kann man auch nur testen, wenn man die Optimierung im Treiber an- und ausschalten kann.
Das heisst es ist ein wenig früh für dieses Theater...

BTW: Wo sind denn nun die Bilder, die das schändliche Verhalten dieses Cheats demonstrieren?

Exxtreme
2004-05-23, 12:03:58
Original geschrieben von Steel
ATIs Algorythmus analysiert die Texturen um festzustellen, wieviel Filterung notwendig ist, um die selbe Qualität wie beim nativen Trilinear zu erreichen.

Ich möchte nicht schon wieder teasen. :D :D ;)

Grestorn
2004-05-23, 12:08:03
Original geschrieben von Steel
ATIs Algorythmus analysiert die Texturen um festzustellen, wieviel Filterung notwendig ist, um die selbe Qualität wie beim nativen Trilinear zu erreichen.


Und Du vertraust blind ATI's Marketing? Dieser mysteriöse Algorithmus erscheint mir doch sehr fragwürdig.

Beweisen kann es derzeit keiner, aber ich bin gerne bereit darauf zu wetten, dass dieser Algorthmus lediglich erkennt ob sich die Mip-Texturstufen über einen gewissen Wert hinaus unterscheiden. Da sich die Texturstufen eigentlich nur im Detailgrad unterscheiden sollten, ist der für mich einzig sinnvolle Zweck dieses "Algorithmus" festzustellen, ob die Mipmap-Level eingefärbt sind oder nicht.

Und damit bleibt nur ein einziger Grund für den Algorithmus: Die Tester aufs Glatteis zu führen.

Eusti
2004-05-23, 12:20:54
Original geschrieben von grestorn
Und Du vertraust blind ATI's Marketing? Dieser mysteriöse Algorithmus erscheint mir doch sehr fragwürdig.Solange ich keine Bilder sehe, die das Gegenteil beweisen, glaube ich ATI. Seit 1 Jahr läuft der Algorithmus auf den 9600er Karten. Die dürften mittlerweise auch so gut verbreitet sein, so das mal irgend jemand Vergleichsbilder anfertigen könnte, die beweisen, wie Scheisse der Modus von ATI aussieht. Aber offensichtlich kann ja nichtmal Nvidia eien Unterschied erkennen (sonst hätten SIe es der Welt sicherlich schon mitgeteilt).

Grestorn
2004-05-23, 12:27:08
Original geschrieben von Eusti
Solange ich keine Bilder sehe, die das Gegenteil beweisen, glaube ich ATI. Seit 1 Jahr läuft der Algorithmus auf den 9600er Karten. Die dürften mittlerweise auch so gut verbreitet sein, so das mal irgend jemand Vergleichsbilder anfertigen könnte, die beweisen, wie Scheisse der Modus von ATI aussieht. Aber offensichtlich kann ja nichtmal Nvidia eien Unterschied erkennen (sonst hätten SIe es der Welt sicherlich schon mitgeteilt).

Dir ist schon klar, dass man auf normalen, unmanipulierten *Bildern* gar nichts sehen kann, genauso wenig wie bei nVidias Trilinear-Optimierungen? Man braucht dazu entweder Bewegung und ein gutes Auge oder manipulierte Bilder (z.B. eingefärbte MipMap-Level) und letztere werden "zufällig" von ATI vollkommen korrekt gefiltert.

Und es ist auch gar nicht entscheidend, ob man was sieht. Es läßt sich trefflich diskutieren, ob trilineare Optimierungen gut oder schlecht sind (ich bin durchaus der Meinung, dass sie mehr bringen als sie Qualität kosten).

Das verwerfliche - wie schon soooo oft in diesem Thread geschrieben - ist die Konkurenz wegen derer trilinearer Optimierung an den Pranger zu stellen, selbst aber genau das selbe zu tun... und dabei das eine Mittel auszuhebeln, mit der man die Optimierung erkennen könnte, so dass es so aussieht als würde man immer korrekt filtern.

Steel
2004-05-23, 13:39:57
Original geschrieben von grestorn
Und es ist auch gar nicht entscheidend, ob man was sieht.

Applaus, für den Witz des Tages!


Das verwerfliche - wie schon soooo oft in diesem Thread geschrieben - ist die Konkurenz wegen derer trilinearer Optimierung an den Pranger zu stellen, selbst aber genau das selbe zu tun... und dabei das eine Mittel auszuhebeln, mit der man die Optimierung erkennen könnte, so dass es so aussieht als würde man immer korrekt filtern.

Sorry, wenn das einzige Mittel, die Optimierungen zu erkennen eingefärbte Texturen sind, dann ist mir das sowas von piepegal! Ich kann mich noch an Zeiten erinnern, wo man diese Tools nicht verwendet hat, dafür aber aussagekräftige Screenshots aus echten Spielen...

Das Einzige was zählt, ist die Performance und Qualität in den Spielen - die Einfärberei mag für Anschauungszwecke gut sein, aber für mehr nicht.
Es macht einfach keinen Sinn deratig zu vergleichen, wenn die Graka Hersteller nunmal logischerweise lieber auf den Praxisfall optimieren.

Ich bin aber auch dafür, dass man solcherlei Optimierungen grundsätzlich auch auschalten können muss.
Das Problem dabei ist nur, dass das für alle gleichermassen gelten muss, und dass sich sowas daher kaum realisieren lässt.

Eine brauchbare Lösung wäre eine neue Treiber Zertifizierungsregel seitens MS, was sowas angeht: sowohl für "Applikationsspezifische Optimierungen" als auch für "generelle Optimierungen" wie in diesem Fall.

Un davon würde ich gerne ein paar Screenies sehen, um mir selbst ein Bild davon machen zu können um überhaupt beurteilen zu können, wie stark sich sowas auf die Qualität auzswirkt.

Dann muss jeder selbst entscheiden können, ob er das akzeptiert oder nicht.

r@h
2004-05-23, 15:26:05
Original geschrieben von Steel
BTW: Wo sind denn nun die Bilder, die das schändliche Verhalten dieses Cheats demonstrieren? Du hast Dir wohl nur diesen Thread hier angeschaut (und das vermutlich nicht mal vollständig - was ich verstehen würde ;-). Schau doch noch mal im ATI-Forum vorbei... der Thread dort geht wesentlich mehr in die Tiefe:

http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=143145&perpage=20&pagenumber=1
(sind auch schon 34 Seiten ;-)

Razor

r@h
2004-05-23, 15:38:55
@steel

grestorn hat es exakt auf den Punkt gebracht.

Du warst offenbar nicht mal in der Lage, seinen Post richtig zu lesen... geschweige denn, ihn zu verstehen. Versuche dich doch einfach nochmal daran und schau Dir Deinen Post dann noch einmal an...

Nur ein gut gemeinter Rat.

Razor

Steel
2004-05-23, 16:13:10
@ r@H

schick mir deine gutgemeinten Ratschläge besser per PM.
Dann brauch ich sie wenigstens nicht zu lesen.

r@h
2004-05-23, 16:20:34
Original geschrieben von Steel
@ r@H

schick mir deine gutgemeinten Ratschläge besser per PM.
Dann brauch ich sie wenigstens nicht zu lesen. So, wie die Posts hier im Forum ?
Verstehe...
:D

Razor

P.S.: ich poste hier derzeit als Gast... ;)

Korak
2004-05-23, 16:24:02
Das reicht jetzt!

aths
2004-05-23, 18:43:45
Original geschrieben von Steel
WTF?
Ich frage mich echt, was dieser Hypethread soll.

ATIs Algorythmus analysiert die Texturen um festzustellen, wieviel Filterung notwendig ist, um die selbe Qualität wie beim nativen Trilinear zu erreichen.In einem Thread postete ich einen Screenshot der beweist, dass die Qualität sinkt.

xL|Sonic
2004-05-23, 19:15:26
Was aber auch nur ein Screenshot ist, wichtig ist, wie es in Bewegung aussieht und ob es da auffällt oder nicht, schließlich spielen wir keine Spiele, nur um damit Screenshots vergleichen zu können und uns Standbilder von den Spielen anzugucken.

LovesuckZ
2004-05-23, 19:29:25
Original geschrieben von Valmar
Was aber auch nur ein Screenshot ist, wichtig ist, wie es in Bewegung aussieht und ob es da auffällt oder nicht, schließlich spielen wir keine Spiele, nur um damit Screenshots vergleichen zu können und uns Standbilder von den Spielen anzugucken.

Wenn es in einem Screenshot sichtbar ist, dann wird man es auch im Spiel sehen.

flatbrain
2004-05-23, 19:54:54
Original geschrieben von LovesuckZ
Wenn es in einem Screenshot sichtbar ist, dann wird man es auch im Spiel sehen.

Blödsinn... einige Optimierungen waren erst im bitgenauen Vergleich sichtbar, die meissten nur beim Übereinanderlegen der Screenies - wer diese Unterschiede in den Screenshots in Games sehen will, muss schon extrem gute Augen und dazu noch eine unnormale Physilogie des Sehapparates haben - ich rede nicht von Bugwellen etc.!

cu flatbrain

aths
2004-05-23, 19:59:10
Original geschrieben von Valmar
Was aber auch nur ein Screenshot ist, wichtig ist, wie es in Bewegung aussieht und ob es da auffällt oder nicht, schließlich spielen wir keine Spiele, nur um damit Screenshots vergleichen zu können und uns Standbilder von den Spielen anzugucken. In Bewegung wird der Effekt noch deutlich schlimmer.

Aquaschaf
2004-05-23, 20:28:45
Original geschrieben von Exxtreme
Ich möchte nicht schon wieder teasen. :D :D ;)

Jetzt tease schon ;)

LovesuckZ
2004-05-23, 21:50:42
Original geschrieben von Aquaschaf
Jetzt tease schon ;)

Das macht er fast schon die ganze Woche im rage3d.com Board.

Exxtreme
2004-05-23, 21:54:59
Original geschrieben von Aquaschaf
Jetzt tease schon ;)
:D

Habe Geduld mein Sohn. Die Prophezeihung besagt, daß ihr bald erleuchtet und die ultimative Wahrheit erfahren werdet.

Wenn ich mehr sage... dann bin ich tot... wiederbelebt und nochmal tot. *heul*

LovesuckZ
2004-05-23, 21:57:05
Wenn man genau überlegt, dann hast du mit deinem teaser eigentlich schon alles (=Vorfreude) kaputt gemacht... :D

robbitop
2004-05-23, 23:49:06
gehts um den Shadercompiler bei ATi?

Winter[Raven]
2004-05-23, 23:52:20
Original geschrieben von robbitop
gehts um den Shadercompiler bei ATi?

Shadercompiler?

Wohl ehe nicht *eg*

robbitop
2004-05-24, 00:37:38
doch darüber gabs Gerüchte
ebenfalls für S3 solls einen geben

Exxtreme
2004-05-24, 00:43:43
Original geschrieben von robbitop

doch darüber gabs Gerüchte
ebenfalls für S3 solls einen geben
Der Beta-Catalyst, der bei den Reviews verwendet wurde, hat einen neuen Shader-Compiler. :) Damit dürfte die R3x0-Serie die GFFX-Serie im Schnitt wieder um Faktor 2 überrunden.

robbitop
2004-05-24, 00:56:01
naja der Compiler bringt beim R3xx und R4xx sicher nicht so viel wie auf den FXen, da die R3xx vom Design her schon sehr gut ausgelastet ist, die NV3x mitnichten.

Exxtreme
2004-05-24, 00:58:24
Original geschrieben von robbitop
naja der Compiler bringt beim R3xx und R4xx sicher nicht so viel wie auf den FXen, da die R3xx vom Design her schon sehr gut ausgelastet ist, die NV3x mitnichten.
Der neue Shadercompiler soll um die 20% mehr Power bringen. :)

Radeonator
2004-05-24, 01:03:57
Original geschrieben von Exxtreme
Der neue Shadercompiler soll um die 20% mehr Power bringen. :)

Ja, PR roxoors, gelle ;)

Ist das eigentlich legitim? Ein ATi optimierter Compiler würde doch das tun, was den FXen in z.B. 3dMurks als Cheat dargereicht wurde, oder ?

deekey777
2004-05-24, 01:09:19
Original geschrieben von Radeonator
Ja, PR roxoors, gelle ;)

Ist das eigentlich legitim? Ein ATi optimierter Compiler würde doch das tun, was den FXen in z.B. 3dMurks als Cheat dargereicht wurde, oder ?

Nix mit oder!
Seit wann ist schon ein Shadercompiler in einem ATi-Treiber drin - seit 3.7 oder so? Und der Shadercompiler der 52.er Treiber war auch "legitim" - deswegen ist der 52.16 noch bis heute ein "FM approved Driver".

Exxtreme
2004-05-24, 01:16:13
Original geschrieben von Radeonator
Ja, PR roxoors, gelle ;)

Ist das eigentlich legitim? Ein ATi optimierter Compiler würde doch das tun, was den FXen in z.B. 3dMurks als Cheat dargereicht wurde, oder ?
Nein. FM hatte nur was dagegen, daß den damalige Detonator den 3DMark erkannte und einen Shadertausch vorgenommen hat. Ein Shadercompiler an sich optimiert jeden Shader, den er in die Finger kriegt.

AlfredENeumann
2004-05-24, 07:58:06
Original geschrieben von Radeonator
Ja, PR roxoors, gelle ;)

Ist das eigentlich legitim? Ein ATi optimierter Compiler würde doch das tun, was den FXen in z.B. 3dMurks als Cheat dargereicht wurde, oder ?

Es gibt schon einen Unterschied in "Shader Umstellen", bzw "automatisch ändern in allen Situationen" und in einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

Gast
2004-05-24, 09:44:01
Original geschrieben von AlfredENeumann
Es gibt schon einen Unterschie din "Shader Umstellen", bzw "automatisch ändern in allen Situationen" und in einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

Seh ich nur bedingt so.
Wenn Nvidia beispielsweise 100erte von Leuten beschäftigt, die in wichtigen Games alle Shader durch handisch selbst programmierte ersetzen, dann ist das für mich auch eine Optimierung und kein Cheat. Es kommt mir als Kunde ja zu Gute. Wie Nvidia das macht ob nun automatisch oder per Hand ist mir dabei eigentlich voll egal. Das ist auch nichts anderes als handisch Bugs in Spielen durch neues Treibercoding zu umgehen.

Ist für micht völlig legitim die Vorgehensweise. Mein Spiel verbessert sich dadurch ja und wenn der Hersteller Zeit und Geld darin investieren will - so what.
Ist doch super und ist ja sein Geld.

flatbrain
2004-05-24, 09:50:02
Wenn Nvidia beispielsweise 100erte von Leuten beschäftigt, die in wichtigen Games alle Shader durch handisch selbst programmierte ersetzen, dann ist das für mich auch eine Optimierung und kein Cheat
Wenn es so wäre, dann ists ja auch ok, nur hat dummerweise nV vergessen, den Code auf wichtigen Games anzupassen, dafür aber im Futuremark *g* !

cu flatbrain

robbitop
2004-05-24, 10:18:30
@Exxtreme
das ist mir bekannt.
Beim NV3x brachte der aber weit mehr als 20%. Somit ist meine Aussage nicht falsch ;)

Sumpfmolch
2004-05-24, 11:19:18
Original geschrieben von Gast
Seh ich nur bedingt so.
Wenn Nvidia beispielsweise 100erte von Leuten beschäftigt, die in wichtigen Games alle Shader durch handisch selbst programmierte ersetzen, dann ist das für mich auch eine Optimierung und kein Cheat. Es kommt mir als Kunde ja zu Gute. Wie Nvidia das macht ob nun automatisch oder per Hand ist mir dabei eigentlich voll egal. Das ist auch nichts anderes als handisch Bugs in Spielen durch neues Treibercoding zu umgehen.

Ist für micht völlig legitim die Vorgehensweise. Mein Spiel verbessert sich dadurch ja und wenn der Hersteller Zeit und Geld darin investieren will - so what.
Ist doch super und ist ja sein Geld.

ja, seit 3dmark03 schneller läuft zock ichs auch viel lieber wieder ;D

nochmal zum mitschreiben:

1.
austausch von shadern -> nur bei bestimmten programm, meist sogar ein langweiliger benchmark -> nutzen für den user: virtuelle schwanzverlängerung durch erhöhte benchmarkzahlen

2.
shadercompiler -> optimierung aller shader in JEDEM game -> mehr performance in jedem game+benchmark -> nutzen für den user: flüssigeres zocken

ow
2004-05-24, 11:37:03
.

Radeonator
2004-05-24, 11:38:39
Problem bei den FXen : Die Shader funtzen anders als die bei der R300. Man müsste die Instructionen so umproggen, das die Pipelines nicht idlen. Glaub kaum das das so einfach möglich ist und emulation => schlechtere Performance

robbitop
2004-05-24, 11:46:53
genau das versucht der Shadercompiler.
Maximale Auslastung der Pipeline soll erreicht werden. Dafür sortiert er die Shader um und macht sie für die FP32 MAD Einheiten einigermaßen passend. Aber richtig ausgelastet, bekommt man die FX Pipeline kaum. Das ist beim R300 anders.

Sumpfmolch
2004-05-24, 11:51:04
Original geschrieben von ow
Hat du das Posting von dem Gast nur nicht gelesen oder nicht verstanden?

weder noch, jedoch flitzt einem bei gasts posting die ganze zeit das sprichwort "wenn das wörtchen wenn nicht wär..." im kopf herum...


"Wenn Nvidia beispielsweise 100erte von Leuten beschäftigt, die in wichtigen Games alle Shader durch handisch selbst programmierte ersetzen, dann ist das für mich auch eine Optimierung und kein Cheat."
richtige aber illusorische THESE...

"Es kommt mir als Kunde ja zu Gute.
ah man kann steigenden fps-balken in dne köpfen des lesers förmlich riechen

"Wie Nvidia das macht ob nun automatisch oder per Hand ist mir dabei eigentlich voll egal. Das ist auch nichts anderes als handisch Bugs in Spielen durch neues Treibercoding zu umgehen"
oha...geschickt versteckter standpunkt: cheats ? gibbet doch garnicht ! (wo bleibt der aufschrei des schon eingelullten publikums ?)

"Ist für micht völlig legitim die Vorgehensweise. Mein Spiel verbessert sich dadurch ja und wenn der Hersteller Zeit und Geld darin investieren will - so what.
Ist doch super und ist ja sein Geld."
tada ! so schnell wird aus obiger illusorischer these ein fakt...hurraa ! ...ich geh dann mal 3dmark03 weiter zocken ;D

P.S.: wenn man mit dem falschen bein aufgestanden ist sollte man vielleicht als gast posten...und nicht als überllauniger moderator ;)

ow
2004-05-24, 12:05:53
.

Sumpfmolch
2004-05-24, 12:12:15
Original geschrieben von ow
@SUmpfmolch

Irgendwie fehlen da jegliche Argumente in deinen Postings.

Der Gast hat naemlich absolut recht in allem was er sagt.

der gast antwortet gezielt auf diese aussage:
"Es gibt schon einen Unterschied zwischen "Shader Umstellen", bzw "automatisch ändern in allen Situationen" und in einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

antwort des gastes:
"Seh ich nur bedingt so."


danach kommt illusorisches geplapper welches gezielt so gehalten ist, dass er es spätestens im letzten absatz als wahrheit verkaufen kann...
("wo ist das problem mit shader austausch...alle meine spiele profitieren doch davon !" )



du stimmst also auch zu, dass es keinerlei unterschied gibt zwischen einen immer arbeiteten shader compiler und dem reinen austausch von shadern bei beliebten benchmarks ?

ow
2004-05-24, 12:19:29
.

flatbrain
2004-05-24, 12:27:43
Also in meinen Augen ist es schon ein Unterschied, ob ein Shader Compiler generell aktiv ist und versucht, den Shader Code für die eigene Hardware so effizient wie möglich zu gestalten, oder ob der Shader Code "manuell" für Benchmarks bei Erkennung des selben ausgetauscht wird! Der Austausch gezielt bei Benchmarks hat für mich keinen realen Nutzen, während dessen man von der möglichen Performancesteigerung aus genereller Shader Optimierung direkt profitiert!
Wenn nV neben dem Code für Benchmarks auch den Shader Code für einzelne Games optimieren würde, wäre dieser Weg ja auch ok, aber meiner Meinung nach machen sie es nicht oder nur in sehr begrenztem Umfang - und was passiert, wenn Shader Code der Games an sich durch Patches der Gamedeveloper verbessert wird, sind dann die Shader Codes, die durch nV ausgetauscht werden, immer noch kompatibel und effizienter als die Codes der Developer - und werden dann immer noch Shader Befehle mit dem sichtbaren Ergebnis dargestellt, wie es sich die Games Developer wünschen?!

cu flatbrain

flatbrain
2004-05-24, 12:33:42
@ow

Original geschrieben von AlfredENeumann
Es gibt schon einen Unterschie din "Shader Umstellen", bzw "automatisch ändern in allen Situationen" und in einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

Original geschrieben von Gast
Seh ich nur bedingt so.
Wenn Nvidia beispielsweise 100erte von Leuten beschäftigt, die in wichtigen Games alle Shader durch handisch selbst programmierte ersetzen, dann ist das für mich auch eine Optimierung und kein Cheat. Es kommt mir als Kunde ja zu Gute. Wie Nvidia das macht ob nun automatisch oder per Hand ist mir dabei eigentlich voll egal. Das ist auch nichts anderes als handisch Bugs in Spielen durch neues Treibercoding zu umgehen.

Ist für micht völlig legitim die Vorgehensweise. Mein Spiel verbessert sich dadurch ja und wenn der Hersteller Zeit und Geld darin investieren will - so what.
Ist doch super und ist ja sein Geld.

Darauf bezogen sich die Antworten ;) , da geht es sehr wohl um "Austausch von Code für Benchmarks v. allgemeine Optimierung der Shader durch generell aktive Compiler!" !

cu flatbrain

Edit: Arrgh, anderer BB-Code

Gast
2004-05-24, 12:54:25
wie goil,

aus einer rein duemmlichen (theoretischen) aussage eines gastes. in bezug auf .. wenn dann... konnte doch... blabla die fx karte der tollste meilenstein der weltgschichte werden. und alle ati karten im staub zertreten. und was nvidia macht ist kein cheaten sondern .... ich lach mich schlapp.

diese gleichen argumente werden den ati usern staendig vorgehalten. und jetzt reicht schon eine theorie aus, dass die 3x00 karten 20% schneller laufen koennten. um das nvidia lager in schiere panik zu versetzen.
ich glaube fest daran, dass es umgekehrt aehnlich verlaufen waere. aber halt nicht ganz so extrem *G*

flatbrain
2004-05-24, 13:03:46
@ letzter Gast:

Könnte es sein, dass du die letzten ~ 2 Seiten dieses Threads falsch verstanden hast?

cu flatbrain

aths
2004-05-24, 13:25:50
Original geschrieben von ow
Der Gast hat naemlich absolut recht in allem was er sagt.Das sehe ich anders :)

StefanV
2004-05-24, 13:29:40
Original geschrieben von aths
Das sehe ich anders :)

Da stimm ich dir mal zu.

Handoptimierte Shader sind IMO weggeschmissene Recourcen, die man anderweitig hätte besser nutzen können, z.B. einen besseren Shadercompiler oder man arbeitet an neuen Features, die eigentlich ganz sinnvoll wären, z.B. ein Control Panel im Parhelia Style oder irgendwelche 'Spielereien'...

Zumal Handoptimierte Shader meist nur bei beliebten Benchmarkspielen zu erwarten sind.

ow
2004-05-24, 13:30:01
.

Sumpfmolch
2004-05-24, 13:40:11
Original geschrieben von ow
Inwiefern?
Welche der Aussagen des Gastes gefaellt dir denn nicht?

sobald alle shaderunterstützenden games eine handoptimierung bekommen stimme ich gast zu....bis dahin nicht. (mal abgesehen davon dass gasts posting sowieso eine völlige traumvorstellung ist...keine firma wird sihc die arbeit machen was anderes als NUR benchmarks/für benchmarks benutzte games shader auszutauschen...)

und wo da der vorteil des kunden sein soll möchte ich sehen (außer bei benchmarks schneller zu sein als die konkurrenz aber sich dafür bei games abseits des hypes über schlechtere performance bedanken zu dürfen)

AlfredENeumann will mit seinem post klar machen, dass der user von der handvoll benches/games bei denen shader ausgetauscht werden kaum was hat, während der gast dagegen nur ein "ja aber wenn ALLE shader ALLER games optimiert werden WÜRDEN, ja dann..DANN"

..mal ehrlich...eher haben die mexikaner neulich ufos gefilmt ;)

deekey777
2004-05-24, 13:58:32
Shader replacement per Hand - in wievielen Spielen gab es schon so etwas? Bisher spricht man nur von einem Fall - TR:AoD. An sich ist das eine gute Sache: Spieler mit einer FX profitieren davon ohne Ende (falls sie überhaupt TR:AoD spielen - gräßliches Spiel). Blöd ist aber, dass gerade TR:AoD gern zum Testen benutzt wird, um die Shaderleistung der einzelnen Grafikkarten zu messen und diese auch miteinander zu vergleichen - nur benutzt eine Radeon die Shader des Spiels und eine FX benutzt dagegen per Hand optimierte Shaders des Treibers: Null Vergleichbarkeit. Oder haben Treiber einen Erkennungsmechanismus, damit beim Benchen mit diesem Spiel Originalshader verwendet werden und beim Spielen die per Hand optimierte?

Radeonator
2004-05-24, 14:17:00
Ehm Hallo, könnt oder wollt ihr nicht verstehen (denke langsam ersteres)

Der Gast schrieb :

Seh ich nur bedingt so.

Für euch "besonders" hellen Köpfe -> Dieser Teil bezieht sich auf Sumpfmolch vorher getätigte Aussage :

Es gibt schon einen Unterschie din "Shader Umstellen", bzw "automatisch ändern in allen Situationen" und in einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

Im nachfolgendem Posting beschreibt der Gast was er als Bedingung für eine zulässige Optimierung ansieht :

IN SPIELEN GETÄTIGTE SHADER OPTIMIERUNG

Da er bedingt schrieb, heisst das im Umkerschluss:

IN BENSCHMARKS GETÄGTIGTE SHADER OPTIMIERUNGEN SIEHT AUCH ER ALS UNSINNIG AN


...

Ihr sichtet überall Fanboys, weil ihr selbst welche seit und deshalb könnt ihr nichtmal mehr die einfachsten Zusammenhänge erfassen. Echt traurig sowas...

Sumpfmolch
2004-05-24, 14:24:41
Original geschrieben von Radeonator
Ehm Hallo, könnt oder wollt ihr nicht verstehen (denke langsam ersteres)
bzw "automatisch ändern in allen Situationen" und in
Der Gast schrieb :

Seh ich nur bedingt so.

Für euch "besonders" hellen Köpfe -> Dieser Teil bezieht sich auf Sumpfmolch vorher getätigte Aussage :

Es gibt schon einen Unterschie din "Shader Umstellen", einem "Benchmark einfach die Shader gegen vorgefertigte Austauschen".

Im nachfolgendem Posting beschreibt der Gast was er als Bedingung für eine zulässige Optimierung ansieht :

IN SPIELEN GETÄTIGTE SHADER OPTIMIERUNG

Da er bedingt schrieb, heisst das im Umkerschluss:

IN BENSCHMARKS GETÄGTIGTE SHADER OPTIMIERUNGEN SIEHT AUCH ER ALS UNSINNIG AN


es GIBT und WIRD niemals shaderaustausch für anderes als benchmarks und benchmarkrelevante spiele geben...von daher weiß ich auch nicht was die dikussion soll...gasts aussage ist rein illusorisches geschwafel ohne sinn.


[SIZE=1]Original geschrieben von Radeonator
Ihr sichtet überall Fanboys, weil ihr selbst welche seit und deshalb könnt ihr nichtmal mehr die einfachsten Zusammenhänge erfassen. Echt traurig sowas...

1. ists mir SCHEIß EGAL welche graka in meinen rechner kommt solang sie schnell ist und gute bildqualität liefert

2. ziemlich paranoid anderen vorzuwerfen überall fanboys zu sehen weil sie selber welche sind wenn man selbst das was man anpangert gerade damit macht...

...oder war das ein outing ? ;D

deekey777
2004-05-24, 14:32:42
@Radeonator: Man darf doch auch seine eigene Meinung haben, oder?

flatbrain
2004-05-24, 14:42:08
Original geschrieben von deekey777
@Radeonator: Man darf doch auch seine eigene Meinung haben, oder?

Man darf, wenn diese mit Radeonators Meinung übereinstimmt ;), davon abgesehen sollte Radeonator mal die betreffenden Postings im Kontext lesen und nicht nur einzelne Phrasen - natürlich kann man das auch so auslegen wie Radeonator, es gibt nur ein Problem dabei; es beschäftigen sich offensichtlich zwar mehrere Leute bei nV damit, den Code der Shader bei FM oder TR:AoD zu optimieren, aber eben nicht damit, den Code von Games mit schlechter Shaderperformance zu optimieren!
Und davon abgesehen hat auch noch keiner auf meine Frage geantwortet:
Wenn nV neben dem Code für Benchmarks auch den Shader Code für einzelne Games optimieren würde, wäre dieser Weg ja auch ok, aber meiner Meinung nach machen sie es nicht oder nur in sehr begrenztem Umfang - und was passiert, wenn Shader Code der Games an sich durch Patches der Gamedeveloper verbessert wird, sind dann die Shader Codes, die durch nV ausgetauscht werden, immer noch kompatibel und effizienter als die Codes der Developer - und werden dann immer noch Shader Befehle mit dem sichtbaren Ergebnis dargestellt, wie es sich die Games Developer wünschen?!

cu flatbrain

Edit: Und wer mich kennt, weiss das ich kein Fanboy, egal welches IHVs, bin!

Radeonator
2004-05-24, 15:03:46
Original geschrieben von Sumpfmolch
es GIBT und WIRD niemals shaderaustausch für anderes als benchmarks und benchmarkrelevante spiele geben...von daher weiß ich auch nicht was die dikussion soll...gasts aussage ist rein illusorisches geschwafel ohne sinn.


Ist eher bei dir so...Shader Compilierung ist also net möglich, interessant. Wenn man eine einheitliche Hochsprache benutzt und auf diese Einheit hin für sich optimiert, ist das also deiner Meinung nach nicht möglich? Wenn jemand ein "nice to have" Postet, ist es also Unsinn, über den du dich überheblichster Weise aufregen musst ?

Original geschrieben von Sumpfmolch
1. ists mir SCHEIß EGAL welche graka in meinen rechner kommt solang sie schnell ist und gute bildqualität liefert


Schöner Satz, ACK, allerdings interessiert mich auch die Technik einer Karte

Original geschrieben von Sumpfmolch
2. ziemlich paranoid anderen vorzuwerfen überall fanboys zu sehen weil sie selber welche sind wenn man selbst das was man anpangert gerade damit macht...

...oder war das ein outing ? ;D

:zzz: setzen, sechs!

HOT
2004-05-24, 15:07:33
Shadercompiler an Sich sind eine sehr gute effizienzsteigernde Massnahme, auf die kein IHV verzichten sollte, da es die Hardware"kompatibilität" zueinander erhöht, sprich, mehr Shader, auch wenn die recht einseitig sind, auf einen Nenner bringt.
Handoptimierungen würde ich nur in extremen Härtefällen befürworten, um die Geschwindigkeit zu erhöhen, ohne dass es zu Lasten der Qualität kommt.
Handoptimierungen in Benchmarks, auch wenn sie für Härtefälle eingesetzt werden, sind hingegen Beschiss, weil man davon ausgehen sollte, dass der Benchmarkhersteller klare Verhältnisse schafft.

ow
2004-05-24, 15:11:30
.

Sumpfmolch
2004-05-24, 15:12:04
Original geschrieben von Radeonator
Ist eher bei dir so...Shader Compilierung ist also net möglich, interessant. Wenn man eine einheitliche Hochsprache benutzt und auf diese Einheit hin für sich optimiert, ist das also deiner Meinung nach nicht möglich? Wenn jemand ein "nice to have" Postet, ist es also Unsinn, über den du dich überheblichster Weise aufregen musst ?





merke: shaderaustausch ungleich automatische shaderumstrukturierung ;)

und gast redet mitnichten vom shadercompiler sondern vom austauschen per hand...viel spaß bei der arbeit ;D

DanMan
2004-05-24, 16:02:21
Lange Rede, kurzer Sinn: Wenn nach dem Optimieren hinten das Gleiche rauskommt wie vor dem Optimieren - nur schneller, dann isses auch legitim. Egal wie es erreicht wurde.

flatbrain
2004-05-24, 16:20:09
Original geschrieben von ow
NVs Developer Support ist immer noch der beste unter allen Grafikchipherstellern.
Einfach den unoptimierten Code hinschicken und man kriegt den optimierten zurueck. Und NV fragt auch nicht, wo der Code eingesetzt wird oder woher er stammt.

Das wollte ich auch gar nicht in Frage stellen, mir ging es mehr darum festzustellen, dass es aus meiner Sicht sich eher so dargestellt, dass nV (momentan) eher den Schwerpunkt auf Benchmarks (ge)legt (hat)!
Dass die Unterstützung von Developern durch nV hervorragend ist, dürfte unbestritten sein, da muss ATi noch ne Menge lernen!

cu flatbrain

flatbrain
2004-05-24, 16:27:19
Original geschrieben von DanMan
Lange Rede, kurzer Sinn: Wenn nach dem Optimieren hinten das Gleiche rauskommt wie vor dem Optimieren - nur schneller, dann isses auch legitim. Egal wie es erreicht wurde.

*zustimm*

LovesuckZ
2004-05-24, 21:55:33
Koennte jemand mit einer 9600 oder X800Pro Karte mit diesem Programm von Digit-life.com (http://www.ixbt.com/video2/images/r420-nv40-Trilinear/ixbt-filter.rar) ein bisschen rumspielen?

Gast
2004-05-24, 22:29:01
Original geschrieben von LovesuckZ
Koennte jemand mit einer 9600 oder X800Pro Karte mit diesem Programm von Digit-life.com (http://www.ixbt.com/video2/images/r420-nv40-Trilinear/ixbt-filter.rar) ein bisschen rumspielen?

Was soll ich damit machen??

X800 Pro im SYS!

tb
2004-05-24, 22:48:24
Original geschrieben von Gast
Was soll ich damit machen??

X800 Pro im SYS!

Kannst Du mal ein Stück Deiner REgistry posten, oder mir mailen?

HKLM\System\CurrentControlSet\Control\Video\...

Thomas

Sphinx
2004-05-24, 23:59:30
hier mal ein paar shot´s R9600 (Mit der R9600 offizielle CD Treiber) + R9700Pro (CAT.4.5) Leider nicht dieselben Treiber... aber eigentlich egal.

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_2.png
R9600 :
http://sphinx.elite-marines.de/R9600_2.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_3.png
R9600 :
http://sphinx.elite-marines.de/R9600_3.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_4.png
R9600 :
http://sphinx.elite-marines.de/R9600_4.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_5.png
R9600 :
http://sphinx.elite-marines.de/R9600_5.png

------------


Bin noch am Uploaden.

Gast
2004-05-25, 01:27:20
Original geschrieben von ow
Natuerlich ist da ein Unterschied.
Aber nicht in der Praxis fuer den User. Dem ist es egal, wodurch ein Shader optimiert wird. Genau dies lese ich in der Aussage des Gastes und er hat damit in allen Punkten recht.

Was du da sonst noch herauslesen willst ist mir raetselhaft.

Insbesondere kommt in dem Gastposting nicht einmal das Wort Benchmark vor oder 3DMark03, es geht um Spiele.

Danke ow du hast es erfasst.
Ich bezog mich nicht speziell auf den 3Dmurks sondern ganz allgemein auf alles mögliche. Nvidia hat nachweislich nicht nur beim Murks Hand angelegt.
Mir stinkt es einfach wenn manuelles Shaderreplacement als cheating oder unfair abgetan wird und blah.
Wieso? Jemand der sich eine FX gekauft hat, wird darüber froh sein. Dem ist es vollkommen egal ob das nun per Shadercompiler oder per Hand gemacht wird.
Den einzigen denen das nicht egal war, war den ganzen ATI Fanboys, die hier täglich ihre Kaufempfehlungen in den Foren abgeben mussten. So nach dem Motto. Nein darf nicht sein, kauft lieber ATI.
Sorry aber so gehts nicht. Da müssen die lieben Herren den Usern schon zugestehen auch Nvidia zu kaufen und eben auch einsehen, dass manuelles Shaderreplacement vollkommen legal ist.

Gast
2004-05-25, 01:30:44
Original geschrieben von Stefan Payne
Da stimm ich dir mal zu.

Handoptimierte Shader sind IMO weggeschmissene Recourcen, die man anderweitig hätte besser nutzen können, z.B. einen besseren Shadercompiler oder man arbeitet an neuen Features, die eigentlich ganz sinnvoll wären, z.B. ein Control Panel im Parhelia Style oder irgendwelche 'Spielereien'...

Zumal Handoptimierte Shader meist nur bei beliebten Benchmarkspielen zu erwarten sind.

Das musst du schon dem IHV überlassen wie er seine Ressourcen einsetzt. Da hast du gar nichts mitzureden.
Und das manuelles Replacement nur bei Benchmarks gemacht wird müsstest du erstmal nachweisen. Ich fürchte das kannst du nicht. Bereits ein Beispiel inem in einem ganz normalen Spiel Replacement betrieben wird würde schon reichen deine These zu wiederlegen.

Gast
2004-05-25, 01:40:53
Original geschrieben von Sumpfmolch
es GIBT und WIRD niemals shaderaustausch für anderes als benchmarks und benchmarkrelevante spiele geben...von daher weiß ich auch nicht was die dikussion soll...gasts aussage ist rein illusorisches geschwafel ohne sinn.


Eine Behauptung die du beweisen musst. Du kannst dich nicht einfach hinstellen und rumposaunen, dass es nur bei Benchmarks gemacht wird. Weise es nach.
Im 2. Teil schreibst du dann was von benchmarkrelevanten Spielen.
Ja was denn nun?
Wenn HL2 ein Benchmark relevantes Spiel werden würde und Nvidia jeden noch so verschissenen Shader da per Hand austauscht, dann kommt mir das als FX Besitzer zu Gute, da HL2 eben dann fixer läuft. Das die Priorität auf beispielsweise dieses HL2 fallen könnte, weil es eventuell häufig gebenchmarkt wird ist mir doch vollkommen egal.
Nehmen wir an ich habe eine FX5900. Dann ist es mir vollkommen wurscht wieso Nvidia sehr viel Augenmerk auf dieses Spiel liegt.
Mich interessiert nur:
"Wie läuft es nach manuellem Shader Replacement im Vergleich zur vorher und wie hoch ist der IQ Tradeoff zur gewonnen Leistung."
Die Motivation die dahinter steckt wieso Nvidia sich beispielsweise ausgerechnet dieses Spiel aussuchen würde um Prioritäten festzulegen ist mir dabei vollkommen egal.
Ich hätte ja ein Produkt von denen gekauft und da wär ich über jede Verbesserung dankbar. Die einzigen die nicht dankbar sind, sind die Herren die bei der Konkurenz gekauft haben und deren EGO es nicht erträgt, wenn bei anderen die Balken länger werden.

Das ist letztlich der einzige Grund wieso da so ein Affentheater drum gemacht wird. Die einzigen die da rumheulen sind Leute die diese Produkte nicht gekauft haben, weil ihr selbst gekauftes Produkt mit einmal nicht mehr so weit vorne liegt oder weil die Lieblingsfirma plötzlich nicht der Alleinverkäufer am Markt ist.
Ziemlich peinliches Fanboyverhalten und ziemlich typisch heutzutage.

Sumpfmolch
2004-05-25, 03:28:17
Original geschrieben von Gast
Eine Behauptung die du beweisen musst. Du kannst dich nicht einfach hinstellen und rumposaunen, dass es nur bei Benchmarks gemacht wird. Weise es nach.


Mit massenhaft ausgetauschten shadern hast DU angefangen...links bitte ;)
oder nenn mir einer welches nicht durch seine benchmarkfunktion besticht...


Original geschrieben von Gast
Im 2. Teil schreibst du dann was von benchmarkrelevanten Spielen.
Ja was denn nun?


"benchmarks und benchmarkrelevante spiele"

siehst du das UND dort ?


Wenn HL2 ein Benchmark relevantes Spiel werden würde und Nvidia jeden noch so verschissenen Shader da per Hand austauscht, dann kommt mir das als FX Besitzer zu Gute, da HL2 eben dann fixer läuft. Das die Priorität auf beispielsweise dieses HL2 fallen könnte, weil es eventuell häufig gebenchmarkt wird ist mir doch vollkommen egal.
Nehmen wir an ich habe eine FX5900. Dann ist es mir vollkommen wurscht wieso Nvidia sehr viel Augenmerk auf dieses Spiel liegt.
Mich interessiert nur:
"Wie läuft es nach manuellem Shader Replacement im Vergleich zur vorher und wie hoch ist der IQ Tradeoff zur gewonnen Leistung."
Die Motivation die dahinter steckt wieso Nvidia sich beispielsweise ausgerechnet dieses Spiel aussuchen würde um Prioritäten festzulegen ist mir dabei vollkommen egal.
Ich hätte ja ein Produkt von denen gekauft und da wär ich über jede Verbesserung dankbar.


richtig...und danach willst du eine runde eines nicht mainstream hype games mit benchmarkfunktion zocken und musst feststellen, dass nvidia eben NICHT die zeit und ressourcen aufbringt dein popeligen nischenspiel zu optimieren...und dann ?


Die einzigen die nicht dankbar sind, sind die Herren die bei der Konkurenz gekauft haben und deren EGO es nicht erträgt, wenn bei anderen die Balken länger werden.

Das ist letztlich der einzige Grund wieso da so ein Affentheater drum gemacht wird. Die einzigen die da rumheulen sind Leute die diese Produkte nicht gekauft haben, weil ihr selbst gekauftes Produkt mit einmal nicht mehr so weit vorne liegt oder weil die Lieblingsfirma plötzlich nicht der Alleinverkäufer am Markt ist.
Ziemlich peinliches Fanboyverhalten und ziemlich typisch heutzutage.

meine nächste karte wird vermutlich ein nv40 ableger...un nu ? :gruebel:


kurz gefasst:
was nützt dir dein shaderaustausch in wenigen benches/games, wenn alle abseits des hypes davon nicht abbekommt ? wer regt sich nicht auf, wenn seine karte außer in diesen wenigen zum benchen benutzten programmen plötzlich nicht mehr gute performance liefert ? worauf willst du dich beim grafikkarten kauf verlassen ?

tb
2004-05-25, 04:06:10
Die Zeit, in denen Shader von "Hand" ausgetauscht worden sind, düfte wohl vorbei sein. 1.1er - 1.4er Shader waren noch relativ simpel. Neuere 2.0er und 3.0er Shader werden jedoch immer aufwändiger und komplexer.
Kein Hersteller kommt heute und bei nächsten Generationen mehr um einen für seine Hardware optimierenden Shadercompiler herum.
Hinzu kommen inzwischen sinnvolle Tools für die Entwickler, welche Leistungsdaten der aktuellen Shader ausspucken. Somit kann man wesentlich besser auf Leistung optimieren, als dies zu Anfang der ersten DX9 Karten der Fall war. Als nächstes wird es z.B. bei min. einem IHV eine Minidatenbank im Treiber geben, welche von einer Basiskarte die zu erwartende Leistung(in versch. Bereichen!) auf neueren VPU's vorhersagen kann. Generell ist einer Universallösung(optimierender Shadercompiler) der Vorzug zu geben, nur ist deren Entwicklung natürlich wesentlich aufwändiger und deshalb nicht immer aufgereift bei frühen Treiberversionen...


Thomas

TheGood
2004-05-25, 08:44:29
Original geschrieben von Sphinx
hier mal ein paar shot´s R9600 (Mit der R9600 offizielle CD Treiber) + R9700Pro (CAT.4.5) Leider nicht dieselben Treiber... aber eigentlich egal.

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_2.png
R9600 :
http://sphinx.elite-marines.de/R9600_2.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_3.png
R9600 :
http://sphinx.elite-marines.de/R9600_3.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_4.png
R9600 :
http://sphinx.elite-marines.de/R9600_4.png

-----------

R9700pro :
http://sphinx.elite-marines.de/R9700Pro_5.png
R9600 :
http://sphinx.elite-marines.de/R9600_5.png

------------


Bin noch am Uploaden.
hab keine unterschiede geseehn, wo sinds die denn?

Grestorn
2004-05-25, 09:37:12
Man kann die MipMap Wellen bei einem stehenden Bild kaum erkennen. Bei einem sich bewegenden Bild sind sie dafür um so stärker zu sehen.

Wenn man z.B. vorwärts läuft bleibt die "Welle" immer an der selben Stelle am Schirm, ein paar virtuelle Meter vor dem Spieler, aber die Bodentexturen bewegen sich entsprechend der Vorwärtsbewegung des Spielers.

Diese Diskrepanz (stehende Welle gegen sich bewegende Textur) ist was die Welle so störend macht. Das wirkt - etwas überspitzt - als wäre ein schmaler Tesastreifen horizontal von rechts nach links auf den Monitor aufgeklebt.

svenw
2004-05-26, 13:05:40
Hm, ich frag mich wirklich wieviel Reduktion der Verbesserungen die Kunden akzeptieren würde.
Viele der beanstandeten Verbesserungen in Hardware implementiert um schneller zu sein. Wenn man mal hypothetisch davon ausgeht, das ATI volles Trilineares Filtern wieder einführen würde und dafür 10% allgemeine Leistung gegenüber Nvidia einbüßt wer würde die Karte außer ein paar Leuten die die Qualität wirklich interessiert kaufen?

Sämtliche Firmen überschlagen sich doch dadrum die Performace Krone zu bekommen, selbst wenn es wirtschaftlich keinerlei Sinn macht (P4E) und nur irgendwo im Nachkommabereich des Benchmarks ist, Hauptsache schneller.

Man muß es so sehen: Die Kunden geiern nach der schnellsten Karte/dem schnellsten Prozessor und sind bereit dafür ne Menge Geld auf den Tisch zu legen. Qualität sieht man nicht in der Framerate oder nem anderen schönen Wert mit dem man protzen kann. Die absoluten High End Karten sind wider jeglicher wirtschaftlicher Vernunft und eher ein virtueller Fuchsschwanz/Spoiler als eine Notwendigkeit. Die Kunden wollen Framerate und die Firmen liefern wofür die Kunden bezahlen wollen und wenns das Bild mit 400 FPS nur in schwarzweiß gibt. Traurig, aber ist so und Seiten wie das 3D center sind einsame Rufer im Wald.

Und was werden die Firmen machen? 10% der kunden die sich dafür interessieren mit bestmöglicher HArdware versorgen oder bei 90% der Kunden als die mit den besten Framerate dastehen? Die Firmen wollen nicht uns glücklich machen sondern ihre Aktionäre und somit verkaufen sie was der Markt haben will. Ob es nun gut oder Mist ist interessiert nicht Hauptsache es verkauft sich.

Tigerchen
2004-05-26, 17:35:37
Original geschrieben von grestorn
Man kann die MipMap Wellen bei einem stehenden Bild kaum erkennen. Bei einem sich bewegenden Bild sind sie dafür um so stärker zu sehen.

Wenn man z.B. vorwärts läuft bleibt die "Welle" immer an der selben Stelle am Schirm, ein paar virtuelle Meter vor dem Spieler, aber die Bodentexturen bewegen sich entsprechend der Vorwärtsbewegung des Spielers.

Diese Diskrepanz (stehende Welle gegen sich bewegende Textur) ist was die Welle so störend macht. Das wirkt - etwas überspitzt - als wäre ein schmaler Tesastreifen horizontal von rechts nach links auf den Monitor aufgeklebt.

Und alle Reviewer und Kunden die auch nichts gesehen haben sind einfach nur zu blöd. Wenn einer was sieht nachdem er sich zunächst mit syntethischen Bildern und Füllenraterntests das Problem bewußt gemacht hat und alle anderen sehen nichts sollte einem das schon zu denken geben.

Grestorn
2004-05-27, 08:15:30
Original geschrieben von Tigerchen

Und alle Reviewer und Kunden die auch nichts gesehen haben sind einfach nur zu blöd. Wenn einer was sieht nachdem er sich zunächst mit syntethischen Bildern und Füllenraterntests das Problem bewußt gemacht hat und alle anderen sehen nichts sollte einem das schon zu denken geben.

HarcOCP hat einen sehr interessanten Artikel zum Thema Review und Benchmarks geschrieben (siehe hier (http://www.hardocp.com/article.html?art=NjE2)).

Lies den mal gut durch.

Dazu kommt noch, dass gerade ältere Spiele sehr viel empfänglicher für den Effekt sind (da sie weniger Details in der Umgebung enthalten und damit mehr gerade Flächen existieren, bei denen die Effekte umso deutlicher sichtbar werden). Ältere Spiele werden aber vom Reviewer praktisch nicht beachtet, und wenn dann nur als Benchmark wo nur die Balkenlänge zählt.

Und gerade bei älteren Spielen sind die Optimierungen völlig unnötig, da die Karten ohnehin absolut ausreichend Leistung hätten, um das Spiel in optimaler Auflösung und AF/AA zu spielen.

Gerhard
2004-05-27, 09:01:57
Möchte hier auch mal meine Meinung zum Besten geben(besitze selbst ein FX5900 und darf somit einige Optimierungen genießen :-( ):

Shader-Replacements benachteiligen auf jeden Fall den Käufer der Karte welcher diese kauft, da diese nur für populäre Spiele durchgeführt werden und weiters der Aufwand vom Hardware-Entwickler nur zu "Verkaufszeit" des Produktes gemacht wird. Wir sehen nun auch bei NVidia das die Optimierungen für die GF4 Linie nach und nach aus dem Treiber verschwinden. Was hat dies zur folge?

Der Kartenkäufer der vielleicht auch gerne Spiele abseits der vom Hersteller für optimierungswert gehaltenen Spielen spielt orientiert sich an den Benchmarks, er geht davon aus das wenn die Karte in den "üblichen" getesteten Spielen schneller ist, diese auch in seinen vom ihm gespielten Spielen (mit ähnlicher Engine) die schnellere ist. Im Fall von Shaderreplacements trifft das jedoch meist nicht zu!

Weiters stört mich bei NVidia die in den aktuellen Treibern für die FX-Linie nicht abschaltbare AF-Optimierung. Bei einigen Spielen funktioniert es sicher gut, allerdings darf ich immer wieder mal verschwommene Texturen genießen, trotz 8x AF in den Treibern. Das ist sowas von unnötig! Das dies in letzter Zeit von den Testprogrammen versteckt wird macht es nur schlimmer.
Das Brilinear stört mich dagegen überhaupt nicht, hier stört mich das immer wieder sichtbare Textureshimmering (Unterfilterung?) und das Kantenflimmern durch niedrigen AA Grad viel mehr.

Tesseract
2004-05-27, 11:01:50
Original geschrieben von Gerhard
Das Brilinear stört mich dagegen überhaupt nicht, hier stört mich das immer wieder sichtbare Textureshimmering (Unterfilterung?) und [...]

brilinearität führt aber u.a. zu stellenweisen texturshimmering weil die größe der textur unpassend zur entfernung ist

Gast
2004-05-27, 12:09:28
Original geschrieben von Tesseract
brilinearität führt aber u.a. zu stellenweisen texturshimmering weil die größe der textur unpassend zur entfernung ist

Schoen das du weisst warum dies so ist. Den veraergerten Nvidia Kunden hilf es aber reichlich wenig. auch Nvidia hat keine antworten darauf.

Gast
2004-05-27, 12:44:44
Original geschrieben von grestorn
HarcOCP hat einen sehr interessanten Artikel zum Thema Review und Benchmarks geschrieben (siehe hier (http://www.hardocp.com/article.html?art=NjE2)).

Lies den mal gut durch.

Dazu kommt noch, dass gerade ältere Spiele sehr viel empfänglicher für den Effekt sind (da sie weniger Details in der Umgebung enthalten und damit mehr gerade Flächen existieren, bei denen die Effekte umso deutlicher sichtbar werden). Ältere Spiele werden aber vom Reviewer praktisch nicht beachtet, und wenn dann nur als Benchmark wo nur die Balkenlänge zählt.

Und gerade bei älteren Spielen sind die Optimierungen völlig unnötig, da die Karten ohnehin absolut ausreichend Leistung hätten, um das Spiel in optimaler Auflösung und AF/AA zu spielen.


Lieber grenstorm,

bitte stell doch mal klar ob du hier von deiner GeForceFX karte sprichst oder von deiner aktuellen Radeon.

Ich kann mich erinnern daß du behauptet hast (ATI Forum), das Problem würde bei deiner neuen Karte nicht auftreten.

Nicht dass ich diese Optimierungen gut heißen würde aber es handelt sich hier offensichtlich um unterschiedliche Verfahren.

Grestorn
2004-05-27, 12:53:14
Original geschrieben von Gast
Lieber grenstorm,

bitte stell doch mal klar ob du hier von deiner GeForceFX karte sprichst oder von deiner aktuellen Radeon.

Ich kann mich erinnern daß du behauptet hast (ATI Forum), das Problem würde bei deiner neuen Karte nicht auftreten.

Nicht dass ich diese Optimierungen gut heißen würde aber es handelt sich hier offensichtlich um unterschiedliche Verfahren.
Ich spreche von der x800Pro.

In der Tat ist das Problem nicht bei jedem Spiel sichtbar. Nachdem aths immer wieder über Deus Ex 1 geschrieben hat, hab ich das Spiel installiert, und siehe da, der Effekt ist sofort und ohne jede Anstrengung sichtbar.

nggalai
2004-05-27, 13:08:57
Original geschrieben von grestorn
Ich spreche von der x800Pro.

In der Tat ist das Problem nicht bei jedem Spiel sichtbar. Nachdem aths immer wieder über Deus Ex 1 geschrieben hat, hab ich das Spiel installiert, und siehe da, der Effekt ist sofort und ohne jede Anstrengung sichtbar. aths hat immer wieder von Max Payne gesprochen; ich hab' immer von Deus Ex 1 geredet. ;)

Und ja, ist abhängig vom Content und Spiel. Stören tut's mich in letzter Zeit immer häufiger, seit ich wieder die älteren Spiele rauskrame. *mit Schaudern an Thief2 denk*

93,
-Sascha.rb

DrumDub
2004-05-27, 13:11:04
Original geschrieben von grestorn
Ich spreche von der x800Pro.

In der Tat ist das Problem nicht bei jedem Spiel sichtbar. Nachdem aths immer wieder über Deus Ex 1 geschrieben hat, hab ich das Spiel installiert, und siehe da, der Effekt ist sofort und ohne jede Anstrengung sichtbar.

mal nen frage: haste die stageoptimierung ausgeschaltet?

Gas3t
2004-05-27, 18:33:30
Weiter gehts:

http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/

MechWOLLIer
2004-05-27, 18:49:20
Original geschrieben von Gas3t
Weiter gehts:

http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/

So ganz kapiere ich den Artikel nicht. Hat ATI irgendwie am LOD rumgespielt?

LovesuckZ
2004-05-27, 18:50:22
Original geschrieben von MechWOLLIer
So ganz kapiere ich den Artikel nicht. Hat ATI irgendwie am LOD rumgespielt?

Ja, steht aber auch auf Seite 3.

Mr. Lolman
2004-05-27, 18:51:54
Original geschrieben von Gas3t
Weiter gehts:

http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/

Ist ganz nett der Artikel, nur schon wieder zu abstrakt. Hätte man den Vergleich nicht auch mit wirklich exisiterenden Texturen aus echten Spielen machen können?


BTW: Die LOD Geschichte ist auch falsch, da Ati schonbar generell einen niedrigeren LOD Wert* als NV verwendet. Dass sich bei aktiver Brilinearen Filterung nochmal ändert, liegt wohl am kleinerem Tri-Band, d.h die einzelnen Mipmaps werden stärker Überfiltert als es ohnehin schon der Fall ist.

Das Extrembeispiel dazu ist, bi-AF...



(niedriger, bzw negativer LOD wert = höheres LevelOfDetail)

Demirug
2004-05-27, 19:03:04
Original geschrieben von Mr. Lolman
Ist ganz nett der Artikel, nur schon wieder zu abstrakt. Hätte man den Vergleich nicht auch mit wirklich exisiterenden Texturen aus echten Spielen machen können?

Schlecht den dort bekommt man ja die Optimierung nicht deaktiviert ohne die Mips zu färben. bzw wenn man sie färbt sieht alles wie beim R360 auch aus.

BTW: Die LOD Geschichte ist auch falsch, da Ati schonbar generell einen niedrigeren LOD Wert* als NV verwendet. Dass sich bei aktiver Brilinearen Filterung nochmal ändert, liegt wohl am kleinerem Tri-Band, d.h die einzelnen Mipmaps werden stärker Überfiltert als es ohnehin schon der Fall ist.

Das Extrembeispiel dazu ist, bi-AF...



(niedriger, bzw negativer LOD wert = höheres LevelOfDetail)

Was ist daran falsch? Die Optimierung verändert zusätzlich den LOD gegenüber dem normalen ATI Model.

Bei nVidia führt das BRI nicht zu einer LOD-Veränderung genauso ist es beim RV360 auch nicht. Die modifizierte LOD-Formel ist also was neues beim R420.

LovesuckZ
2004-05-27, 19:05:04
Wieviel "Ersparnis (Leistung)" gibt es durch die LOD Verschiebung?

Mr. Lolman
2004-05-27, 19:13:44
Original geschrieben von Demirug
Schlecht den dort bekommt man ja die Optimierung nicht deaktiviert.


Also müssen die Texturmips 'Colormipmapeigenschaften' aufweisen?

Ist ja ganz nett, dass das tatsächlich adaptiv funktioniert. Nur sollte ATi wohl den Threshold wohl noch etwas ändern, damit die Optimierung den Cheatbeigeschmack verliert..


Was ist daran falsch? Die Optimierung verändert zusätzlich den LOD gegenüber dem normalen ATI Model.

Bei nVidia führt das BRI nicht zu einer LOD-Veränderung genauso ist es beim RV360 auch nicht. Die modifizierte LOD-Formel ist also was neues beim R420.

Dann scheint es mir zumindest falsch, dass das LOD nur an den optimierten Winkeln geändert worden sein soll. Auf den Screenshots wirkts gleichmässig...

Demirug
2004-05-27, 19:33:21
Original geschrieben von Mr. Lolman
Also müssen die Texturmips 'Colormipmapeigenschaften' aufweisen?

Ist ja ganz nett, dass das tatsächlich adaptiv funktioniert. Nur sollte ATi wohl den Threshold wohl noch etwas ändern, damit die Optimierung den Cheatbeigeschmack verliert..

Nunja Ein/Aus ist ja auch irgendwie adaptiv. Der Treiber schaltet es nur dann aus wenn er der Meinung ist das sich zwei Mipmaps optisch so stark unterscheiden das man die einzelnen Mipmaps klar erkennen kann. Bei einer echten Spieltextur wird diese Schwelle aber nicht erreicht den dort will man ja das sich die einzelnen Mips so ähnlich wie nur möglich sehen. Das Verfahren schlägt also nur auf Texturveränderungen an welche den Zweck haben die einzelnen Mips zu sehen. Die Prüfroutine ist aber so "stupid simple" das man sie leicht reinlegen kann und gefärbte Mips bauen kann die er nicht entdeckt.

Dann scheint es mir zumindest falsch, dass das LOD nur an den optimierten Winkeln geändert worden sein soll. Auf den Screenshots wirkts gleichmässig...

Also wenn man die "Spitzen" bzw "Ohren" mit einer Linie Verbindet gibt es da maximal einen Pixel unterschied. Bei den "Tälern" sind es mehr.

Demirug
2004-05-27, 19:38:25
Original geschrieben von LovesuckZ
Wieviel "Ersparnis (Leistung)" gibt es durch die LOD Verschiebung?

Das hängt davon ab wie viele Pixel in den Bereich fallen der davon profitiert.

Die LOD Verschiebung führt ja das das an manchen Stellen an denen die bisherigen Chips schon bei 4xAF waren der R420 noch mit 2xAF arbeitet. Das gleiche setzt sich dann bei 6xAF fort. Dort hat der R420 Zonen die er nur mit 4xAF filtert. usw.

Da diese Optimierung aber auch durch vollflächig gefärbte Mips deaktiviert wird ist bei einem Vergleich zwischen einem Bnechmark mit gefärbten Mips und ohne der Gewinn dieser Optimierung schon dabei.

Exxtreme
2004-05-27, 19:40:45
Original geschrieben von Mr. Lolman
BTW: Die LOD Geschichte ist auch falsch, da Ati schonbar generell einen niedrigeren LOD Wert* als NV verwendet. Dass sich bei aktiver Brilinearen Filterung nochmal ändert, liegt wohl am kleinerem Tri-Band, d.h die einzelnen Mipmaps werden stärker Überfiltert als es ohnehin schon der Fall ist.

Durch das schmalere Tri-Band sollte die LOD-Formel trotzdem nicht beeinflusst werden. Das Problem ist, daß ATi anscheinend den LOD-Bereich irgendwie "streckt". Sie filtern in einigen Bildbereichen mit einem niedrigeren AF-Level, wo eigentlich ein höherer AF-Level nötig wäre um Texturflimmern zu verhindern.

LovesuckZ
2004-05-27, 19:42:22
Original geschrieben von Demirug
Nunja Ein/Aus ist ja auch irgendwie adaptiv. Der Treiber schaltet es nur dann aus wenn er der Meinung ist das sich zwei Mipmaps optisch so stark unterscheiden das man die einzelnen Mipmaps klar erkennen kann.

Veraendert sich die Filterung (bilinear zu trilinear) oder ist sie, wie bei nvidia, star?

Gast
2004-05-27, 19:42:55
Original geschrieben von Mr. Lolman
Ist ganz nett der Artikel, nur schon wieder zu abstrakt. Hätte man den Vergleich nicht auch mit wirklich exisiterenden Texturen aus echten Spielen machen können?


(niedriger, bzw negativer LOD wert = höheres LevelOfDetail)

Nein, mit echten Texturen aus Spielen ist ja dieser OW-Schachzug nicht realisierbar.

Alles eine grüne Sippe!

Demirug
2004-05-27, 19:51:03
Original geschrieben von LovesuckZ
Veraendert sich die Filterung (bilinear zu trilinear) oder ist sie, wie bei nvidia, star?

Ich bin mir nicht sicher ob ich die Frage richtig verstehe.

Die Umschalten zwischen BI und TRI (was ja nur BRI ist) ist wie bei den anderen Radeons auch.

LovesuckZ
2004-05-27, 19:54:30
Original geschrieben von Demirug
Ich bin mir nicht sicher ob ich die Frage richtig verstehe.


Ich meine, wenn es zu keinem "full trilinear on default" kommt, ob dann nur star "brilinear" angeboten wird (wie bei nvidia) oder ob es zur Abnahme bzw. Zunahme des Tri-Bandes innerhalb der Optimierung kommt.

/edit: Hat sich erledigt, da die Bilder zeigen, dass dies passiert.

Demirug
2004-05-27, 20:07:06
Original geschrieben von LovesuckZ
Ich meine, wenn es zu keinem "full trilinear on default" kommt, ob dann nur star "brilinear" angeboten wird (wie bei nvidia) oder ob es zur Abnahme bzw. Zunahme des Tri-Bandes innerhalb der Optimierung kommt.

Die Breite des BI Anteils ist unabhängig vom Texturinhalt. Es gibt wie gesagt nur Ein und Aus.

Gast
2004-05-27, 20:12:34
Mit einfachen Worten , ATI pfuscht auch am LOD um höhere FPS zu bekommen , ist das so richtig?!

LovesuckZ
2004-05-27, 20:13:29
Original geschrieben von Demirug
Die Breite des BI Anteils ist unabhängig vom Texturinhalt. Es gibt wie gesagt nur Ein und Aus.

Danke!
Wie sieht es beim AF des NV3x aus: Gibt es dort auch nur eine Ein/Aus Bedingung (von 8x auf 2x)?

Demirug
2004-05-27, 20:22:41
Original geschrieben von LovesuckZ
Danke!
Wie sieht es beim AF des NV3x aus: Gibt es dort auch nur eine Ein/Aus Bedingung (von 8x auf 2x)?

Nein, eine einfache Ein/Aus sache ist das dort nicht. Im Moment hoffe ich noch das nVidia die Details rausrückt sonst gibt es wieder ein paar Nachtschichten.

PS: Der NV40 scheint von dieser Optimierung nicht betroffen zu sein. Dort bekommt man was man im Panel eingestellt hat.

Demirug
2004-05-27, 20:26:20
Original geschrieben von Gast
Mit einfachen Worten , ATI pfuscht auch am LOD um höhere FPS zu bekommen , ist das so richtig?!

Vereinfacht gesagt ja. Aber bisher nur beim R420. Die geänderte LOD Formel erfordert Hardwareunterstützung die wohl erst im R420 vorhanden ist.

Brillus
2004-05-27, 20:51:12
Original geschrieben von Demirug
Vereinfacht gesagt ja. Aber bisher nur beim R420. Die geänderte LOD Formel erfordert Hardwareunterstützung die wohl erst im R420 vorhanden ist.

Darf ich fragen in wieweit, sowirklich was Ati da am LOD macht habe ich nicht verstanden und es einfach nur zu verändern konnte meines wissen schon eine Voodoo. Wenn es spezielle Hardware braucht muss es doch aus etwas spezileres sein.

Danke schon mal für die Erklärung.

Sphinx
2004-05-27, 21:05:38
Also die Bri-Filterung (Hardware) beim R420 arbeitet zusätzlich mit einer LOD Optimierung die beim R360 nicht gegeben ist. Der Grad der Bri-Filterung kann man per Treiber verändern->mitteilen an die Hardware und beim R420 zusätzlich per Treiber das LoD zur Filterung.

Wenn ich was falsch verstanden habe. Korrigiert mich.

Das währe das zusätzliche was Ati in dem Chat-Log mitteilte das sie beim R420 noch mehr Feintuning betreiben könnten als die R360.

"We had new filtering algorithms in places since Cat 3.4 or so. Note that the image quality improved over various driver updates since. Also, as noted earlier, X800 provides better controls than earlier parts."


Was Extreme schon erwähnte : "Das Problem ist, daß ATi anscheinend den LOD-Bereich irgendwie "streckt". Sie filtern in einigen Bildbereichen mit einem niedrigeren AF-Level, wo eigentlich ein höherer AF-Level nötig wäre um Texturflimmern zu verhindern."

Also ansich eine aus der Bri-Filterung negative Auswirkung ausmerzen... *wenn ich es richtig interpretiere.

Gast
2004-05-27, 21:17:36
die große frage der relevanz für die in-game erfahrung bleibt in dem artikel leider weitgehend unberührt.

LovesuckZ
2004-05-27, 21:18:18
Original geschrieben von Gast
die große frage der relevanz für die in-game erfahrung bleibt in dem artikel leider weitgehend unberührt.

Will er dies zeigen?

Gast
2004-05-27, 21:22:54
Original geschrieben von LovesuckZ
Will er dies zeigen?

das wird meiner meinung nach halt nicht richtig deutlich. für einen artikel der aus technischen interesse heraus motiviert ist hat er deutlich zu viele andere zwischentöne.

Demirug
2004-05-27, 21:27:21
Original geschrieben von Brillus
Darf ich fragen in wieweit, sowirklich was Ati da am LOD macht habe ich nicht verstanden und es einfach nur zu verändern konnte meines wissen schon eine Voodoo. Wenn es spezielle Hardware braucht muss es doch aus etwas spezileres sein.

Danke schon mal für die Erklärung.

Den LOD-BIAS verstellen können alle Chips. IMHO nutzt ATI beim R420 aber eine leicht modifizierte Formel da nur die Stellen in der "AF-Blume" davon betroffen sind welche die hohen AF-Grade erhalten das verstellen des LOD-BIAS sollte auf die ganze AF-Blume auswirkungen haben. Es könnte jetzt aber auch sein das bei ATI das verstellen das LOD-BIAS ebenfalls nicht in den Bereichen wirkt. Da habe ich jetzt zugegebenermassen gerade eine Wissenslücke. Wenn das verstellen des LOD-BIAS zum gleiche Bild führt dann war das mit der speziellen Hardwareunterstüzung ein Fehlschluss. Allerdings würde es mich dann wundern das es nicht auch bei der 9600 schon gemacht wurde.

Exxtreme
2004-05-27, 21:30:30
Original geschrieben von Sphinx
Also ansich eine aus der Bri-Filterung negative Auswirkung ausmerzen... *wenn ich es richtig interpretiere.
Auf Screenshots vielleicht. In der Praxis können sich diese beiden Filter" IIRC nur schwer gegenseitig aufheben.

Sphinx
2004-05-27, 21:34:45
Original geschrieben von Exxtreme
Auf Screenshots vielleicht. In der Praxis können sich diese beiden Filter" IIRC nur schwer gegenseitig aufheben.

Das währe vielleicht eine Sache die man zwischen der R360 und der R420 vergleichen müsste. Welches mehr oder weniger das Banding in Bewegung wahrnehmbar ist... lt. Berichten.

Aufheben nicht aber halt sogut es möglich ist ausmerzen - subjectiv...

Aber sollte die Karte mal bei mir Antrudeln kann ich eventuell selbst mal Bericht erstatten.

Demirug
2004-05-27, 21:38:36
Original geschrieben von Sphinx
Also die Bri-Filterung (Hardware) beim R420 arbeitet zusätzlich mit einer LOD Optimierung die beim R360 nicht gegeben ist. Der Grad der Bri-Filterung kann man per Treiber verändern->mitteilen an die Hardware und beim R420 zusätzlich per Treiber das LoD zur Filterung.

Wenn ich was falsch verstanden habe. Korrigiert mich.

Das währe das zusätzliche was Ati in dem Chat-Log mitteilte das sie beim R420 noch mehr Feintuning betreiben könnten als die R360.

"We had new filtering algorithms in places since Cat 3.4 or so. Note that the image quality improved over various driver updates since. Also, as noted earlier, X800 provides better controls than earlier parts."

In wie fern die Hardware variable ist kann man derzeit leider nicht feststellen. Der Treiber nutzt jedenfalls nur zwei Einstellungen. Ein und Aus.


Was Extreme schon erwähnte : "Das Problem ist, daß ATi anscheinend den LOD-Bereich irgendwie "streckt". Sie filtern in einigen Bildbereichen mit einem niedrigeren AF-Level, wo eigentlich ein höherer AF-Level nötig wäre um Texturflimmern zu verhindern."

Also ansich eine aus der Bri-Filterung negative Auswirkung ausmerzen... *wenn ich es richtig interpretiere.

Beide Massnahmen verstärken sich in iherer Wirkung. Da stellenweise (BI-Band/DIFF-AF-Zone) weniger Texel zur Berechung benutzt werden als bei der normalen Filterung fällt der Texturglättungeffekt in diesen Zonen schwächer aus. Liegt ein Pixel dann sowohl in einer BI-Band-Zone und in einer Diff-AF-Zone erreicht man ein Minimum an Texturglättung. Auf einem Standbild wird das ganze dann auch entsprechend scharf weil ja die Glättung gering ist. Allerding führt unzureichenden Glättung eben leicht zu Pixelflimmern wenn sich das Bild bewegt. Wer sich noch an das gute alte Pointsampling erinnert kennt den Effekt.

Mr. Lolman
2004-05-28, 00:12:13
Original geschrieben von Gast
Mit einfachen Worten , ATI pfuscht auch am LOD um höhere FPS zu bekommen , ist das so richtig?!

indirekt...

Das LOD verschieben sie ja in die Richtung, wo die fps eigentlich weniger werden. Nur wird dadurch die Grafik insgesamt an Stellen schärfer, die eigentlich ein höheres AF Level benötigen würden. Lustigerweise wirds genau an den Stellen nicht verschoben, die von ATis Winkelabhängigkeit noch zusätzlich beeinträchtigt werden.


D.h. vom theoretischem Aspekt betrachtet ist ATis AF eigentlich unter aller Sau ;) Wenn's dann tatsächlich nur halbwegs so ausschaut wie mans von NV gewohnt ist (eher war) ist das eigentlich eine Meiserleistung.

Ohne das ATi AF zu kennen würd ichs anhand der vorliegenden Informationen nie an meinen Rechner lassen!!

In der Tat wurde aber auch schon übelst übers R200 AF gelästert, und stellenweise wars aber äusserst zufriedenstellend, stellenweise jedoch genau das Gegenteil nur war man da ohnehin noch nicht so sensibilisiert. Deswegen ists ja eigentlich ums schlimmer, dass die mühsam erreichte Qualität wieder den Bach runtergeht.


@Demirurg: NVs AF ist leicht besser adaptiv, nur weil es eine Technologie nutzt, die sich nach einer ziemlich intelligenten Sache anhört???
Eigentlich wird ja auch nur anhand der Texturewerten entschieden wie jetzt gefiltert werden solll. Und scheinbar funktioniert dies stellenweise noch schlechter als am R420...

In der Tat müsste ATi theoretisch nur den Schwellenwert runtersetzen , um tatsächilch den Schein eines intelligenten Sample Algorithmus erwecken zu können.



Schade nur, dass es momentan eher so aussieht, als würden beide Hersteller das AF noch kaputt optimieren, als dass sie sich tatsächlich mit den Anforderungen dieses speziellen Klientels (wieviele von den Leuten, die AF kennen, wissen was bi, tri-AF ist, geschweige denn eine Textur Stage, oder gar eine brilineare Optimierung (der Begriff wurde doch eigentlich hier im 3DC geprägt, oder?) auseinandersetzen würden.

Mr. Lolman
2004-05-28, 00:15:44
Original geschrieben von Demirug
Wer sich noch an das gute alte Pointsampling erinnert kennt den Effekt.

Jetzt übertreibst du aber. ATis R420 'tri'AF ist sicher nicht halb so schlimm wie bei Atis R300 bi-AF, was eigentlich auch schon nur halbso schlimm ist, wie R200 AF, was mir bisher auch noch keinen Augenkrebs beschehrt hat (hab wahrscheinlich ein starkes Immunsystem ;))

Demirug
2004-05-28, 07:14:58
Original geschrieben von Mr. Lolman
Jetzt übertreibst du aber. ATis R420 'tri'AF ist sicher nicht halb so schlimm wie bei Atis R300 bi-AF, was eigentlich auch schon nur halbso schlimm ist, wie R200 AF, was mir bisher auch noch keinen Augenkrebs beschehrt hat (hab wahrscheinlich ein starkes Immunsystem ;))

Ich glaube du hast mich falsch verstanden. Ich wollte das AF des R420 nicht mit Pointsampling vergleichen. Es ging mir nur um den Effekt "Standbild scharf <-> Bewegung flimmern". Diesen sieht man beim Pointsampling eben am besten.

Demirug
2004-05-28, 07:37:51
Original geschrieben von Mr. Lolman
indirekt...

Das LOD verschieben sie ja in die Richtung, wo die fps eigentlich weniger werden. Nur wird dadurch die Grafik insgesamt an Stellen schärfer, die eigentlich ein höheres AF Level benötigen würden. Lustigerweise wirds genau an den Stellen nicht verschoben, die von ATis Winkelabhängigkeit noch zusätzlich beeinträchtigt werden.

Die LOD-Verschiebung führt nur an der Stelle zu einer verringerung der Fillrate an der von einer Mipmap zu einer anderen gewechselt wird. An allen anderen Stellen ist die Fillrate der optimierten Variante gegenüber der normalen Variante identisch oder besser. Je höher man das AF wählt desto geringer die Gefahr das man in eine Übergangszone kommt.

D.h. vom theoretischem Aspekt betrachtet ist ATis AF eigentlich unter aller Sau ;) Wenn's dann tatsächlich nur halbwegs so ausschaut wie mans von NV gewohnt ist (eher war) ist das eigentlich eine Meiserleistung.

Ohne das ATi AF zu kennen würd ichs anhand der vorliegenden Informationen nie an meinen Rechner lassen!!

In der Tat wurde aber auch schon übelst übers R200 AF gelästert, und stellenweise wars aber äusserst zufriedenstellend, stellenweise jedoch genau das Gegenteil nur war man da ohnehin noch nicht so sensibilisiert. Deswegen ists ja eigentlich ums schlimmer, dass die mühsam erreichte Qualität wieder den Bach runtergeht.

Alles eine Frage des Texturkontrastes. Je weniger Details mit starkem Kontrast eine Textur enthält desto eher reicht eine vom üblichen Verfahren abweichenden Filterung aus.

@Demirurg: NVs AF ist leicht besser adaptiv, nur weil es eine Technologie nutzt, die sich nach einer ziemlich intelligenten Sache anhört???
Eigentlich wird ja auch nur anhand der Texturewerten entschieden wie jetzt gefiltert werden solll. Und scheinbar funktioniert dies stellenweise noch schlechter als am R420...

nVidia dreht ja zusätzlich am AF rum und weil der Algo zur Texturanalyse nicht sensibel genug bei Kanten innerhalb der Textur ist übertreibt er es.

In der Tat müsste ATi theoretisch nur den Schwellenwert runtersetzen , um tatsächilch den Schein eines intelligenten Sample Algorithmus erwecken zu können.

Nur am Schwellenwert zu drehen macht das Teil nicht intelegenter. Um bei meinem modifizieren AF-tester wieder TRI zu bekommen müssten sie den Schwellenwert auf 0 setzten also die optimierung immer deaktivieren. Das Verfahren ist und bleibt blöd und ich bleibe auch dabei das es einzig und aleine dem Zweck dient Mipmaps zu erkennen die man für eine Filteranalyse benutzt. Bei den bisherigen Verfahren zum Einfärben funktioniert das ja auch. Wenn man allerdings etwas kreativ wird liegt es flach.

Schade nur, dass es momentan eher so aussieht, als würden beide Hersteller das AF noch kaputt optimieren, als dass sie sich tatsächlich mit den Anforderungen dieses speziellen Klientels (wieviele von den Leuten, die AF kennen, wissen was bi, tri-AF ist, geschweige denn eine Textur Stage, oder gar eine brilineare Optimierung (der Begriff wurde doch eigentlich hier im 3DC geprägt, oder?) auseinandersetzen würden.

Zumindestens den aktuellen Beta-Treiber für den NV40 kann man über das Panel auf maximale Qualität stellen und bisher wurde auch keine "Optimierung" entdeckt.

seahawk
2004-05-28, 08:24:54
Mich beeindruckt ATI immer mehr. Eine sehr beeindruckende Lösung für eine High-End-Karte, so gibt es eben bald AF for free.

reunion
2004-05-28, 09:03:06
Original geschrieben von seahawk
Mich beeindruckt ATI immer mehr. Eine sehr beeindruckende Lösung für eine High-End-Karte, so gibt es eben bald AF for free.

Beim R420 gibt es schon fast AF 4 free, allerdings ist das nicht gerade beeindruckend wenn man die BQ senkt um das zu erreichen, das könnte NV auch...

LovesuckZ
2004-05-28, 09:06:42
Original geschrieben von reunion
Beim R420 gibt es schon fast AF 4 free,[...]

r200. Ist manchmal sogar schneller als trilinear...

Gerhard
2004-05-28, 11:58:18
@Demirug
Was mir bei dem ATI Artikel stark abgeht ist die Sampleanalyse. Insbesondere beim getesteten bilinearen 2AF/4AF müsste man es leicht testen können. Sofern nicht nur der LOD richtung schärfer verschoben ist sondern auch die Samplezahl im Übergang erhöht worden ist würde dies nicht mehr Aliasing zur Folge haben sondern statt dessen die Übergänge "verwischen", quasi leicht trilinear filtern.
Dies hätte dann auch in Bewegung eine deutliche Besserung der Qualität zur Folge.

Sicherlich ist es unwahrscheinlich das ATI hier auf kosten der Performance die Qualität erhöht hat, aber zu eine vollständige Analyse gehört auf jeden Fall auch die Sampleanzahl (insbesondere da ja der Tester dies auch beherscht). Ohne dieser Analyse ist es nur ein reines raten was wirklich vorgeht.

LovesuckZ
2004-05-28, 12:11:50
Original geschrieben von Demirug
Zumindestens den aktuellen Beta-Treiber für den NV40 kann man über das Panel auf maximale Qualität stellen und bisher wurde auch keine "Optimierung" entdeckt.

Da du ja Zugriff auf die neuesten Betatreiber hast: Kann man beim 61.32 immernoch "trilinear" im Controlplanel auswaehlen?

Demirug
2004-05-28, 12:17:48
Original geschrieben von LovesuckZ
Da du ja Zugriff auf die neuesten Betatreiber hast: Kann man beim 61.32 immernoch "trilinear" im Controlplanel auswaehlen?

Wer sagt das ich Zugriff auf Beta-Treiber habe? Aber selbst wenn ohne NV40 würde das sowieso nichts bringen.

Ich weiss nur das man mit den Treibern welche die Reviewer im Moment haben volles trilinear erzwingen kann.

Demirug
2004-05-28, 12:29:39
Original geschrieben von Gerhard
@Demirug
Was mir bei dem ATI Artikel stark abgeht ist die Sampleanalyse. Insbesondere beim getesteten bilinearen 2AF/4AF müsste man es leicht testen können. Sofern nicht nur der LOD richtung schärfer verschoben ist sondern auch die Samplezahl im Übergang erhöht worden ist würde dies nicht mehr Aliasing zur Folge haben sondern statt dessen die Übergänge "verwischen", quasi leicht trilinear filtern.
Dies hätte dann auch in Bewegung eine deutliche Besserung der Qualität zur Folge.

Sicherlich ist es unwahrscheinlich das ATI hier auf kosten der Performance die Qualität erhöht hat, aber zu eine vollständige Analyse gehört auf jeden Fall auch die Sampleanzahl (insbesondere da ja der Tester dies auch beherscht). Ohne dieser Analyse ist es nur ein reines raten was wirklich vorgeht.

Der AF-Tester kann das schon aber der Treiber merkt nach wie vor wenn eine Texelanalyse läuft und geht auf unoptimiert zurück. Das ist leider nicht ganz so leicht auszutricksen wie das Anzeigen der Übergängen gefärbten Mipmaps.

Die Samplezahl im Übergang ist nicht erhöht gegenüber dem unoptimierten Verfahren. Der Übergang kommt nur später. Das ist nicht geraten sondern ich habe Messreihen die das belegen. In beiden Fällen (optimiert und unoptimiert) fällt die Pixel-Fillrate vor dem übergang auf den gleichen Wert ab um dann noch dem Übergang heftig nach oben zu gehen. Der Sprung ist beim optimierten Verfahren noch grösser als beim unoptimierten.

Gerhard
2004-05-28, 13:08:34
Original geschrieben von Demirug
Der AF-Tester kann das schon aber der Treiber merkt nach wie vor wenn eine Texelanalyse läuft und geht auf unoptimiert zurück. Das ist leider nicht ganz so leicht auszutricksen wie das Anzeigen der Übergängen gefärbten Mipmaps.

Die Samplezahl im Übergang ist nicht erhöht gegenüber dem unoptimierten Verfahren. Der Übergang kommt nur später. Das ist nicht geraten sondern ich habe Messreihen die das belegen. In beiden Fällen (optimiert und unoptimiert) fällt die Pixel-Fillrate vor dem übergang auf den gleichen Wert ab um dann noch dem Übergang heftig nach oben zu gehen. Der Sprung ist beim optimierten Verfahren noch grösser als beim unoptimierten.
Danke für die Ergänzung, wirklich tolle und gründliche Arbeit! Ich hoffe wirklich das solche tollen Artikel die zuständigen Treiberentwickler aufwecken und dazu veranlassen einen Schalter einzubauen um wirklich alle Optimierungen zu deaktivieren.