PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Beispiele für funktionierendes AF? Effekte glätten?


Mastermind
2006-07-15, 00:42:53
Ich muss zu meiner Peinlichkeit gestehen, dass ich bisher nicht viel Wert auf Bildverbesserungen gelegt habe, und das als Perfektionist. Nun habe ich letztens zwei Klassiker hervorgekramt und spiele ab und zu Q3 und UT99. Ich muss sagen die Spiele sind immer noch ziemlich geil.
Nun dachte ich mir, hat mein PC (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4552561&postcount=57) genug Power um hier mal AA und AF auszuprobieren. Euer Gerede über die verschiedenen Bildverbesserungen hat mich da neugierig gemacht. Gerade hab ich mal nach deaktiviertem AA auf die Kanten bei UT geachtet und dann bei 4x und dann bei 6x (maximum bei mir). Damit habt ihr mich zum Bildverbesserungsenthusiasten gemacht, danke. :D
Nun hab ich auch 16xAF dazugeschaltet, aber ehrlich gesagt keinen großen Unterschied festgestellt.
All das hab ich bei D3D und 1600x1200 und aktiviertem VSync betrieben. Nun möchte ich auf zwei Sachen hinaus:

Gibt es richtig gute Vergleichsbilder, wo man den Unterschied zwischen einer nicht AF-gefilterten und einer 16xAF-gefilterten Textur sehr schön sieht? Ich weiß nicht mal recht worauf ich achten sollte. Aber vielleicht liegts ja auch am Content.

Desweiteren hab ich das Problem, dass wenn ich diese Einstellungen maximiere, das Spiel an bestimmten Stellen ruckelt, wenn auch nur leicht und kurz. Und zwar wenn Explosionen zu sehen sind. In Q3 und UT99 ist das der Fall. Daher würde ich gerne wissen, was eigentlich genau auf diese Effekte angewandt wird (AA oder AF oder etwa beides?) und warum das stattfindet? Eine explosion ist sowieso so schnell und farbenfroh, dass man da keine Treppchenbildung oder eine "Unruhe" drin erkennen könnte. Zumindest beim Spielen, auf Screens könnte das vielleicht anders aussehen. Aber mir wäre es wichtiger flüssig spielen zu können und ich verstehe nicht, warum mir durch so einen Unsinn (so seh ich das zumindest bis jetzt) die Möglichkeit genommen wird das Spiel mit Bildverbesserungen zu spielen. Immerhin laufen beide ohne Explosionen absolut flüssig. (Wobei ich in dieser Hinsicht keine kranken Anforderungen habe, flüssig ist hier subjektiv empfunden gemeint, für gewöhnliuch ist ab 20 bis 30FPS für mich flüssig. Ich hab aber bei beiden Spielen jetzt nicht die FPS gemessen.) Gibt es also eine Möglichkeit, diese Effekte von der Bildverbesserung auszunehmen?

Achja und noch eine Frage hinterher: Die 9700 bietet MSAA, richtig? Das Bild wird also nicht in einer gigangtischen Auflösung gerendert und dann skaliert?

Neomi
2006-07-15, 01:03:38
Mastermind[/POST]']Gibt es richtig gute Vergleichsbilder, wo man den Unterschied zwischen einer nicht AF-gefilterten und einer 16xAF-gefilterten Textur sehr schön sieht? Ich weiß nicht mal recht worauf ich achten sollte. Aber vielleicht liegts ja auch am Content.

Der anisotrope Filter sorgt für eine möglichst scharfe Darstellung von verzerrten Texturen, wobei diese Verzerrung normalerweise durch flache Blickwinkel entsteht.

http://www.3dcenter.de/artikel/grafikfilter/index6.php

Mastermind[/POST]']Daher würde ich gerne wissen, was eigentlich genau auf diese Effekte angewandt wird (AA oder AF oder etwa beides?) und warum das stattfindet?

FSAA ist für das ganze Bild aktiv, egal was für ein Effekt gerendert wird. AF ist adaptiv, greift also nur bei Verzerrungen. Explosionen werden in der Regel per Sprites dargestellt, das sind zur Kamera ausgerichtete texturierte Flächen. Durch die Ausrichtung gibt es keine flachen Winkel und entsprechend auch keinen Grund für eine Verzerrung.

Mastermind[/POST]']Achja und noch eine Frage hinterher: Die 9700 bietet MSAA, richtig? Das Bild wird also nicht in einer gigangtischen Auflösung gerendert und dann skaliert?

Klar doch. Der einzige Unterschied zu SSAA (bei gleichem Raster) ist, daß Farbwerte nur einmal pro Pixel berechnet werden, nicht pro Subpixel. Je nach Pixelabdeckung des Dreiecks wird der Farbwert dann mit den nach wie vor vorhandenen Subpixeln verrechnet.

Mastermind
2006-07-15, 01:11:21
Danke Neomi!

Aber wenn AF die Sprites nicht betrifft und AA sowieso ständig das ganze Bild abackert, wie kommt es dann zum Performance-Einbruch bei Explosionen?
Und vor allem, kann man etwas gegen diesen Performance-Einbruch machen, ohne auf AA und die Auflösung verzichten zu müssen? (neuen PC kaufen lassen wir mal außen vor) Ich weiß, dass meiner nicht der neueste ist. Aber diese Spiele sind nun wirklich alt und wie gesagt, sonst läufts ja flüssig.

Und weißt du zufällig, ob bei den beiden Spielen bei abgeschaltetem AF trilinear oder bilinear gefiltert wird?

Banshee18
2006-07-15, 01:13:42
Weil die Explosionen halbtarnsparent sind und deshalb HSR-Mechanismen nicht funktionieren. Dadurch wird natürlich viel Füllrate benötigt.

Hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=299595) gibts was zum Thema AF. Freu dich aber lieber, dass du den Effekt nicht siehst, da du sonst nicht mehr ohne kannst und immer eine halbwegs aktuelle Grafikkarte brauchst.

Mastermind[/POST]']Und weißt du zufällig, ob bei den beiden Spielen bei abgeschaltetem AF trilinear oder bilinear gefiltert wird?
Afaik ist das im CP bzw. im CCC einstellbar. Ich bin mir aber nicht sicher, da ich nur die TrayTools verwende. Im Spiel gibts dazu vielleicht auch eine Einstellung, jedoch hat der Treiber Vorrang. Das, was du also im CCC/CP einstellst, wird verwendet.

Sindri
2006-07-15, 01:22:02
Zum Thema AF:
Hier sieht man imho den Unterschied recht deutlich:
0xAF
http://img502.imageshack.us/img502/7057/obnoaf1211af.jpg
16xAF
http://img399.imageshack.us/img399/2034/ob16xhqaf7yy.jpg

Mastermind
2006-07-15, 01:27:33
Danke Banshee18 und Sindri!
Ich hab mir die geposteten wie auch die verlinkten Bilder angesehen und muss schon sagen, ich bin beeindruckt! Wenn man die Bilder über einander legt und umschaltet, dann sieht das so aus als würde man seine Brille absetzen! :eek: Schon seltsam, dass mir das nie aufgefallen ist. Und du hast schon recht, Banshee18. Man gewöhnt sich so schnell an gutes. :rolleyes: Aber Weihnachten kommt vielleicht ein neuer PC. Außerdem spiele ich nicht viel und wenn überhaupt, dann für gewöhnlich eh lieber Klassiker. Die haben noch Inhalt und Seele. :smile:

Trotzdem werde ich jetzt mehr auf solche Effekte achten. :wink:

Wobei, also seh ich das richtig, dass meine 9700 sogar für solche alten Spiele nicht genug Power hat um sie bei 1600x1200 und 6xAA + 16xHQAF zu spielen? :frown:
Ich weiß ja, dass meine GraKa bei vielen Spielen limitiert, aber so gut ist mein restlicher PC auch nicht, dass eine 7800GS oder sowas lohnen würde und der beste Prozzie den ich einbauen könnte ist nur ein 3200+. Das würde sich IMHO nicht wirklich lohnen, da noch was zu investieren.

Noch ein nachtrag: Ich les mal den Artikel, aber da er von 2001 ist, steht die Antwort auf noch eine Frage von mir wohl nicht drin: Was ist der Unterschied zwischen AF und HQAF, wie groß ist er was Bildqualität angeht und was Geschwindigkeitsverlust angeht? Lohnt sich also HQAF?

Außerdem muss ich jetzt einfach mal anmerken, dass das was da an "Mathematik" auf der ersten Seite dageboten wird auf keinen Fall einem Mathematiker gezeigt werden sollte. Der würde ausrasten. ;D

Gast
2006-07-15, 01:43:57
Man muss ja auch nciht gleich mit 6*AA unf 16*AF zocken.

4*AA und 8*AF sind schon extrem gut und im Notfall reichen auch 2*AA und 8*AF. AF ist mir jedenfalls wichtiger, als Kantenglättung, wenn man in 1600*1200 spielen kann.

Mastermind
2006-07-15, 01:45:09
Gast[/POST]']Man muss ja auch nciht gleich mit 6*AA unf 16*AF zocken.

4*AA und 8*AF sind schon extrem gut und im Notfall reichen auch 2*AA und 8*AF. AF ist mir jedenfalls wichtiger, als Kantenglättung, wenn man in 1600*1200 spielen kann.
Auch richtig. Ich werd mir mal bei Gelegenheit die Zeit nehmen und schauen, welche Konfiguration das beste Kosten-Nutzen-Verhältnis hat.

Raff
2006-07-15, 10:50:13
Mastermind[/POST]']Noch ein nachtrag: Ich les mal den Artikel, aber da er von 2001 ist, steht die Antwort auf noch eine Frage von mir wohl nicht drin: Was ist der Unterschied zwischen AF und HQAF, wie groß ist er was Bildqualität angeht und was Geschwindigkeitsverlust angeht? Lohnt sich also HQAF?

Meinst du jetzt bei den X1x00-Karten von Ati? HQ-AF beschreibt den Modus, der eine verminderte Winkelabhängigkeit aufweist. Winkelabhängig heißt, dass im Rahmen der Geschwindigkeitssteigerung ("Optimierung") bestimmte Winkel niemals den einstellbaren Maximalwert 16x sehen, sondern oftmals nur 2x oder 4x abbekommen. Generell gilt: HQ-AF kann nur dort Leistung kosten, wo "LQ"-AF vorher matschig war, ergo gespart hat. Das sieht man dann aber auch in Form von schärferen Texturen.

MfG,
Raff

Gast
2006-07-15, 13:35:58
Mastermind[/POST]']Lohnt sich also HQAF?Es lohnt sich auf jeden Fall, da es nur dann Performance kostet, wenn es auch Qualität bringt. Raff hat es ja schon erklärt. Leider bietet deine 9700 kein HQ-AF. Das gibts bei ATI erst ab R520. Nvidia bietet es bei Geforce 4 und Geforce FX, hat ab NV40 allerdings den alten "ATI-Modus" nachgeahmt und beibehalten. Hoffentlich bringt hier der G80 Besserung.

The_Invisible
2006-07-15, 13:44:23
Gast[/POST]']Es lohnt sich auf jeden Fall, da es nur dann Performance kostet, wenn es auch Qualität bringt. Raff hat es ja schon erklärt. Leider bietet deine 9700 kein HQ-AF. Das gibts bei ATI erst ab R520. Nvidia bietet es bei Geforce 4 und Geforce FX, hat ab NV40 allerdings den alten "ATI-Modus" nachgeahmt und beibehalten. Hoffentlich bringt hier der G80 Besserung.

jo, am besten gleich den ganzen optimierungskram abschalten. manche wollen halt benchen und manche gamen...

mfg

RavenTS
2006-07-15, 23:45:26
Also bei 1600x1200 wirst du nicht wirklich 6X AA brauchen, da würd mir schon 2X reichen und dann mussdu beim AF auch nicht direkt mit 16X zuschlagen, ein 4-8X sollte je nach Spiel schon ausreichen um gute Bildqualität bei sehr guter Performance zu bieten..! Aber selbsttesten mit Screenshotsmachen ist natürlich mit das Beste...

Die Bilder von Oblivion sind übrigens richtig klasse und zeigen den AF-Effekt wuunderrbaar! Würd mich nurmal interessieren welche GraKa zum Einsatz kam und wie es mit 4x/8x aussehen würd... :D

OBrian
2006-07-16, 01:46:59
Hier nochmal von der gleichen Stelle (Oblivion, Brücke südlich der Kaiserstadt). Ati Radeon X800pro@Standardtakt, Catalyst 6.5 ohne CP/CCC mit AtiTrayTools, Auflösung 1280x960 mit 4x Antialiasing, und dann in der Reihe von links nach rechts mit "application controlled"--2°--4°--8°--16° Anisotrope Filterung (Einstellung Quality-Full Trilinear).

Komischerweise sieht der Shot von 2° genauso aus wie der von 4°, dürfte imho auch 4° sein (habs mehrfach getestet, blieb so). Bei "application controlled" bin ich nicht sicher, ob es 2° ist, aber ich denke eher, es ist komplett aus und nur bilinear gefiltert, so sieht es jedenfalls aus.

http://img147.imageshack.us/img147/4064/aa4af00mw8.th.jpg (http://img147.imageshack.us/my.php?image=aa4af00mw8.jpg)http://img147.imageshack.us/img147/3506/aa4af02os3.th.jpg (http://img147.imageshack.us/my.php?image=aa4af02os3.jpg)http://img145.imageshack.us/img145/2069/aa4af04ou1.th.jpg (http://img145.imageshack.us/my.php?image=aa4af04ou1.jpg)http://img145.imageshack.us/img145/9697/aa4af08uc6.th.jpg (http://img145.imageshack.us/my.php?image=aa4af08uc6.jpg)http://img145.imageshack.us/img145/2396/aa4af16ou0.th.jpg (http://img145.imageshack.us/my.php?image=aa4af16ou0.jpg)

Gast
2006-07-16, 14:59:18
OBrian[/POST]']
Komischerweise sieht der Shot von 2° genauso aus wie der von 4°, dürfte imho auch 4° sein (habs mehrfach getestet, blieb so). Bei "application controlled" bin ich nicht sicher, ob es 2° ist, aber ich denke eher, es ist komplett aus und nur bilinear gefiltert, so sieht es jedenfalls aus.


bilinear sicher nicht, sicher trilinear oder zumindest brilinear (wobei ich hier brilinear nicht wirklich wahrnehmen kann)

die AF-shots sehen aber stark briverdächtig aus, bugwellen sind eindeutig wahrnehmbar.

Gast
2006-07-16, 15:05:58
OBrian[/POST]']Hier nochmal von der gleichen Stelle (Oblivion, Brücke südlich der Kaiserstadt). Ati Radeon X800pro@Standardtakt, Catalyst 6.5 ohne CP/CCC mit AtiTrayTools, Auflösung 1280x960 mit 4x Antialiasing, und dann in der Reihe von links nach rechts mit "application controlled"--2°--4°--8°--16° Anisotrope Filterung (Einstellung Quality-Full Trilinear).

Da wird nirgendwo trilinear gefiltert. Ich glaube du musst vorher AI abschalten, damit du trilinearen Filter bekommst. Probier das mal aus.

OBrian
2006-07-17, 06:14:21
Stimmt, hatte A.I. vergessen. Ist mir aber visuell gar nicht aufgefallen, übrigens kann ich es auch im Nachhinein nicht auseinanderhalten. Hier aber nochmal zumindest 4°,8° und 16°AF mit A.I. aus oder low, als PNG, damit keiner sagen kann, es gäbe JPG-Artefakte. Mußte es zippen, da Imageshack keine Bilder über 1MB mag.

http://ultrashare.de/f/3502/screenshots.zip

Aber mehr mach ich jetzt nicht, irgendwo ist auch Schluß.

paul.muad.dib
2006-07-17, 16:47:09
Die Spiele ruckeln bei den Explosionen, weil sie dort generell langsamer laufen. Bei eingeschaltetem AA und AF sind dann nicht mehr genügend Reserven vorhanden. Das hat aber nichts damit zu tun, dass die Effekte auf die Explosionen angewendet werden.

Wenn du in 1600x1200 + 6x AA + 16AF nicht flüssig spielen kannst, dann probier doch mal eine niedrigere Auflösung. Das Bild sollte trotzdem noch besser sein. Die genannten Filter sind im Prinzip nur eine effizientere Methode zur Bildverbesserung als höhere Auflösungen.

Gast
2006-07-17, 20:23:45
AF braucht MipMaps um richtig zu funktionieren. Ich bin mir nicht ganz sicher, aber Q3 und UT99 sollten Mipmapping verwenden. Falls nicht, hast du den Grund gefunden, warum man keinen Unterschied sieht.

Gast
2006-07-17, 20:33:18
Q3 verwendet auf jeden Fall Mipmaps...

Gast
2006-07-17, 22:47:22
ut99 auch

Spasstiger
2006-07-17, 23:02:04
Eigentlich sollte UT99 und Q3A auch in 1600x1200 mit 6xAA und 16:1 AF auf der Radeon 9700 flüssig laufen. Aber ok, bei Raucheffekten ists immer sehr heikel.
Unreal 2 (mit Patch) konnte ich mit meiner Radeon 9700 in 1280x960 mit 4xAA und 8:1 AF durchgehend mit 30 fps und mehr zocken. Und Unreal 2 ist ja eine ganze Ecke anspruchsvoller als UT99 oder Q3A. ;)

Sonyfreak
2006-07-17, 23:05:08
Spasstiger[/POST]']Eigentlich sollte UT99 und Q3A auch in 1600x1200 mit 6xAA und 16:1 AF auf der Radeon 9700 flüssig laufen. Aber ok, bei Raucheffekten ists immer sehr heikel.
Unreal 2 (mit Patch) konnte ich mit meiner Radeon 9700 in 1280x960 mit 4xAA und 8:1 AF durchgehend mit 30 fps und mehr zocken. Und Unreal 2 ist ja eine ganze Ecke anspruchsvoller als UT99 oder Q3A. ;)Also ich kann nur sagen, dass weder Quake 3 noch UT99 auf 1600x1200 mit 4xAA und 8xAF, auf meiner übertakteten FX5900XT durchgehend(!!!) flüssig laufen. Ich denke mal, dass sich das dann ganz einfach nicht mehr in den Grafikspeicher ausgeht.

mfg.

Sonyfreak

paul.muad.dib
2006-07-18, 09:18:44
Sonyfreak[/POST]']Also ich kann nur sagen, dass weder Quake 3 noch UT99 auf 1600x1200 mit 4xAA und 8xAF, auf meiner übertakteten FX5900XT durchgehend(!!!) flüssig laufen. Ich denke mal, dass sich das dann ganz einfach nicht mehr in den Grafikspeicher ausgeht.

mfg.

Sonyfreak

Die Geforce Karten, besonders die fx brechen auch bei AA und AF sehr viel stärker ein als die Radeons. Dazu kommt noch die geringere Grundleistung gegenüber einer 9700 pro. Am Grafikspeicher sollte es bei diesen alten Spielen sicherlich nicht liegen.

paul.muad.dib
2006-07-18, 09:24:00
OBrian[/POST]']Hier nochmal von der gleichen Stelle (Oblivion, Brücke südlich der Kaiserstadt). Ati Radeon X800pro@Standardtakt, Catalyst 6.5 ohne CP/CCC mit AtiTrayTools, Auflösung 1280x960 mit 4x Antialiasing, und dann in der Reihe von links nach rechts mit "application controlled"--2°--4°--8°--16° Anisotrope Filterung (Einstellung Quality-Full Trilinear).

Komischerweise sieht der Shot von 2° genauso aus wie der von 4°, dürfte imho auch 4° sein (habs mehrfach getestet, blieb so). Bei "application controlled" bin ich nicht sicher, ob es 2° ist, aber ich denke eher, es ist komplett aus und nur bilinear gefiltert, so sieht es jedenfalls aus.

http://img147.imageshack.us/img147/4064/aa4af00mw8.th.jpg (http://img147.imageshack.us/my.php?image=aa4af00mw8.jpg)http://img147.imageshack.us/img147/3506/aa4af02os3.th.jpg (http://img147.imageshack.us/my.php?image=aa4af02os3.jpg)http://img145.imageshack.us/img145/2069/aa4af04ou1.th.jpg (http://img145.imageshack.us/my.php?image=aa4af04ou1.jpg)http://img145.imageshack.us/img145/9697/aa4af08uc6.th.jpg (http://img145.imageshack.us/my.php?image=aa4af08uc6.jpg)http://img145.imageshack.us/img145/2396/aa4af16ou0.th.jpg (http://img145.imageshack.us/my.php?image=aa4af16ou0.jpg)

Interessante Shots. Imo wird auf keinem korrekt trillinear gefiltert, es sind immer Übergänge zwischen den Mip-Map Stufen erkennbar. Außerdem sieht man in der Landschaft, besonders neben dem Wasser, ganz gut die Winkelabhängigkeit des AF.

Gast
2006-07-18, 10:31:06
paul.muad.dib[/POST]']Die Geforce Karten, besonders die fx brechen auch bei AA und AF sehr viel stärker ein als die Radeons. Dazu kommt noch die geringere Grundleistung gegenüber einer 9700 pro. Am Grafikspeicher sollte es bei diesen alten Spielen sicherlich nicht liegen.

Bei AA brechen die FXe nicht stärker ein als die Radeon, bei AF liefern die FXe perfekte Qualität, daher der stärkere Einbruch. Die Grundleistung der Karten ist etwa gleich (es geht hier ja nicht um DX9 Shader).

paul.muad.dib
2006-07-18, 11:09:30
Gast[/POST]']Bei AA brechen die FXe nicht stärker ein als die Radeon, bei AF liefern die FXe perfekte Qualität, daher der stärkere Einbruch. Die Grundleistung der Karten ist etwa gleich (es geht hier ja nicht um DX9 Shader).

Die Grundleistung ist in etwas gleich, trotzdem brechen die Geforce Karten stärker ein, das gilt auch, falls der AF "optimiert" wird. Bei AA sind die Unterschiede gering, aber feststellbar.

Sonyfreak
2006-07-18, 11:12:26
Hier mal ein kleiner Vergleich von verschiedenen damals aktuellen Grafikkarten bei Quake 3. Wie man hier sehen kann, ist die FX5900 vor den Radeons und trotzdem ist die Framerate relativ niedrig. Bei mehreren Explosionen gleichzeitig, geht die Framrate in den kritischen Bereich und das Spiel ist nicht mehr gut spielbar. :wink:

http://img291.imageshack.us/img291/3603/image017ip5.gif (http://imageshack.us)

Benchmark von hier: KLICK (http://tomshardware.thgweb.de/2003/07/15/grosse_thg_kaufberatung_28_grafikkarten_im_vergleich/page17.html)

mfg.

Sonyfreak

EDIT: Ich spiele Quake 3 auf 1600x1200 mit 2xAA und 2xAF. Damit läuft das Spiel sehr gut und ohne Framerateneinbrüche.

paul.muad.dib
2006-07-18, 12:19:14
Eigentlich müsste das Spiel in 1280x960 mit 4x/4x besser aussehen.

Coda
2006-07-18, 12:19:17
paul.muad.dib[/POST]']Bei AA sind die Unterschiede gering, aber feststellbar.
Das ist nicht korrekt. AA war auf der FX schneller, weil sie Filter-On-Scanout macht. Evtl. hast du es anders in Erinnerung, weil meistens AA und AF gleichzeitig gemessen wurde.

4xMSAA ist auf der FX eh sinnlos, weil es ein ordered grid war. 2x war aber brauchbar.

Sonyfreak
2006-07-18, 13:04:39
paul.muad.dib[/POST]']Eigentlich müsste das Spiel in 1280x960 mit 4x/4x besser aussehen.Qualitätsmäßig bleiben sich die Einstellungen nicht viel schuldig. Allerdings hat man mit 1600x1200 den Vorteil, dass ein entfernter Feind aus mehr Pixeln besteht und man ihn daher leichter anvisieren kann. 1600x1200 mit 2xAA und 2xAF ist außerdem etwas performanter als 1280x1024 mit 4xAA und 4xAF.

http://img20.imagevenue.com/loc510/th_06667_12x10_510lo.jpg (http://img20.imagevenue.com/img.php?image=06667_12x10_510lo.jpg) http://img41.imagevenue.com/loc533/th_06674_16x12_533lo.jpg (http://img41.imagevenue.com/img.php?image=06674_16x12_533lo.jpg)

mfg.

Sonyfreak

Spasstiger
2006-07-18, 16:00:25
Sonyfreak[/POST]'][...]
Benchmark von hier: KLICK (http://tomshardware.thgweb.de/2003/07/15/grosse_thg_kaufberatung_28_grafikkarten_im_vergleich/page17.html)

Da kann was nicht stimmen. Wie kann eine Radeon 9800 Pro um 50% schneller sein als eine Radeon 9700 Pro, wenn der Chiptakt 17% und der Speichertakt 10% höher ist? Selbst wenn beide Takterhöhungen zusammen 1:1 wirken würden (was ja nicht der Fall ist), käme man nur auf eine Mehrleistung von 29%.
In der Praxis ist eine 9800 Pro meist 10% schneller als eine 9700 Pro, was gerade der Speichertakterhöhung entspricht (eine Kette ist halt nur so stark wie ihr schwächstes Glied, was auch bei Grafikkarten oftmals gilt).

Gast
2006-07-18, 16:14:38
Spasstiger[/POST]']wenn der Chiptakt 17% und der Speichertakt 10% höher ist? Selbst wenn beide Takterhöhungen zusammen 1:1 wirken würden (was ja nicht der Fall ist), käme man nur auf eine Mehrleistung von 29%.Nicht ganz richtig. Man käme auf eine maximale Mehrleistung von 17%. Wenn ich jede Komponente im PC um 10% übertakte, kann der PC auch maximal 10% an Leistung zulegen. Aber die Diskussion hatten wir schon einmal. ;)

Spasstiger
2006-07-18, 16:16:06
Gast[/POST]']Nicht ganz richtig. Man käme auf eine maximale Mehrleistung von 17%. Wenn ich jede Komponente im PC um 10% übertakte, kann der PC auch maximal 10% an Leistung zulegen. Aber die Diskussion hatten wir schon einmal. ;)
Das stimmt nicht. Hab ich selbst schon mit meiner Radeon 9700 gemessen. Trotzdem wird man nicht auf eine 1:1-Skalierung kommen. Und meist gilt halt die "schwächste-Glied"-Regel. In synthetischen Tests kann aber aber durchaus Fälle konstruieren, wo bestimmte Taktverhältnisse zusammen mehr Leistung bringen als die Einzelübertaktungen.
Da spielen dann wohl wie beim Athlon 64 solche Effekte mit rein, dass der Speichercontroller bei zunehmenden Chiptakt effizienter wird.
Ohne solche Effekte hast du aber recht.

DerRob
2006-07-18, 16:23:07
Spasstiger[/POST]']Da kann was nicht stimmen. Wie kann eine Radeon 9800 Pro um 50% schneller sein als eine Radeon 9700 Pro, wenn der Chiptakt 17% und der Speichertakt 10% höher ist? Selbst wenn beide Takterhöhungen zusammen 1:1 wirken würden (was ja nicht der Fall ist), käme man nur auf eine Mehrleistung von 29%.
In der Praxis ist eine 9800 Pro meist 10% schneller als eine 9700 Pro, was gerade der Speichertakterhöhung entspricht (eine Kette ist halt nur so stark wie ihr schwächstes Glied, was auch bei Grafikkarten oftmals gilt).
ati hat da wohl etwas an den fsaa modi der 9800 gedreht:

Auch die von ATI SmoothVision genannte Kantenglättung wurde optimiert, so dass aufwendige 3D-Spiele auch mit 4x und 6X FSAA ruckelfrei dargestellt werden können und nicht in unspielbare Frameraten absinken.

eine seite vorher (http://tomshardware.thgweb.de/2003/07/15/grosse_thg_kaufberatung_28_grafikkarten_im_vergleich/page16.html) sind die tests ohne fsaa. in den kleineren auflösungen scheint noch der prozessor zu begrenzen, aber bei 1600x1200 ist das takt-verhältnis der 9700 zur 9800 schon sichtbar.

Spasstiger
2006-07-18, 16:44:33
DerRob[/POST]']ati hat da wohl etwas an den fsaa modi der 9800 gedreht:
[...]
Stimmt, damals gab es ja auch diesen Treiberpfad-Mod von Smoothvision 2 auf Smoothvision 2.1. Afaik wurden die Optimierungen in späteren Treiber auch der 9500/9700-Reihe zugänglich gemacht.

EDIT: In diesen Benchmarks von 2004 sind keine besonderen Vorteile für dir 9800 Pro gegenüber der 9700 Pro erkennbar: http://www.digit-life.com/articles2/digest3d/index0402.html.

DerRob
2006-07-18, 16:57:35
Mastermind[/POST]']Gibt es richtig gute Vergleichsbilder, wo man den Unterschied zwischen einer nicht AF-gefilterten und einer 16xAF-gefilterten Textur sehr schön sieht? Ich weiß nicht mal recht worauf ich achten sollte. Aber vielleicht liegts ja auch am Content.
bei der dokumentation zum nHancer gibts auch ein paar schöne vergleichsbilder:
http://www.nhancer.com/help/AFSamples.htm

für aa gibts da auch was (allerdings sind halt nur die nvidia-modi aufgelistet :wink: ):
http://www.nhancer.com/help/AASamplesLow.htm

Coda
2006-07-18, 17:00:58
Spasstiger[/POST]']Das stimmt nicht. Hab ich selbst schon mit meiner Radeon 9700 gemessen.
Doch tut es. Bestes Beispiel ist die 7800GTX 256MiB vs. 512MiB. Speicher und GPU wurden dabei um fast exakt 30% höher getaktet und das Ding ist auch exakt maximal 30% schneller.

Gast
2006-07-18, 18:24:11
Spasstiger[/POST]']Das stimmt nicht. Hab ich selbst schon mit meiner Radeon 9700 gemessen. Trotzdem wird man nicht auf eine 1:1-Skalierung kommen. Und meist gilt halt die "schwächste-Glied"-Regel. In synthetischen Tests kann aber aber durchaus Fälle konstruieren, wo bestimmte Taktverhältnisse zusammen mehr Leistung bringen als die Einzelübertaktungen.
Da spielen dann wohl wie beim Athlon 64 solche Effekte mit rein, dass der Speichercontroller bei zunehmenden Chiptakt effizienter wird.
Ohne solche Effekte hast du aber recht.

Falsch. Es kann sogar überproportionale Taktsteigerungen geben: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3562051#post3562051

Coda
2006-07-18, 18:36:57
Die Wartezyklen bleiben bei gleicher Erhöhung beider Frequenzen an den gleichen Stellen der Pipeline. Deshalb ist das Argument nichtig.

Neomi
2006-07-18, 19:09:03
Gast[/POST]']Falsch. Es kann sogar überproportionale Taktsteigerungen geben: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3562051#post3562051

Solche Effekte kann es geben, aber das hat meist mit der Eliminierung von Wartezyklen zu tun. Wenn z.B. ein Spiel eine konstante Framerate leicht unter der Refreshrate des Monitors liefert und VSync an ist, sorgt (bei Double Buffering) eine kleine Leistungserhöhung über die Refreshrate hinaus mit einem Schlag für die doppelte Framerate. Die tatsächlich vorhandene Rohleistung skaliert aber niemals überproportional.

Mr. Lolman
2006-07-18, 19:21:33
Nicht schon wieder die Diskussion. Damals hab ich mit div. Mitteln gezeigt/erklärt, dass es eben doch möglich ist. Einfach mal im verlinkten Thread stöbern...

/edit:
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3561756#post3561756
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3561896#post3561896
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3562299#post3562299
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3560163#post3560163
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3558794#post3558794
http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3561268#post3561268

Coda
2006-07-18, 19:25:17
Was heißt hier "schon wieder" - wir sind eben nicht zu einem Ergebnis gekommen.

Die Benchmarks glaube ich nicht. Es kann einfach nicht sein, dass ein System schneller werden soll weil man alle seine Teile gleichmäßig beschleunigt. Das wiederspricht jeglicher logischer Betrachtung.

Überhaupt: Wenn es so wäre müssten moderne GPUs schon unglaublich viel schneller sein als die Vorgängergenerationen, schließlich wird immer ordentlich an beidem geschraubt (VRAM- und GPU-Takt).

Schon gebrachtes Gegenbeispiel: 7800GTX 256/512. Exakte Skalierung: 30%.

Mr. Lolman
2006-07-18, 19:35:04
Hab das ganze mit diversen Links ergänzt. Es kann einfach nicht sein, dass sich 4 unabhängige Quellen irren, bzw beim Benchen falsche Ergebnisse produzieren...

Coda
2006-07-18, 19:37:39
Ich werd mir das später mal genauer anschauen. Es macht keinen Sinn.

Die Idee mit den Wartezyklen taugt zumindest nicht als Erklärung, denn es findet die gleichen Ops an den exakt gleichen Stellen statt - das ganze nur schneller.

Raff
2006-07-18, 19:39:27
Fiel mir ja auch schon bei meiner Voodoo3 2000 auf, die bei ~35% mehr Takt mehr als 40% zulegte. Ok, nicht ganz so extrem, aber es ist das gleiche. Den Thread dazu finde ich nicht mehr ...

MfG,
Raff

Mr. Lolman
2006-07-18, 19:42:33
Coda[/POST]']http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3561896#post3561896
Hier wurde der Core z.B. gleich gelassen und nur der Speicher skaliert.

Imo hat es auf die Wartezyklen kaum Einfluß wie gleichmäßig beide Komponenten übertaktet werden. So gibt es mE einfach günstige GPU/Speicher-Taktkonstellationen und ungünstige (bezogen auf die Wartezyklen) - unabhängig von der Gleichmäßigkeit der Takterhöhungen.

Coda
2006-07-18, 19:48:38
Mr. Lolman[/POST]']Imo hat es auf die Wartezyklen kaum Einfluß wie gleichmäßig beide Komponenten übertaktet werden.
Na klar. Wenn beide gleich beschleunigt werden bleiben die Wartezyklen an der gleichen Stelle. Wenn du die Aktivitäten beider Komponenten über T aufträgst dann kannst du das Band beliebig schnell laufen lassen und es wird trotzdem im Stillstand gleich aussehen.

Und du bleibst mir immer noch eine Erklärung schuldig, warum denn dann die 7800GTX/512 exakt 30% schneller ist.

Mr. Lolman
2006-07-18, 20:00:33
Kommt wahrscheinlich auf den jew. Benchmark in Form von Anzahl/Dauer der Speicherzugriffe an. Wenn du die dem Beispiel auch den GPU Takt um 20% erhöhst hast du trotzdem min 66% Mehrperformance: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3561268&postcount=1289

/edit: ok doch nicht.

Coda
2006-07-18, 20:15:45
Es ändert sich aber nichts an dem Schaubild wenn du beides langsamer oder schneller laufen lässt.

Überhaupt sind da noch übelst die riesigen Fifos dazwischen. Es kommt garantiert nicht zu solchen Stalls - solang der Speicher im Durchschnitt den GPU versorgen kann. Die Fifos dürften mindestens 100 Takte ausgleichen können.

Ich akzeptiere logischer Erklärungen - das ist keine.

Mr. Lolman
2006-07-18, 20:20:04
Hm, irgendwo ist da der Hund drinnen, angesichts div. Benchmarks :|

Ich akzeptiere auch logische Erklärungen, und suche auch danach. Aber wie schon so oft in der Geschichte geschehen, muss man manchmal die Theorie an praktische Erkenntnisse anpassen. Und diese zeigen, dass eine überproportionale Taktsteigerung bei proportionalem OC von GPU und Speicher doch irgendwie möglich ist...

Coda
2006-07-18, 20:39:06
Mr. Lolman[/POST]']Und diese zeigen, dass eine überproportionale Taktsteigerung bei proportionalem OC von GPU und Speicher doch irgendwie möglich ist...
Und ich behaupte dass alle dort irgendwo in den Messungen oder in der Prozentberechnung einen Logikfehler haben. Das kann gar nicht anders sein.

Gedankenexperiment:
Wir nehmen Speicher und GPU und packen beides auf ein Die (eDRAM sozusagen) und stopfen beide an den gleichen Taktgenerator. Jeder Takt ist nur vom vorherigen Zustand abhängig auf einem Halbleiter.

Nehmen wir 1.000.000 Takte. Es ist für den Zustand des Systems völlig unerheblich wie schnell diese ablaufen. Heute 500 und morgen der Rest gibt das gleiche Ergebnis wie das Ganze umgekehrt. (*)

So. Jetzt teilen wir das ganze Ding auf und bauen den RAM wieder aufs PCB lassen das gleiche aber immer noch am gleichen Taktgenerator. Was passiert? Nichts.

Und jetzt bauen wir für jedes Teil nen seperaten Taktgenerator die nicht unbedingt ganz gleichmäßig laufen müssen. Und du willst mir jetzt ernsthaft erzählen dass durch diese Maßnahme sich (*) so ändert, so dass es eine überproportionale Rolle spielt wie schnell das Zeug läuft (vor allem in Anbetracht der Tatsache dass Fifos diese "Gleichlaufschwankungen" zu >99% abfangen)? Und das noch mit einem Zuwachs nicht im einstelligen, sondern im deutlichen zweistelligen Prozentbereich? Ne. Echt nich.

Neomi
2006-07-18, 21:18:14
Nur den Takt von der GPU und deren Speicher zu erhöhen, skaliert ja noch lange nicht alles. Das Restsystem ist auch noch da und muß die Grafikkarte mit Daten füttern. Die einzig wahre Möglichkeit, diese sache auszutesten, wäre es, den kompletten Rechner in eine Art Zeitblase zu packen, in der die Zeit z.B. doppelt so schnell abläuft. Dann sind wirklich alle Wartezyklen identisch, intern läuft die Zeit doppelt so schnell ab und extern liegt die doppelte Framerate vor. Da man aber nicht wirklich die Geschwindigkeit des kompletten Systems verdoppeln kann, muß man sich mit möglichen Seiteneffekten rumplagen.

Ein sehr kurioser Seiteneffekt kann z.B. sein, daß eine etwas langsamere CPU das Gesamtsystem beschleunigt, statt bremst. Eine gleichmäßig übertaktete Grafikkarte kann den gleichen Effekt haben, da die CPU in Relation langsamer wird. Klingt komisch, ist sehr unwahrscheinlich, aber durchaus möglich. Und zwar z.B. in dem Szenario: die CPU füttert die GPU mit Befehlen, die erstmal gepuffert werden. Kann die GPU diese Befehle nicht schnell genug abarbeiten, läuft der Puffer voll und die CPU muß erstmal warten, bis wieder genug Platz im Puffer ist. Durch diese Warterei verliert die CPU mehr Zeit als eine etwas langsamere CPU, die nicht warten muß, weil der Puffer gerade noch schnell genug geleert wird. Wenn die eigentlich schnellere CPU dann zu lange wartet und im Puffer mehr Platz als nötig ist, kann es zum Leerlauf kommen. Und zwar genau dann, wenn aufwändige Berechnungen für die CPU folgen, bevor diese die nächsten Daten an die GPU schicken kann.

Diesen Effekt kenne ich aus eigener Erfahrung von der XBox, eine Vergrößerung des Pushbuffers (da landen die Befehle drin) hat da geholfen. Auf dem PC hat man keine Kontrolle über die Größe des Pushbuffers, das regelt der Treiber. Da der bei Bedarf nachregeln kann (bzw. können sollte) und der Speicher nicht so knapp bemessen ist wie bei der letzten Konsolengeneration, sollte das hier nicht zum Problem werden. Auf dem PC habe ich diesen Effekt jedenfalls noch nicht bemerkt und so groß (wie hinter Lolmans Links angegeben) dürfte der Effekt auch nicht sein, aber prinzipiell möglich ist sowas schon.

tokugawa
2006-07-18, 22:37:27
Mr. Lolman[/POST]']Hm, irgendwo ist da der Hund drinnen, angesichts div. Benchmarks :|

Ich akzeptiere auch logische Erklärungen, und suche auch danach. Aber wie schon so oft in der Geschichte geschehen, muss man manchmal die Theorie an praktische Erkenntnisse anpassen. Und diese zeigen, dass eine überproportionale Taktsteigerung bei proportionalem OC von GPU und Speicher doch irgendwie möglich ist...

Das hat weniger mit Praxis vs Theorie zu tun, sondern mit reiner Logik zu tun. Logik ist unabhängig von Praxis oder Theorie immer wahr, da die Logik beiden übergeordnet ist.

Wenn die Beobachtung der Realität (also der "Praxis") eine Schlußfolgerung bedingt, die nicht logisch ist, muß etwas an der Beobachtung oder Schlußfolgerung faul sein.

DerRob
2006-07-18, 23:19:31
keine ahnung, ob mein gedankenexperiment völliger schwachsinn ist, oder vielleicht doch irgend was dran ist: :biggrin:

stellen wir uns mal vor, die grafikkarte müsste nicht nur die einzelnen frames ansich berechnen, sondern ist zwischendurch auch noch mit einigen für das einzelne bild unabhänigen berechnungen beschäftigt. (für die cpu könnte ich mir so ein szenario recht gut vorstellen, für die grafikkarte hab ich keine ahnung, was genau das sein könnte, in zukunft evtl. physik?)
ein extremes beispiel: 50% der grafikkarten-leistung werden für diese spezielle tätigkeit gebraucht, für die einzelnen frames bleiben noch 50% der leistung übrig. jetzt erhöhen wir die leistung der grafikkarte um 20%, haben also insgesamt 120% zur verfügung. diese andere tätigkeit verbraucht weiterhin 50%, für unsere frames stehen nun aber 70% leistung zur verfügung. in dem fall hätte man also durch 20% mehr leistung der grafikkarte eine scheinbar 40% höhere leistung an ausgegebenen frames. :rolleyes:

Mr. Lolman
2006-07-18, 23:19:37
tokugawa[/POST]']Das hat weniger mit Praxis vs Theorie zu tun, sondern mit reiner Logik zu tun. Logik ist unabhängig von Praxis oder Theorie immer wahr, da die Logik beiden übergeordnet ist.

Wenn die Beobachtung der Realität (also der "Praxis") eine Schlußfolgerung bedingt, die nicht logisch ist, muß etwas an der Beobachtung oder Schlußfolgerung faul sein.

Da in der klassischen Logik Theoreme nur durch tautologischem Determinismus zu erschliessen sind, bedingt eine Widerlegung der Theorie, dass eine gleichmäßige Erhöhung von GPU- und Speichertakt in linearer Mehrleistung resultiert, einer deduktiven Methode. ;)

Imo ist Neomis Ansatz korrekt.

Coda
2006-07-18, 23:27:59
Mr. Lolman[/POST]']Da in der klassischen Logik Theoreme nur durch tautologischem Determinismus zu erschliessen sind ist bedingt eine die Widerlegung der Theorie, dass eine gleichmäßige Erhöhung von GPU- und Speichertakt in linearer Mehrleistung resultiert, einer deduktiven Methode. ;)
Blabla. Damit kommen wir auch nicht weiter.

Ich sage immer noch dass da irgendwas stinkt bei der Berechnung der Prozent-Werte oder bei den Messungen. Was auch immer.

Die 7800GTX 256/512 sprechen immer noch eine ganz andere Sprache.

Mr. Lolman[/POST]']Imo ist Neomies Ansatz korrekt.
Ja mag ja sein, aber damit lassen sich noch lange keine Ergebnisse erklären die aus 15% höherem Takt auf eimal 50% mehr Leistung machen. Das geht einfach nicht.

Neomi
2006-07-19, 00:54:39
Coda[/POST]']Ja mag ja sein, aber damit lassen sich noch lange keine Ergebnisse erklären die aus 15% höherem Takt auf eimal 50% mehr Leistung machen. Das geht einfach nicht.

Das war auch eher ein Beispiel, daß sowas durchaus möglich ist. Daß es sich in diesem Fall um den Effekt handelt, glaube ich aber auch nicht, vor allem nicht bei der Steigerung.

Andererseits... durch 15 % höheren Takt sind zwar definitiv nicht 50 % mehr Leistung drin, aber vielleicht 50 % mehr Bilder pro Sekunde. Das sind ja immerhin zwei verschiedene Dinge, die gerne mal verwechselt werden. Wenn beispielsweise eine Cubemap nicht mehr als 25 mal pro Sekunde neu berechnet werden muß, dann kann man diese Berechnung bei höherer Framerate auf mehr Frames verteilen. Ein durchschnittlicher Frame wird dann billiger zu berechnen, da weniger geleistet werden muß.

Nehmen wir mal als weiteres Beispiel die auf Zellen basierende Bepflanzung von Terrain, so wie im ersten Kapitel von GPU Gems 2. Schreitet die Kamera voran, werden neue Zellen sichtbar, die bepflanzt werden müssen, die neuen Buffer müssen natürlich auch zur Grafikkarte übertragen werden. Bei einer höheren Framerate bewegt sich die Kamera nicht schneller, die Zahl der neuen Zellen pro Sekunde bleibt gleich, die Zahl der neuen Zellen pro Frame nimmt ab. Auch in diesem Szenario wird ein durchschnittlicher Frame billiger bei höherer Framerate.

Es gibt durchaus noch mehr Sachen, bei denen man Ergebnisse des Vorframes weiterverwenden kann oder die aus anderen Gründen nicht in jedem Frame neu berechnet werden müssen. Dann gibt es bei hohen Frameraten eben "Mengenrabatt". Das ist zwar jetzt keine definitive Erklärung für den konkreten Fall (zugegebenermaßen habe ich nicht mal nachgeschaut, um welche Spiele es eigentlich dabei geht), aber wenigstens eine plausible Möglichkeit.

Coda
2006-07-19, 01:04:05
Das ist bisher wirklich noch die beste Erklärung. Aber irgendwie glaube ich nicht dass viele Spiele sowas so radikal einsetzen.

DerRob
2006-07-19, 13:56:00
Neomi[/POST]']Nehmen wir mal als weiteres Beispiel die auf Zellen basierende Bepflanzung von Terrain, so wie im ersten Kapitel von GPU Gems 2. Schreitet die Kamera voran, werden neue Zellen sichtbar, die bepflanzt werden müssen, die neuen Buffer müssen natürlich auch zur Grafikkarte übertragen werden. Bei einer höheren Framerate bewegt sich die Kamera nicht schneller, die Zahl der neuen Zellen pro Sekunde bleibt gleich, die Zahl der neuen Zellen pro Frame nimmt ab. Auch in diesem Szenario wird ein durchschnittlicher Frame billiger bei höherer Framerate.
sowas meinte ich. oder auch die reflektionen auf einer wasseroberfläche, die z.b. nur 5x/10x pro sekunde aktualisiert werden.

Hakkerstiwwel
2006-07-19, 15:54:09
Mit zunehemdem GPU Takt kann die Effizienz u.a. des Memory Controllers von z.b 0.90 auf 0.95 steigen, weshalb eine Taktsteigerung von sowohl GPU als auch Mem von 10% auch mal (in diesem Beispiel) in einer Performancesteigerung von 16% resultieren kann.

Hakkerstiwwel
2006-07-19, 16:36:15
Spasstiger[/POST]']Da kann was nicht stimmen. Wie kann eine Radeon 9800 Pro um 50% schneller sein als eine Radeon 9700 Pro, wenn der Chiptakt 17% und der Speichertakt 10% höher ist? Selbst wenn beide Takterhöhungen zusammen 1:1 wirken würden (was ja nicht der Fall ist), käme man nur auf eine Mehrleistung von 29%.
In der Praxis ist eine 9800 Pro meist 10% schneller als eine 9700 Pro, was gerade der Speichertakterhöhung entspricht (eine Kette ist halt nur so stark wie ihr schwächstes Glied, was auch bei Grafikkarten oftmals gilt).
iirc fuehrte Ati damals die Stageoptimierung des AF ein, welche anfangs nur auf dem R350 freigeschaltet war.