PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Höhere Auflösung geht auf...?


resonatorman
2004-01-15, 18:09:21
Eine Frage an die Cracks :
Wenn ich die Auflösung erhöhe, was wird der Grafikkarte dann mehr abverlangt, Füllrate oder Bandbreite?

Tesseract
2004-01-15, 18:10:07
eher füllrate würde ich sagen

Aquaschaf
2004-01-15, 19:22:48
Füllrate

Gast
2004-01-15, 19:42:14
also könnte man vermuten dass der deltachrome mit erhöhung der auflösung besser skaliert als die konkurrenz? an füllrate mangelts ihm ja nich grad...

Piffan
2004-01-15, 20:11:00
Ich quote für halbe halbe.....beides wird gleichermaßen beansprucht. Die Frage ist nur, wo der Flaschenhals sitzt. Bei unausgewogenem Verhältnis (z.B. fehlen ja wohl die bandbreitensparenden Massnahmen, wie man sie bei NV und Ati hat), könnte der Speicher sich als die Fußfessel erweisen......imho sind alle Theorien kappes, einzig geeignete Benches zeigen die Wahrheit....

Xmas
2004-01-17, 01:11:11
Original geschrieben von resonatorman
Eine Frage an die Cracks :
Wenn ich die Auflösung erhöhe, was wird der Grafikkarte dann mehr abverlangt, Füllrate oder Bandbreite?
Das ist sehr schwer zu sagen und auch von der Anwendung abhängig, hält sich aber theoretisch ziemlich die Waage. Denn am Verhältnis benötigte Bandbreite pro gerendertem Pixel ändert sich bei der Erhöhung der Auflösung auf den ersten Blick gar nichts. Tatsächlich sollte bei höherer Auflösung etwas Texturbandbreite eingespart werden können, denn mehr als die höchste Mipmap gibt es nunmal nicht. Andererseits spart man genau dadurch auch Füllrate, weil dann nur bilinear gefiltert werden muss.

Entscheidend ist dann wohl die Bandbreite, die für den Scanout benötigt wird. Denn während die fps geringer werden, müssen gerenderte Pixel eventuell mehrmals auf den Bildschirm ausgegeben werden, womit sich das Verhältnis hin zu mehr benötigter Bandbreite verschiebt.

Grundsätzlich gilt aber, dass mit höherer Auflösung die Effizienz steigt.

resonatorman
2004-01-17, 06:56:40
Original geschrieben von Xmas
Grundsätzlich gilt aber, dass mit höherer Auflösung die Effizienz steigt.
Das hieße dann wohl, daß z.B. beim Sprung von 1024 auf 1280 der Leistungsverlust geringer ist, als aufgrund der höheren Bildqualität zu erwarten wäre; somit die BQ stärker ansteigt, als die Leistung absinkt (also eine nichtlineare Beziehung)?

Haarmann
2004-01-17, 09:29:33
Bandbreite eigentlich. Die Frage ist aber, ob vorher die Bandbreite knapp war oder die Füllrate. Sofern das Spiel aber viel Füllrate fordert und aufgrund eines sehr gut wirkenden Caches die Bandbreite weniger belastet wird, dann kanns passieren, dass die Füllrate schneller wegbricht. Der Normalfall ist aber wohl ein Bandbreitenproblem.

Piffan
2004-01-17, 10:05:58
Dass es am Einzelfall liegt, wurde ja schon gesagt. Aber wurde schon erwähnt, dass die Filterqualität (Grad des AF- Levels) extrem auf die Füllrate schlägt?

Wie schon oben gesagt, nur ein Bench eines konkreten Spieles zeigt es. Meine Theorie: Je neuer die Spiele sind, um so eher nuckeln die Füllrate (viele Texturen überlagert und auch enorm viele Tranzparenzen (z.B. Rauch bei HDR, Rückkehr des Königs). Noch ein Punkt: komplizierte Shader bremsen auch gewaltig die Performance. Schlägt man dieses Phänomen nun der Füllraten- Limitierung zu ?

mapel110
2004-01-17, 13:14:26
ich meine mal was von pixelshader-füllrate gehört zu haben. ob das "nur" eine wort-kreation von aths war, weiss ich allerdings nicht. :)

Quasar
2004-01-17, 13:28:02
Nein, auch die Shader arbeiten auf Pixelbasis und fallen daher unter die Kategorie "Füllrate", auch wenn da ein einziger Füllratentest noch weit weniger aussagekräftig ist, als bei fixed-function single- und multitexturing.

Xmas
2004-01-17, 20:55:45
Original geschrieben von resonatorman
Das hieße dann wohl, daß z.B. beim Sprung von 1024 auf 1280 der Leistungsverlust geringer ist, als aufgrund der höheren Bildqualität zu erwarten wäre; somit die BQ stärker ansteigt, als die Leistung absinkt (also eine nichtlineare Beziehung)?
Bildqualität würde ich nicht wirklich messen wollen, aber der Leistungsverlust ist geringer als die Zunahme der Anzahl der Pixel. Sprich: Wenn man in einer grafikkartenlimitierten Situation in 800x600 auf 100 fps kommt, hat man in 1600x1200 üblicherweise mehr als 25 fps, trotz viermal so vielen Pixeln, die es zu berechnen gilt.

Was ich im obigen Posting noch vergessen habe, ist die Vertex-Bandbreite. Da diese ja pro Frame exakt gleich bleibt, sinkt die Bandbreite pro Pixel entsprechend, was der Zunahme durch den Scanout entgegenwirkt. Zusammenfassend: Das Verhältnis benötigte Bandbreite pro Füllrate ändert sich bei steigender Auflösung nur gering. Wenn eines davon in niedriger Auflösung limitiert, wird es das auch in hoher Auflösung tun.

Demirug
2004-01-17, 21:28:36
Sowas wie eine Pixelshader-füllrate gibt eigentlich nicht. Sowieso ist der Begriff der Füllrate langsam aber sicher überholt.

Man sollte besser von einer Shadingleistung gemesen in Pixel oder Fragmente pro Sekunde sprechen.