PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : was kosten Shader?


ollix
2006-04-24, 14:47:28
Hi,

ich möchte in einem GLSL Shader einen (mehr oder weniger) komplexeren Term berechnen, jetzt suche ich nach einer Möglichkeit zu zeigen, daß die Implementation einer optimierten bzw. vereinfachten Variante des Terms vom Grafikchip auch mit ein bißchen schnellerer Ausführungszeit belohnt wird. Ich möchte also mit einer Art Profiler messen, wie lange der Shader mit einem bestimmten Satz an Instruktionen im Vergleich zu einem anderen braucht

Gibt es in der Richtung was bzw. kann man das praktikabel messen?

danke

Coda
2006-04-24, 14:56:49
Hmm es gibt ne neue Extension um zu messen wie lang etwas in der Pipeline braucht aber mir fällt grad leider nicht ein wie das Ding heißt :(

Asmodeus
2006-04-24, 15:33:29
GL_EXT_timer_query müßte diese Extension sein. Dürfte aber noch in keinem Treiber implementiert sein, meines Wissens nach.

Gruss, Carsten.

Coda
2006-04-24, 15:41:58
Also meiner kann es (Forceware 84.43)

Asmodeus
2006-04-24, 15:44:20
Also meiner kann es (Forceware 84.43)

Ups, da fällt mir ein, ich sollte mal wieder meinen Treiber erneuern. ;)

Gruss, Carsten.

Corrail
2006-04-24, 19:23:28
GL_EXT_timer_query müßte diese Extension sein. Dürfte aber noch in keinem Treiber implementiert sein, meines Wissens nach.

Gibts dazu schon eine Specification?

Asmodeus
2006-04-25, 08:32:39
Gibts dazu schon eine Specification?

Eine Spezifikation habe ich auch noch nicht finden können. Eine Einführung mit einem kleinen Code-Beispiel gibt es aber in der einen GDC-Präsentation von Nvidia ganz am Ende.

Nvidia OpenGL Update (http://download.nvidia.com/developer/presentations/2006/gdc/2006-GDC_OpenGL_NV_exts.pdf)

Gruss, Carsten.

ollix
2006-04-27, 12:09:18
Vielen Dank, das klingt sehr gut und werde gleich mal versuchen, einige Tests zu fahren.
:up: