Marscel
2008-12-17, 17:45:53
Ich habe hier mehrere Java-Anwendungen, die setzen auf jOGL auf (Windows XP, Nvidia Geforce 6600GT, Java 1.6).
Die Sache ist, bei ziemlich simplen Anwendungen mit wenigen Polygonen (etwa wie "glxgears") ist die Performance OK (mehrere Hundert fps), die CPU Auslastung allerdings stets 99%.
Bei komplexeren Sachen, ich hab hier etwa 140.000 Punkte, die sukzessive über primitve-Linien verbunden sind, ist die Auslastung der CPU natürlich ebenfalls 99%, die Framerate liegt bei einer recht geringen Auflösung schon nur bei 1-3 fps.
Jetzt frage ich, wird das Rendering für jOGL softwareseitig getan, ohne Mitwirkung der Grafikkarte oder liegt eine Programmschwäche vor?
Die Sache ist, bei ziemlich simplen Anwendungen mit wenigen Polygonen (etwa wie "glxgears") ist die Performance OK (mehrere Hundert fps), die CPU Auslastung allerdings stets 99%.
Bei komplexeren Sachen, ich hab hier etwa 140.000 Punkte, die sukzessive über primitve-Linien verbunden sind, ist die Auslastung der CPU natürlich ebenfalls 99%, die Framerate liegt bei einer recht geringen Auflösung schon nur bei 1-3 fps.
Jetzt frage ich, wird das Rendering für jOGL softwareseitig getan, ohne Mitwirkung der Grafikkarte oder liegt eine Programmschwäche vor?