PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GPUs zum Rechnen missbrauchen *ggg*


Senior Sanchez
2003-12-22, 09:40:06
http://developers.slashdot.org/developers/03/12/21/169200.shtml?tid=152&tid=185

Ich hab da ja auch schonmal drüber nachgedacht, klingt jedenfalls recht interessant, gerade für rechenintensive Dinge wir RC5-72 oder Seti@home, weil da schlummert doch ne enorme Rechenleistung in den Karten.

Is jetzt bloß die Frage, wie das genau funktioniert und ob das auch mit jedem GPU Beschleuniger geht, bloß da is im netz noch nix zu finden. Kennt sich da vllt trotzdem jemand mit aus?


mfg Senior Sanchez

Tesseract
2003-12-22, 10:01:02
afaik geht das mit jeder graka ab DX9

DrumDub
2003-12-22, 11:56:55
Original geschrieben von Tesseract
afaik geht das mit jeder graka ab DX9

jupp. siehe auch:

Retro - Eyal Teler, Runner up

Overview: "You've run the program, I assume, and so viewed the magnificent earth-shattering graphics -- at least for the early 1980s. This program isn't about fancy graphics but about showing the computational power of pixel shaders 2.0. All the game logic is in pixel shaders; the C++ code just performs initialisation and stores the time and key press in constants for the shaders to read."

An innovative and audacious use of shaders and, well, its Frogger!!

http://www.beyond3d.com/articles/shadercomp/results/

Gast
2003-12-22, 13:52:56
Im grunde ist doch eine GraKa eine FPU. Oder?

smileyyy
2003-12-22, 16:10:31
kann ICH das für was verwenden? zb: zum Filmerippen :D??

Gast
2003-12-22, 16:33:21
Oder für Seti@home?

Bebe