PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo ist GPGPU?


=Floi=
2010-03-20, 02:38:31
Hallo
fast jedem user sind die vorteile klar und die möglichkeiten für einen rasanten geschwindigkeitzuwachs sind auch enorm breit gefächert, nur wo ist die passende tolle software?
tag für tag und monat für monat vergeht und es kommt NICHTS!
ich hätte da ein wenig mehr erwartet und es lässt die tolle rechenleistung der modernen karten schon ein wenig wertlos erscheinen. vor allem bei ati wäre hier ein breiter einsatz von GPGPU von vorteil, weil deren karten quasi alles mit rechenleistung geradezu erschlagen können. eine 5970er @ 950mhz stemmt über 6 gflop auf den boden. diese sind quasi nicht nutzbar. eigentlich schade drum. :rolleyes:

mapel110
2010-03-20, 02:43:14
Außer Video-Encoding fällt den Programmieren auch nicht viel ein. Flash-Beschleunigung gibts halt noch. Browser-Beschleunigung kommt auch noch. Das wars dann wohl erstmal. Es scheint noch zu dauern, bis in dem Bereich genügend geforscht wurde. Oder es kommt nix mehr dazu.

Coda
2010-03-20, 02:51:11
:uconf:

http://www.nvidia.com/object/cuda_apps_flash_new.html

Nein ernsthaft: Was hat Flash-Beschleunigung und Browser-Beschleunigung mit GPGPU zu tun? Das geht über die Video- und 3D-APIs.

Ansonsten mangelt es im Konsumenten-Markt neben 3D-Grafik, Audio/Video und Physik eben an massiv parallelisierbaren Aufgaben. Man muss sich die Use-Cases wohl also erstmal erschaffen.

Was sonst gibt es denn auch überhaupt noch wo die CPU-Leistung limitieren würde?

san.salvador
2010-03-20, 03:27:02
Selbiges wollte ich auch sagen. Welcher Consumer tut denn schon etwas (anderes als Video-Encoding), dass soviel Leistung braucht, dass der billige Vierkerner im Aldirechner nicht mehr hinterherkommt?.
Auch wenn ich ein As in Sachen GPGPU-Programmierung wäre - ich wüsste nicht, was ich damit anfangen sollte.

Im professionellen Bereich siehts anders aus, aber darum gehts ja nicht.

mAxmUrdErEr
2010-03-20, 07:13:18
Also ich würd mich sehr wünschen, dass WinRAR zum Beispiel ein bisserl schneller läuft auf den hohen Komprimierungsstufen. Da vergeht selbst mit Core i7@4GHZ doch eine Weile wenn man viel komprimiert. MultiCore Support gibts für das Programm ja schon, wäre da CUDA-/Stream-Support technisch möglich?

Gast
2010-03-20, 09:40:51
wie siehts mit 3D-Rendering aus? das wird doch bis heute auch nicht von der GPU getragen, liese sich aber schön parallelisieren. korrigiert mich bitte, wenn ich falsch liege...

Gast
2010-03-20, 11:11:43
Das ist ja eine tolle Idee, eventuell könnte man die gesamte Berechnung der Grafik in Spielen auf die GPU auslagern. Seltsam, dass da bisher noch keiner drauf gekommen ist... :ugly:

Gast
2010-03-20, 11:39:08
Das ist ja eine tolle Idee, eventuell könnte man die gesamte Berechnung der Grafik in Spielen auf die GPU auslagern. Seltsam, dass da bisher noch keiner drauf gekommen ist... :ugly:

Er meinte 3D-Rendering ala ToyStory etc...

deekey777
2010-03-20, 12:23:51
Hallo
fast jedem user sind die vorteile klar und die möglichkeiten für einen rasanten geschwindigkeitzuwachs sind auch enorm breit gefächert, nur wo ist die passende tolle software?
tag für tag und monat für monat vergeht und es kommt NICHTS!
ich hätte da ein wenig mehr erwartet und es lässt die tolle rechenleistung der modernen karten schon ein wenig wertlos erscheinen. vor allem bei ati wäre hier ein breiter einsatz von GPGPU von vorteil, weil deren karten quasi alles mit rechenleistung geradezu erschlagen können. eine 5970er @ 950mhz stemmt über 6 gflop auf den boden. diese sind quasi nicht nutzbar. eigentlich schade drum. :rolleyes:
Frage: Sind Spiele, die DirectCompute (STALKER CoP) oder C for CUDA (PhysX-Zeug, aber auch zusätzliche Effekte in Just Cause 2) nutzen, GPGPU-Anwendungen?

Es gibt im Bereich Videoencoding/Videoberarbeitung mehr als genug Anwendungen, die auf GPGPU setzen. Was erwartest du noch? Grafikkarten werden auch von Antiviren-Programmen benutzt, aber im Consumer-Bereich ist das einfach sinnlos, da es Flaschenhälse gibt, die die Auslagerung auf GPU sinnlos machen.
Es ist recht sinnlos und weltfremd, GPGPU-Anwendungen zu entwickeln, die auf gewöhnlichen Rechnern ihre Power nicht entfalten können, wenn zB die Festplatten zu lahm sind, die Zeit von der CPU zur Grafikkarte und zurück zu lang sind, usw. Stichwort Ferrari im Stau.

Aquaschaf
2010-03-20, 12:36:47
wie siehts mit 3D-Rendering aus? das wird doch bis heute auch nicht von der GPU getragen, liese sich aber schön parallelisieren. korrigiert mich bitte, wenn ich falsch liege...

Von Nvidia gibt (bzw. gab, es wird ja schon eine Weile nicht mehr weiterentwickelt) es z.B. Gelato. Meines Wissens nach sind in dem Bereich verschiedene Produkte zur Zeit in Entwicklung.

Hallo
fast jedem user sind die vorteile klar und die möglichkeiten für einen rasanten geschwindigkeitzuwachs sind auch enorm breit gefächert

Eben nicht. Wie bereits gesagt ist der Einsatz für bestehende Consumer-Anwendungen relativ beschränkt. Man braucht für GPGPU massiv datenparallele Probleme, die dazu noch eher rechen- als speicherintensiv sind. Was man für CPUs will geht zwar prinzipiell in die selbe Richtung, aber ob man jetzt 16 Threads mit einigen Megabytes an Cache zur Verfügung hat, oder mit über 5000 Threads auf 1MB schnellem Speicher arbeiten muss (Fermi) ist dann ein qualitativer Unterschied. Mich würde es wundern wenn nicht früher oder später jemand neue Anwendungen im Consumer-Bereich findet die von GPGPU profitieren bzw. es eher noch voraussetzen, aber das braucht wahrscheinlich noch Zeit.

tits@home.com
2010-03-20, 12:55:41
Juhu, in etwa 50 Jahren kann ich dann endlich das Betriebsystem auf die GPU auslagern/installieren. Am Ende wird die CPU dann ueberfluessig.......

:o)

jasihasi
2010-03-20, 13:10:15
Naja, crunchen lässt sich damit ja auch noch. =)

Air Force One
2010-03-20, 13:28:41
http://www.blendernation.com/gpu-rendering-with-luxrender-is-coming/

Gast
2010-03-20, 15:13:28
wie siehts mit 3D-Rendering aus? das wird doch bis heute auch nicht von der GPU getragen, liese sich aber schön parallelisieren. korrigiert mich bitte, wenn ich falsch liege...

http://www.refractivesoftware.com/index.html
http://www.luxrender.net/wiki/index.php?title=Luxrender_and_OpenCL
http://www.randomcontrol.com/arion
http://furryball.aaa-studio.cz/
http://www.vray.com/vray_gpu/

Gast
2010-03-20, 16:23:55
Das ist halt noch ein aktives Forschungsgebiet, bis die Anwendungen "production-ready" sind dürfte schon noch etwas Zeit vergehen. Ideen gibts jedenfalls schon ein paar... ;)

http://www.youtube.com/watch?v=Gnuscp3stF8
http://www.youtube.com/user/gpu4vision
http://gpu4vision.icg.tugraz.at/

Stebs
2010-03-20, 17:11:13
Waaa, Gäste mit sinnvollen interessanten Links, gleich 2x nacheinander...
Die Welt geht unter :eek:

Danke! :wink:

DaBrain
2010-03-20, 17:27:08
wie siehts mit 3D-Rendering aus? das wird doch bis heute auch nicht von der GPU getragen, liese sich aber schön parallelisieren. korrigiert mich bitte, wenn ich falsch liege...


Ich finde iray recht interessant... aber wie brauchbar es am Ende sein wird kann ich noch schwer abschätzen.

http://www.mentalimages.com/products/iray.html

RavenTS
2010-03-20, 17:32:14
Naja, crunchen lässt sich damit ja auch noch. =)

Dito. Da gibts ja auch schon einige Gehversuche.
Wo GPGPU ist? Derzeit vornehmlich im Profibereich oder dort wie viel Leistung benötigt wird wie beim Videorendern. Durch Multicore-CPUs wird der Rechenleistungsbedarf der Heimanwender derzeit einfacher und ausreichend gedeckt...

_DrillSarge]I[
2010-03-20, 22:36:43
Es gibt im Bereich Videoencoding/Videoberarbeitung mehr als genug Anwendungen, die auf GPGPU setzen.
nun ja, das meiste davon ist aber entweder ein schlechter witz (mangelnde einstellmöglichkeiten, miese quali - meist reichts maximal für youtube/ipodfilmchen, auch nicht viel schneller als mit nem quad usw.) oder die "beschleunigung" beschränkt sich auf wenige zwischenschritte, welche eigentlich auch die am wenigsten zeitintensiven sind. alles was ich bis jetzt in diesem bereich sehen konnte (egal ob cuda oder stream, wobei es bei stream noch ärmlicher aussieht) war eigentlich müll.

Sven77
2010-03-20, 22:45:28
Ich finde iray recht interessant... aber wie brauchbar es am Ende sein wird kann ich noch schwer abschätzen.

http://www.mentalimages.com/products/iray.html

Vielleicht kommt Mental Images dann mal in den Geschwindigkeitsbereich den andere auf CPU anbieten :freak:

Deinorius
2010-03-20, 22:53:52
I[;7917235']alles was ich bis jetzt in diesem bereich sehen konnte (egal ob cuda oder stream, wobei es bei stream noch ärmlicher aussieht) war eigentlich müll.


Bei gleicher Bildqualität dürfte x264 sogar schneller sein! :freak:

Gast
2010-03-20, 23:27:51
Videoencoding ist doch nicht das einzige wofür man GPGPU gebrauchen kann. Es ist sogar ein denkbar schlechtes Beispiel weil nicht gut parallelisierbar und recht sprunglastig. Sowas mögen GPUs gar nicht.
Wieso das immer so dargestellt wird als wäre Videoencoding das Musterbeispiel für GPGPU versteh ich nicht.

Die interessanten Sachen kommen erst, auch auf die Gefahr hin mich zu wiederholen, da wird noch aktiv geforscht. Viele mathematische Werkzeuge und Algorithmen müssen erst entwickelt werden - und können erst jetzt entwickelt werden da man auch die nötige Rechenpower dazu hat.
Sowas wie Echtzeit Optical Flow kann man ohne GPUs vergessen, auch mit 8 Kernern kommt man da nicht hin. Selbiges gilt für eine ganze Menge Probleme und Algorithmen, man denke nur an neuere semiautomatische Segmentierungsverfahren. Ohne GPU geht da gar nichts - und in paar Jahren wird man nicht mehr im Photoshop pixelweise und langwierig ausschneiden, da geht das mit ein paar Klicks von selbst.

fdk
2010-03-20, 23:34:12
Ändert alles nix dran das Ottonormaluser halt vorwiegend content konsumiert und sich die kreative Tätigkeit auf dem Level von "Einladung 40er, Einladung Taufe Chantal" abspielt. Da kann man halt mit noch so viel Rechenleistung nichts rausreißen.
95% Konsumieren, 4% Kommentieren und der Rest ist kreativ tätig. So war doch die social-networking Formel in etwa.

Gast
2010-03-21, 04:29:33
Er meinte 3D-Rendering ala ToyStory etc...

Welche Privatperson rendert daheim schon einen Film wie ToyStory?

Den meisten Amateuren ist selbst ein normaler PC schnell genug, für die paar Laienhaften zusammengebauten 3d Renderszenen von denen dann eh nur 1-2 Bilder gerendert weden sollen.

Brauchen tut das nur der, der das professionell zum Geld verdienen macht.
Aber hey, das ist ja dann schon wieder ein UseCase fürs Gerwerbe und nicht für Privatzwecke!

Gast
2010-03-21, 04:35:35
:
Ansonsten mangelt es im Konsumenten-Markt neben 3D-Grafik, Audio/Video und Physik eben an massiv parallelisierbaren Aufgaben. Man muss sich die Use-Cases wohl also erstmal erschaffen.



Vielleicht sollten wir auch erstmal die Use-Case Fälle für Consumer zusammenfassen:

1. Video encoding/decoding
2. Verschlüsselung (und das auch nur bedingt Abhängig von der Art der Verschlüsselungsmethode, d.h. ne Verschlüsselung mit PGP einer 500 MB fetten Datei kann schon ne Weile dauern, aber on the Fly Verschlüsselung wie Truecrypt braucht wiederum fast nix)
3. Packen von Daten (ZIP, RAR, 7z, GZ, BZip2 etc.)
4. Compilieren von Quellcode, das machen z.B. die Privatanwender die daheim so etwas wie Gentoo einsetzen. Für die meisten selsbtentwickelten Hobbyprogrammierprojekte reicht aber auch die Leistung der CPU.


So, daß wars dann schon.
Das sind alle USE Case Fälle für Privatanwender die mir spontan einfällen.

Es gibt zwar noch Rariäten wie Primzahlensuchfetischisten und Bruteforceentschlüsselungsfanatiker, aber die sind völlig in der Minderheit,
so daß man die eigentlich nicht mehr mitzählen kann.
Der typische DAU Joe Six Pack User, a ka Otto Normalverbraucher braucht das aber alles nicht, sondern nur die oben 4 aufgezählten Use Case Dinge.

Gast
2010-03-21, 04:44:54
http://www.blendernation.com/gpu-rendering-with-luxrender-is-coming/

Kein Anwendungsgebiet für Privatanwender.



Der Freiberufler oder 1 Mann Ich-AG Betrieb der als 3d Animator / Modellierer arbeitet ist kein Privatanwender.

_DrillSarge]I[
2010-03-21, 13:53:30
2. Verschlüsselung
nun ja, sachen wie IGHASHGPU/RAR GPU sind teilweise schon immens nützlich :D. aber ob das "der consumer" so oft macht, glaube ich auch nicht.

Gast
2010-03-21, 15:24:43
I[;7917235']nun ja, das meiste davon ist aber entweder ein schlechter witz (mangelnde einstellmöglichkeiten, miese quali - meist reichts maximal für youtube/ipodfilmchen,


Schau dir mal mediacoder an. Der verwendet den CUDA-Encoder und lässt einige Einstellmöglichkeiten zu.

Und für welche (legalen) Zwecke außer zur Konvertierung für Youtube bzw. mobile Geräte sollte denn ein Privatanwender überhaupt Videoencoding brauchen?

Gast
2010-03-21, 21:51:41
Und für welche (legalen) Zwecke außer zur Konvertierung für Youtube bzw. mobile Geräte sollte denn ein Privatanwender überhaupt Videoencoding brauchen?

Um die MiniDV Urlaubsvideos vom Band auf die DVD zu bannen.

Auf der DVD ist dafür nämlich leider zu wenig Platz.

Deinorius
2010-03-21, 22:12:43
Ist dir aufgefallen, dass die beiden Sätze sich widersprechen? Andererseits hast du allgemein gesehen aber auch nicht unrecht.

Die Hobbyfilmer möchten ihre Videos entsprechend archiviert wissen. JEDOCH, um Videos in MPEG-2 DVDs zu konvertieren, braucht man keine GPU-Encoder. Selbst mit DualCore CPUs wird schneller als Echtzeit komprimiert.

Primär geht es also um H.264 Encoding und dafür kann man auch Youtube/Vimeo Uploader heranziehen. Immerhin gibts da auch HD.

deekey777
2010-03-21, 23:13:07
Bietet Nvidia überhaupt MPEG2-Encoding über CUDA an?
ATi tut das definitiv.

1. Video encoding/decoding
Das Decoding hat mit GPGPU eigentlich nichts zu tun. Es gibt meines Wissens keinen einzigen Decoder, der die Shader-Einheiten der GPUs nutzt. CoreAVC nutzt über die im CUDA-Paket enthaltene API den VP2/3.
Schau dir mal mediacoder an. Der verwendet den CUDA-Encoder und lässt einige Einstellmöglichkeiten zu.

Und für welche (legalen) Zwecke außer zur Konvertierung für Youtube bzw. mobile Geräte sollte denn ein Privatanwender überhaupt Videoencoding brauchen?
Also für die illegalen Zwecke ist auch der Cuda-Encoder eher unbrauchbar.
Videoencoding ist doch nicht das einzige wofür man GPGPU gebrauchen kann. Es ist sogar ein denkbar schlechtes Beispiel weil nicht gut parallelisierbar und recht sprunglastig. Sowas mögen GPUs gar nicht.
Wieso das immer so dargestellt wird als wäre Videoencoding das Musterbeispiel für GPGPU versteh ich nicht.
.
Man kann es vielleicht so formulieren: Je komlpizierter es wird, um so weniger kann man parallelisieren. Und dies gleichen die GPU-Encoder (besser gesagt nur der CUDA-Encoder) durch die Erhöhung der Bitrate.
Das ist der Grund, warum x264 besser ist. Wenn man ehrliche Vergleiche macht, so haben die GPU-Encoder nachsehen.
DarkShikari schrieb mal, dass eine Kombi aus CPU&GPU beim Videoencoding das Ziel wäre.

Deinorius
2010-03-21, 23:31:25
DarkShikari schrieb mal, dass eine Kombi aus CPU&GPU beim Videoencoding das Ziel wäre.


Ich versteh überhaupt nicht, wieso man die CPU komplett aus dem Spiel lassen sollte, allgemein gesagt. So wie ich das immer herauslese, reden alle immer davon CPU-Programme zu 100 % auf GPU zu übertragen, als ob es in Zukunft Systeme geben würde, die keine CPU mehr brauchen würden. (Aussagen von den jeweiligen Herstellern lass ich nicht gelten. :freak:)
Spiele können schließlich auch beides gut nutzen. (Auch wenn ich hier Gefahr laufe, Äpfel mit Birnen zu vergleichen.)

Und zu Dark Shikari: Damit wäre wohl primär CABAC gemeint, welches sich schlecht parallelisieren lässt. Gibt es aber noch etwas? Sind die B-Frames nicht auch ein Punkt?

Gast
2010-03-21, 23:33:21
Um die MiniDV Urlaubsvideos vom Band auf die DVD zu bannen.

DVD=MPEG2, Cuda-Encoder=H.264, da passt was nicht zusammen, abgesehen davon, dass MPEG2 im Gegensatz zu H.264 schon auf der CPU verdammt schnell ist und wohl wesentlich weniger Potential für GPGPU hat.

Aquaschaf
2010-03-22, 02:06:29
4. Compilieren von Quellcode, das machen z.B. die Privatanwender die daheim so etwas wie Gentoo einsetzen. Für die meisten selsbtentwickelten Hobbyprogrammierprojekte reicht aber auch die Leistung der CPU.

Das ist kein use case für GPGPU.

Gast
2010-03-22, 02:14:49
Ist dir aufgefallen, dass die beiden Sätze sich widersprechen?


Nö, denn das zu wenig Platz auf der DVD bezieht sich im Kontext ja auf die Datenmenge die die MiniDV ohne nachträgliche enkodierung liefert.




Die Hobbyfilmer möchten ihre Videos entsprechend archiviert wissen. JEDOCH, um Videos in MPEG-2 DVDs zu konvertieren, braucht man keine GPU-Encoder. Selbst mit DualCore CPUs wird schneller als Echtzeit komprimiert.

Ja richtig, aber wer viele Videos in einem Rutsch enkoden will, der profitiert davon dennoch. Ist also schneller fertig.

Und bei MPEG-4 ASP/AVC ist es nach wie vor noch relevant, vor allem bei AVC.

Gast
2010-03-22, 02:16:41
Das ist kein use case für GPGPU.

Es fehlt nur ein entsprechender Compiler.

Aquaschaf
2010-03-22, 09:43:45
Es fehlt nur ein entsprechender Compiler.

Ja, weil ein Compiler so ziemlich das letzte Stück Software ist das von GPGPU profitieren könnte.

josefYY
2010-03-22, 10:37:23
...
rechenleistung geradezu erschlagen können. eine 5970er @ 950mhz stemmt über 6 gflop auf den boden. diese sind quasi nicht nutzbar. eigentlich schade drum. :rolleyes:

Du meint wohl 6 tflop :wink:

dllfreak2001
2010-03-22, 10:38:42
Frage: Wo ist GPGPU?
Antwort: Auf den Marketingfolien!

Ich entschied mich für meine Grafikkarte unter anderem auch wegen der GPGPU-Fähigkeiten. Ich wollte Videos schnell umwandeln und direkt aus der
Schnittsoftware bereit für die DVD machen. Damals wusste ich aber noch nicht, dass es für NVidia entweder keine solche Software gibt oder diese extrem teuer würde.
Bei den meisten Programmen beschränkt sich die GPU-Beschleunigung auf das
Effektprocessing oder es wird das falsche Format unterstützt (wer guckt primär Handy-Videos?).
Wenn man Videos in entsprechender Qualität zu Mpeg2 umwandelt, dauert das auch seine Zeit. Ob ich da 45 Minuten oder 5 Minuten sitze macht für mich sehr wohl einen Unterschied und hier hätte ich mehr erwartet.

PHuV
2010-03-22, 14:03:24
Eigentlich sollte sich GPGPU auch gut für Audiobearbeitung gut eignen, sprich Hall, Echo und diverse Effekte. Dann könnte man sich die teuren Powercore und UAD-Karten sparen.

SentinelBorg
2010-03-22, 15:42:08
Laut heise.de soll der IE9 Javascripts auf der GPU compilen. ^^

Sephiroth
2010-03-22, 15:59:18
Offtopic Thema zur Frage nach einem geeigneten GPU Encoder abgesplittet (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479869).

Aquaschaf
2010-03-22, 16:00:20
Laut heise.de soll der IE9 Javascripts auf der GPU compilen. ^^

Das war ein Fehler im Artikel den sie mittlerweile korrigiert haben. IE9 benutzt freie CPU cores, nicht die GPU.

Coda
2010-03-22, 16:23:42
Es gibt auch so ziemlich nichts ungeeigneteres für GPUs als Kompilierung X-D

SentinelBorg
2010-03-22, 17:04:21
Ok, hatte mich auch schon gewundert. :D

Spasstiger
2010-03-22, 19:57:57
GPGPU findet man vor allem im akademischen Bereich. Viel (theoretische) Rechenleistung für wenig Geld, genau das Richtige für staatlich finanzierte Hochschulen.

Air Force One
2010-03-22, 21:24:50
Wie schaut es den eig. mit der Qualität aus?
Liefert hier die CPU oder die GPU das bessere Ergebnis?
Jetzt mal auf Rendering und Encodierung bezogen.

Gibt es hier z.B Befehle die nur die CPU kann oder so?

Gibt ja Spiele die einen Software Modus unterstützen, wie z.B UT04.
Da schaut das Spiel anders aus als in Hardware, läuft dafür aber deutlich schlechter.

deekey777
2010-03-22, 21:44:39
Ich versteh überhaupt nicht, wieso man die CPU komplett aus dem Spiel lassen sollte, allgemein gesagt. So wie ich das immer herauslese, reden alle immer davon CPU-Programme zu 100 % auf GPU zu übertragen, als ob es in Zukunft Systeme geben würde, die keine CPU mehr brauchen würden. (Aussagen von den jeweiligen Herstellern lass ich nicht gelten. :freak:)
Spiele können schließlich auch beides gut nutzen. (Auch wenn ich hier Gefahr laufe, Äpfel mit Birnen zu vergleichen.)

Und zu Dark Shikari: Damit wäre wohl primär CABAC gemeint, welches sich schlecht parallelisieren lässt. Gibt es aber noch etwas? Sind die B-Frames nicht auch ein Punkt?
CABAC wird von dem CUDA-Encoder unterstützt. Was er genau meinte, steht irgendwo im Doom9-Forum und auch im Doom10-Forum.
Die aktuell sinnvollste Kombi ist die aus GPU, die das Video dekodiert, und der CPU, die das Video kodiert. In MSE 5.5 (Demo) brachte die Kombi aus meinem Q6600 und HD4850 die gleiche Geschwindigkeit wie die HD4850 bei deutlich besserer Bildqualität (1080p24 zu PS3/720p).
Jemand meinte, dass auch die Bewegungsvorhersage auf die GPU ausgelagert werden kann. Wobei sich dann die allgemeinen Probleme wieder auftauchen.

=Floi=
2010-03-25, 22:00:40
GPGPU findet man vor allem im akademischen Bereich. Viel (theoretische) Rechenleistung für wenig Geld, genau das Richtige für staatlich finanzierte Hochschulen.

es geht um meinen pc hier. software für den kleinen mann und dessen pc.

Ailuros
2010-04-16, 14:12:19
http://www.randomcontrol.com/arion

Wie sieht es mit der Applikation hier aus?

Gast
2010-04-16, 16:58:45
es geht um meinen pc hier. software für den kleinen mann und dessen pc.
Willst du manchmal Bilder in ihrer Qualität vergleichen? Ich mache das öfters und verwende als Fehlermaß den SSIM (http://en.wikipedia.org/wiki/Structural_similarity). Die Berechnung dauert mir für größere Bilder (2000x3000) selbst in der C++ Version zu lange, deshalb habe ich das ganze auf die GPU portiert. Wär das was für deinen PC, kleiner Mann?

Ansonsten gilt noch immer

Die interessanten Sachen kommen erst, auch auf die Gefahr hin mich zu wiederholen, da wird noch aktiv geforscht. Viele mathematische Werkzeuge und Algorithmen müssen erst entwickelt werden - und können erst jetzt entwickelt werden da man auch die nötige Rechenpower dazu hat.
Sowas wie Echtzeit Optical Flow kann man ohne GPUs vergessen, auch mit 8 Kernern kommt man da nicht hin. Selbiges gilt für eine ganze Menge Probleme und Algorithmen, man denke nur an neuere semiautomatische Segmentierungsverfahren. Ohne GPU geht da gar nichts - und in paar Jahren wird man nicht mehr im Photoshop pixelweise und langwierig ausschneiden, da geht das mit ein paar Klicks von selbst.

So was geht nunmal nicht von heute auf morgen. Seit wann gibt es jetzt vernünftig programmierbare GPUs mit entsprechenden Entwicklungswerkzeugen, ich würde sagen ab CUDA 1.3 und selbst das ist a) noch ziemlich beta gewesen und b) noch keine 2 Jahre her.
Vergleich das dochmal damit wie lange es gedauert hat bis 3D Grafikkarten selbstverständlich waren. Wenn man den Voodoo 1 als Startpunkt hernimmt (obwohl es auch davor schon 3D Karten gab) war das 1996 - und selbst im Jahr 2000 gab es noch immer Blockbuster die einen Softwarerenderer hatten. Und das betrifft nur den recht speziellen Markt Computerspiele, für den von dir angesprochenen "kleinen Mann und dessen PC" wurden 3D Karten erst ab Windows Vista (Aero) relevant, und das war 2007...

Wie man also erwarten kann dass in so kurzer Zeit nach der "Erfindung" von GPGPU bereits jede Menge Massenanwendungen bereitstehen ist mir schleierhaft...