PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Folding@Home über GPU!


Ganxsta
2006-09-29, 21:50:49
Hi,

Habe mir gedacht dass dieses Nachricht dem einen oder anderen interesiert. Ich stehe nicht so auf Seti und Folding@Home aber von mir aus können mehrere solche art von Programmen programiert werden. Ist doch gut das eine GPU mehrfach schneller berechnet als eine CPU. Man kann es doch sinvoll einsetzen.

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1159547317

und Benchmark zwischen CPU und GPU

http://www.planet3dnow.de/vbulletin/showthread.php?p=2493158#post2493158

Thanatos
2006-09-29, 21:54:09
So, wenn es denn kommen solltem, dann bitte auch für BOINC und ich bin zufrieden. :)

Botcruscher
2006-09-29, 22:25:18
NV saugt aber gewaltig.:biggrin: Schmeckt da der Code nicht oder was ist da los?

Gast
2006-09-29, 22:33:34
Dyn. branching vermute ich ganz stark...

Mike1
2006-09-29, 23:03:21
genial=)
mit D3D10 sollte sowas dann doch noch einfacher werden, oder?

Gast
2006-09-29, 23:23:33
mit D3D10 sollte sowas dann doch noch einfacher werden, oder?

Ja. Aber das beste wäre ein direktes GPU-Interface wie FireStream.

Gast
2006-09-29, 23:54:04
Ich vermute hier eher, daß der Code für Ati optimiert ist. Ein so eklatanter Unterschied in der Performance würde sich sonst auch im normalen Arbeitsgebiet der GPUs, nämlich der Grafikberechnung niederschlagen.

Gast
2006-09-29, 23:57:28
Im Falle von dyn. branching gibts das im Spielefall halt nicht. Das ist auf ATI einfach um einiges schneller.

Ganxsta
2006-09-30, 01:33:41
Wow

habt ihr den Update gelsen?

Wo eine P4 2,8GHz 3 Jahre bzw. 1095 tage braucht wird eine x1900xt!! nur in 27 Tage fertig. GPU berechnung soll 40X schneller sein als die CPU. Das wäre (linear gerechnet) genau so schnell wie eine P4 mit 112GHz. :D

Gast
2006-09-30, 02:04:45
Wo eine P4 2,8GHz 3 Jahre bzw. 1095 tage braucht wird eine x1900xt!! nur in 27 Tage fertig. GPU berechnung soll 40X schneller sein als die CPU. Das wäre (linear gerechnet) genau so schnell wie eine P4 mit 112GHz. :D
Bis das Zeugs nicht mehr Beta ist sind Grafikkarten im Vergleich noch wesentlicher schneller.

Gast
2006-09-30, 09:59:48
Ich vermute hier eher, daß der Code für Ati optimiert ist.Halte ich gar nicht mal für unwahrscheinlich, wenn man bedenkt wo der GPU-Client vorgestellt wurde (ATI Stream Computing Event).

Allerdings steht da auch, dass das Zeugs z.Zt. ausschließlich auf ATI-Karten ab R520 läuft.
Allerdings lassen sich vorerst nur aktuelle Grafikchips (ab R520) von ATI nutzen. Ob später auch NVIDIA-Karten bei der Erforschung von Alzheimer, Parkinson, Krebs und anderen Krankheiten helfen können, ist noch nicht bekannt.

Mr. Lolman
2006-09-30, 12:07:21
Vijay Pande meint dazu allerdings, dass die bei diesem Benchmark berechnete Gromacs-WU eher untypisch ist. Insgesamt soll der Geschwindigkeitsvorteil der GPUs gegenüber den CPUs wohl noch eine ganze Ecke größer sein. Dass die 7800GTX gegenüber der X1800XT so abstinkt, soll am deutlich niedrigeren Takt liegen. Und wenn die ATI 512 MB hatte und die nVidia nur 256 MB, kann es auch daran liegen, dass die nVidia sehr viel häufiger auf den relativ langsamen RAM zugreifen musste.
Aber schön zu sehen, dass die Probleme mit ATI-Karten inzwischen wohl behoben sind.

http://www.planet3dnow.de/vbulletin/showpost.php?p=2493158&postcount=20


GPUs have the possibility to perform an enormous number of Floating Point OPerations (FLOPs). However, they achieve this high performance by losing generality -- there are only certain types of calculations which would be well-suited to GPUs. The calculations in FAH could possibly take advantage of GPUs and we have been investigating this with our collaborators Prof. Pat Hanrahan (Stanford University, Computer Science Dept) and Prof. Eric Darve (Stanford University, Mechanical Engineering Dept) and their groups. Prof. Hanrahan's group has pioneered methods for programming GPUs with the Brook streaming computer language and Prof. Darve's group has written many applications using Brook. It is unclear which GPUs will be supported and we don't want to specific list any GPUs at the moment.

However, it will likely require the very latest GPUs from ATI (especially now that the newest ATI GPUs support 32 bit floating point operations). Previous work of ours used NVIDIA GPUs as well, but we have now concentrated on ATI GPU's as they allow for significant performance increases for FAH over NVIDIA's GPU's (at least at the current generation). Our GPU cluster has 25 1900XT's and 25 1900 XTX's. We find a considerable performance increase of 1900XT's even over 1800XT's, due to the architectural differences between the R580 and R520 GPU's. Our code will run on R520's, but considerably more slowly than R580. We're very much looking forward to trying out R600's!

June 2006 We've been testing the code to make sure it gives the right numbers for FAH WU's. We've found some surprises and so there has been a fair bit of code development to make fixes.

July 2006 We've made a new library to make it a lot easier to make new codes into FAH cores. The "corification" of the GPU code should follow shortly. For now, we've been mainly running code tests by hand on the cluster.

August 2006 We're running on the cluster and starting to ramp up. Vishal's new method to build cores should yield a FAH core soon, but it will take a lot of Q&A (GPU folding is much more sensitive to machine configuration) so it will still take some time before we release the core. It's pretty exciting for us to see the calculation racing away on the GPU cluster! Prof. Pande also formally announced FAH's GPU client at his award lecture at the Protein Society meeting, with a great response for the GPU work. We will be making a more formal announcement of the GPU client and some other surprises relatively soon. Note the update above regarding GPUs -- we currently plan to support only recent generation ATI GPUs (see above).


http://folding.stanford.edu/FAQ-highperformance.html

Android
2006-09-30, 12:18:20
Wow

habt ihr den Update gelsen?

Wo eine P4 2,8GHz 3 Jahre bzw. 1095 tage braucht wird eine x1900xt!! nur in 27 Tage fertig. GPU berechnung soll 40X schneller sein als die CPU. Das wäre (linear gerechnet) genau so schnell wie eine P4 mit 112GHz. :D

Kann ich bestätigen. Ein Freund von mir, der an der TU Berlin studiert, lässt Strömungseigenschaften an Körpern durch eine ATI 9800XT berechnen. Im Vergleich zum im System vorhandenen Prozessor Athlon XP 2500+: Faktor 30.
Auch für BOINC hatte jemand schon die GPU missbraucht. War aber kein offizielles Release, sondern Spass an der Freude. :D
Es gibt genug Leute die das immer wieder ausprobieren und sich selbst verblüffen. Erfahrungen hört man aber eher im kontaktnahen Bereich als global übers Netz; Underground sozusagen. :cool:

Mfg
Android

Lubi
2006-09-30, 12:52:14
@ Android:

Natürlich, es gibt viele Physiker und Ingenieure, die ihre Berechnungen übre die GPU laufen lassen!

Ist doch ein offenes Geheimnis dass GPUs wesentlich Schneller in gewissen Operationen agieren und sich dafür missbrauchen lassen!

Cya lubi

AnarchX
2006-09-30, 12:56:41
Mit D3D10 dürfte es nochmal interessanter werden, da ja alle Einheiten den gleiche Code verarbeiten müssen.

Ganxsta
2006-09-30, 13:02:47
Kann man dieses Leistung,rein teoretisch, noch "sinvoller" ausnutzen als nur Folding@home. z.B. als Co-Prozessor für die CPU, für Videobearbeitung, KI-berechnug in Spiele oder Sound-Effekte berechnungen? Physik-Berechnung ist ja im kommen. Soweit ich weis hat eine CPU auch eine FPU einheit. Kann man sie nicht mit einer Grafikarte unterstützen oder ergänzen?

Thanatos
2006-09-30, 13:08:50
Soweit ich weis hat eine CPU auch eine FPU einheit. Kann man sie nicht mit einer Grafikarte unterstützen oder ergänzen?

Aber sicher hat eine CPU eine integrierte Gleitkommaeinheit. Ok, ok, die gaaaaaaaaaaaaaaaaaaaaanz alten hatten noch keine. ;(:rolleyes:

Razor
2006-09-30, 18:08:18
WOW ist der zitierte Thread ALT... Juli 2004?
Aber immerhin hat er es bis heute auf glatte 3 Seiten oder 52 Posts gebracht...
...immerhin sind die letzten 32 'schon' aus 2006!
:biggrin:

Scheint ja wirklich waaaaaaaahnsinnig interessant zu sein!
Noch interessanter, dass ein von/für ATI bereit gestellter Client auf ATI Karten läuft.

Nochmal: Wow!
Echt...

Razor

Ganxsta
2006-09-30, 18:20:32
WOW ist der zitierte Thread ALT... Juli 2004?
Aber immerhin hat er es bis heute auf glatte 3 Seiten oder 52 Posts gebracht...
...immerhin sind die letzten 32 'schon' aus 2006!
:biggrin:

Scheint ja wirklich waaaaaaaahnsinnig interessant zu sein!
Noch interessanter, dass ein von/für ATI bereit gestellter Client auf ATI Karten läuft.

Nochmal: Wow!
Echt...

Razor

Warum steckst du in sachen deine Nase rein die dich nicht interesieren?

deekey777
2006-09-30, 18:24:58
Noch interessanter, dass ein von/für ATI bereit gestellter Client auf ATI Karten läuft.

Nochmal: Wow!
Echt...

Razor

Dann zeig doch mal, wo der Client von ATi für ATi bereitgestellt wurde/wird.

Black-Scorpion
2006-09-30, 18:39:44
WOW ist der zitierte Thread ALT... Juli 2004?
Aber immerhin hat er es bis heute auf glatte 3 Seiten oder 52 Posts gebracht...
...immerhin sind die letzten 32 'schon' aus 2006!
:biggrin:

Scheint ja wirklich waaaaaaaahnsinnig interessant zu sein!
Noch interessanter, dass ein von/für ATI bereit gestellter Client auf ATI Karten läuft.

Nochmal: Wow!
Echt...

Razor
Stimmt, wäre es von nVidia könnte das 20 Jahre alt sein und du würdest vor Freude an die Decke springen.
So aber ist alles Quatsch und extra von/für ATI.
Nur deine sinnlosen und haltlosen Beitäge nicht.