PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Superrechner mit (ATI) Grafikkarten


AnarchX
2009-10-29, 19:20:22
GPGPU-Supercomputing in China:

http://img442.imageshack.us/img442/8465/radeon0343830.jpg (http://img442.imageshack.us/i/radeon0343830.jpg/)

http://english.cctv.com/program/cctvnews/20091029/104058.shtml
http://news.xinhuanet.com/english/2009-10/29/content_12356478.htm

:D

HarryHirsch
2009-10-29, 20:49:09
GPGPU-Supercomputing in China:

[/URL]http://img442.imageshack.us/img442/8465/radeon0343830.jpg (http://img442.imageshack.us/i/radeon0343830.jpg/)

[URL]http://english.cctv.com/program/cctvnews/20091029/104058.shtml
http://news.xinhuanet.com/english/2009-10/29/content_12356478.htm

:D

Warum ausgerechnet GPUs von AMD? Also ich glaub ja mit nVidia wären die besser gefahren. Weil:

a) bessere Software
b) mehr (nutzbare) Leistung
und c) bessere Software :ugly:

samm
2009-10-29, 21:59:40
Die Software wird ja wohl extra für die ATis geschrieben sein, und es werden nicht irgendwelche bestehenden Programme (dort wo es für CUDA "die bessere Software" gibt) verwendet.

Was die nutzbare Leistung angeht könnten sie ja DP benötigen, wo nVidia vor Fermi einfach nur verliert.

AnarchX
2009-10-30, 15:03:45
Amüsant ist hier eher, dass man Consumer-Radeons verwendet, anstatt der richtigen HPC-Karten.
Da dürfte wohl Powercolor seinen Lagerstand an 4870X2 übergeben haben.

deekey777
2009-10-30, 15:48:22
Amüsant ist hier eher, dass man Consumer-Radeons verwendet, anstatt der richtigen HPC-Karten.
Da dürfte wohl Powercolor seinen Lagerstand an 4870X2 übergeben haben.
Es gibt ja keine FireStream 9270X2.

Edith: Aber nur ein GB pro GPU ist nicht gerade viel.

AnarchX
2009-10-30, 20:00:28
Die GPUs laufen offenbar untertaktet auf 575MHz: http://en.expreview.com/2009/10/30/china-successfully-developed-milky-way-one-supercomputer.html

Coda
2009-10-30, 21:08:32
EEdith: Aber nur ein GB pro GPU ist nicht gerade viel.
Sollte wohl mit möglichst geringem Budget auf ein "Petaflop" kommen, auch wenn es fast nicht nutzbar ist.

deekey777
2009-10-30, 23:26:03
(Dass ATi das nicht an die große Glocke hängt, ist schon verdächtigt.)

Will Roadrunner Be the Cell's Last Hurrah? (http://www.hpcwire.com/features/Will-Roadrunner-Be-the-Cells-Last-Hurrah-66707892.html)

Irgendwie kamen die Meldungen passend zueinander. Allein aus den wirtschaftlichen Gesichtspunkten ist es interessant sich vorzustellen, wenn nur ein Auftrag zur Auslieferung von tausenden Fermi-Teslas oder Firestreams führt.

StefanV
2009-10-30, 23:31:52
Warum ausgerechnet GPUs von AMD? Also ich glaub ja mit nVidia wären die besser gefahren. Weil:

a) bessere Software
b) mehr (nutzbare) Leistung
und c) bessere Software :ugly:
Nein, nicht zwangsläufig, frag mal Gipsel ;)
Gerade die DP Performance ist bei nVidia nicht besonders gut, da macht sogar eine HD4670 eine GT200 Platt...

deekey777
2009-10-30, 23:33:23
Nein, nicht zwangsläufig, frag mal Gipsel ;)
Gerade die DP Performance ist bei nVidia nicht besonders gut, da macht sogar eine HD4670 eine GT200 Platt...
Der RV730 beherrscht die doppelte Genauigkeit nicht.

StefanV
2009-10-30, 23:34:14
OK, dann wars halt RV740 aka HD4770...

Pinoccio
2009-10-31, 00:11:27
Warum ausgerechnet GPUs von AMD? Also ich glaub ja mit nVidia wären die besser gefahren. Weil:

a) bessere Software
b) mehr (nutzbare) Leistung
und c) bessere Software :ugly:Bei a) hast du vermutlich recht und auch c) stimmt wohl auch. Aber b) ist halt immer die Frage, was genau man macht. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7147122#post7147122)

mfg

Gast
2009-10-31, 08:46:09
OK, dann wars halt RV740 aka HD4770...
Die auch nicht.

StefanV
2009-10-31, 09:25:21
Die auch nicht.
doch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7595512#post7595512).

und hier noch was zur 'überlegenen Performance vom GT200 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7571220&postcount=3391).

Sven77
2009-10-31, 09:32:27
ILM hat für den ersten Teil von Transformers ein Tool gebaut, um Szenen interaktiv mit PRMan zu rendern, dazu wurden ATI 2900XTs benutzt.. CUDA war da allerdings noch nicht so weit, und ILM machte sich die Tesselation-Einheit der ATIs zunutze. Die Demo war jedenfalls impressive ;)

deekey777
2009-10-31, 11:14:07
ILM hat für den ersten Teil von Transformers ein Tool gebaut, um Szenen interaktiv mit PRMan zu rendern, dazu wurden ATI 2900XTs benutzt.. CUDA war da allerdings noch nicht so weit, und ILM machte sich die Tesselation-Einheit der ATIs zunutze. Die Demo war jedenfalls impressive ;)
Ich würde mal sagen, dass das so nicht stimmt. Sondern so: http://raytracey.blogspot.com/2008/08/otoy-transformers-and-ray-tracing.html

After the Ruby/LightStage demo, 4 other video's appeared as part of an article about Otoy on TechCrunch. Urbach explains that he started experimenting with Renderman code on graphics hardware during the making of Cars in 2005. This work caught the interest from ILM, who gave Urbach the models from the Transformer movie to render in realtime. Urbach and his team made 4 commercials for the Transformer movie that were rendered and directed in realtime on graphics hardware. Afterwards, he was contacted by Sony to work on the Spiderman movie
Und wenn ich mich nicht irre, wurden damals noch die X1900er benutzt.

Aber das Thema ist Superrechner mit GPUs. ;)

deekey777
2009-10-31, 12:00:08
Sollte wohl mit möglichst geringem Budget auf ein "Petaflop" kommen, auch wenn es fast nicht nutzbar ist.
5.120 RV770 mit 525 MHz kommen rein theoretisch auf 840 GLOPS pro GPU und insgesamt auf 4,3 PFLOPS (oder?). Aber rein theoretisch. :biggrin:
Was schaffen eigentlich die Xeons in Linpack? Da gibt es ja zig Tests. Angenommen, die Hälfte der FLOPS schaffen die CPUs, die andere die GPUs, dann ist der Kostenvorteil schon riesig.

Sven77
2009-10-31, 13:05:18
Ich würde mal sagen, dass das so nicht stimmt. Sondern so: http://raytracey.blogspot.com/2008/08/otoy-transformers-and-ray-tracing.html


Und wenn ich mich nicht irre, wurden damals noch die X1900er benutzt.

Aber das Thema ist Superrechner mit GPUs. ;)

Ich war auf der Vorführung des ILM Lead-Lighting TDs auf der FMX.. was in dem Blog steht interessiert mich nicht. Fakt ist, das das System dazu benutzt wurde um in Realtime Szenen auszuleuchten. Realtime = 3s Refresh . Und das auch nur für einen Frame, den das Cachen der ganzen Geometrie und Materialien wieder eine Stunde dauerte..

AnarchX
2009-10-31, 13:25:13
5.120 RV770 mit 575 MHz kommen rein theoretisch auf 840 GLOPS pro GPU und insgesamt auf 4,3 PFLOPS (oder?).
Aber auch nur 942 TFLOPs DP.

Tianhe's peak performance reaches 1.206 petaflops, and it runs at 563.1 teraflops (1,000 teraflops equals one petaflop) on the Linpack benchmark,
http://news.xinhuanet.com/english/2009-10/29/content_12356478.htm

Coda
2009-10-31, 14:56:12
und hier noch was zur 'überlegenen Performance vom GT200 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7571220&postcount=3391).
Das DP auf GT200 schlecht läuft ist ja auch total was neues. Und so.

deekey777
2009-10-31, 18:23:06
Aber auch nur 942 TFLOPs DP.


http://news.xinhuanet.com/english/2009-10/29/content_12356478.htm
Kommt es bei Linpack auf die DP-Performance an?

Acid-Beatz
2009-10-31, 19:36:15
Linpack ist es ziemlich egal ob SP oder DP, es misst ja nur aber die Wissenschaftlichen Anwendungen verlangen so gut wie alle DP ...

deekey777
2009-10-31, 19:45:13
Linpack ist es ziemlich egal ob SP oder DP, es misst ja nur aber die Wissenschaftlichen Anwendungen verlangen so gut wie alle DP ...
Das ist aber übertrieben. Zumindest eine paar Jahre alte Studie hat gezeigt, dass nur 15% der Software tatsächlich die doppelte Genauigkeit braucht, diese aber nur aus Bequemlichkeit benutzt wird.

deekey777
2009-11-01, 12:04:55
Aber auch nur 942 TFLOPs DP.


http://news.xinhuanet.com/english/2009-10/29/content_12356478.htm
http://forum.beyond3d.com/showthread.php?t=55519

http://translate.google.com/translate?hl=en&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.pcpop.com/doc/0/457/457513.shtml&rurl=translate.google.com

Gezählt wird tatsächlich die DP-Leistung. Interessant ist das:
Through the estimation point of view, the current efficiency of GPU computing is only about 37%, the official said, after optimized, GPU computational efficiency from 20% to 70%, seems to be "Milky Way on the 1st," there is great potential to be tapped !
Das wäre heftig.

Übrigens:
Tokyo Tech Builds First Tesla GPU Based Heterogeneous Cluster To Reach Top 500 (http://www.nvidia.com/object/io_1226945999108.html)
SC08—AUSTIN, TX—NOVEMBER 17, 2008—The Tokyo Institute of Technology (Tokyo Tech) today announced a collaboration with NVIDIA to use NVIDIA® Tesla™ GPUs to boost the computational horsepower of its TSUBAME supercomputer. Through the addition of 170 Tesla S1070 1U systems, the TSUBAME supercomputer now delivers nearly 170 TFLOPS of theoretical peak performance, as well as 77.48 TFLOPS of measured Linpack performance, placing it, again, amongst the top ranks in the world’s Top 500 Supercomputers.

Pinoccio
2009-11-01, 18:53:07
sOT:
Das ist aber übertrieben. Zumindest eine paar Jahre alte Studie hat gezeigt, dass nur 15% der Software tatsächlich die doppelte Genauigkeit braucht, diese aber nur aus Bequemlichkeit benutzt wird.Die 15% würde ich, von dem her, was ich hier so an der Uni sehe, fast sogar für zu hoch angesetzt halten. ><
Praktisch sind aber die meisten im Grunde alle keine Numeriker und nicht dafür ausgebildet, sich Gedanken über sowas zu machen.

mfg

RavenTS
2009-11-01, 23:37:11
Amüsant ist hier eher, dass man Consumer-Radeons verwendet, anstatt der richtigen HPC-Karten.
Da dürfte wohl Powercolor seinen Lagerstand an 4870X2 übergeben haben.

Wer würde die sonst jetzt auch noch wollen...

deekey777
2009-11-16, 10:47:15
Der Tianhe-1 ist auf dem fünften Platz der aktuellen Top500: http://www.top500.org/list/2009/11/100
http://www.heise.de/newsticker/meldung/AMD-Opteron-erobert-Spitzenposition-der-Supercomputer-857011.html


Was der so alles hat: http://www.top500.org/blog/2009/11/13/tianhe_1_chinas_first_petaflop_s_scale_supercomputer

Spasstiger
2009-11-16, 12:14:21
Die real erreichte, maximale Rechenleistung des Tianhe-1 ist aber noch weit von seinem theoretischen Maximum entfernt. Wie man sieht, erreicht der Pleiades auf Platz 6 mit weniger CPU-Cores und einer fast nur halb so großen theoretischen Rechenleistung fast dieselbe reale Peak-Leistung.

deekey777
2009-11-16, 12:33:18
Die real erreichte, maximale Rechenleistung des Tianhe-1 ist aber noch weit von seinem theoretischen Maximum entfernt. Wie man sieht, erreicht der Pleiades auf Platz 6 mit weniger CPU-Cores und einer fast nur halb so großen theoretischen Rechenleistung fast dieselbe reale Peak-Leistung.
Wieso weniger CPU-Cores? Es sind etwa 5000 Xeons mit je 4 Cores.
The Tianhe system used 20480 CPU cores (2 cpu*4 cores*2560 nodes) and 4096000 SPU (1600 Stream Processing Units* 2560 nodes) while executing the LINPACK benchmark.
Das ist weniger als die Hälfte als beim NASA-Rechner.

Spasstiger
2009-11-16, 12:37:58
Ah, ok, dann wurden bei der Gesamtzahl von Cores offenbar die SIMD-Cluster der GPUs mitgerechnet. 20480 CPU-Cores und 2*10*2560 SIMD-Cluster = 71680 "Cores" (wie in der Liste von TOP500 angegeben).