PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SiSoft Sandra 2009 mit (GP-)GPU-Tests


deekey777
2008-09-09, 00:12:28
Nach der Pressemitteilung (http://www.sisoftware.co.uk/index.html?dir=news&location=2009_release&langx=de&a=) vom letzten Montag wurde heute die Lite-Version veröffentlicht, siehe hier: http://www.computerbase.de/downloads/software/systemueberwachung/sisoftware_sandra_lite/

Aber warum dieser Thread? Ja, wegen der GPU- und GPGPU-Tests, siehe hier: http://www.sisoftware.co.uk/index.html?dir=news&location=gpgpu_release&langx=de&a=
Hier ein Interview mit einem Entwickler: http://www.guru3d.com/article/sisoftware-sandra-2009-interview-with-adrian-silasi

Wie man sieht, nutzt SiSoft Sandra 2009 CUDA und CAL für die GPGPU-Tests, dabei werden auch Shader mit doppelter Präzision verwendet.
Und da drängt sich sehr schnell die Frage, wieso zum Teufel die Radeons so abstinken.
http://www.abload.de/thumb/sandratg3.jpg (http://www.abload.de/image.php?img=sandratg3.jpg)

Eggcake
2008-09-09, 00:20:27
Beim einen Test dominieren sie ja ziemlich. ?!

deekey777
2008-09-09, 00:26:52
Beim einen Test dominieren sie ja ziemlich. ?!
Der zweite Test wird mit doppelter Genauigkeit ausgeführt, und das beherrschen die Radeons ab HD3000 in Hardware (Vergleich zum G200 wäre interessant).
Aber in den restlichen Tests dominiert eine 9600GT selbst die HD4870.

Dev. Dev. Dev.
2008-09-09, 01:17:38
Man kann CUDA nicht direkt mit Brook(+)/CAL (AMD Stream) vergleichen.
CUDA ist ein sehr hardwarenahes Komplettpaket, während AMD Stream aus verschiedenen Quellen zusammengesetzt ist. Ersteres kann man ziemlich schnell global optimieren (Hardware<->Software<->Dokumentation), während Letzteres GPU-spezifisch angepasst werden muss.
Ab dem G80 weiss ich zum Beispiel alleine schon durch das Programming Guide, welche Caches schnell/langsam/lesbar/schreibbar sind. Ich kenne den kompletten Signalfluss, das Verhalten der ALUs in Bezug auf Cache im Grid/Block usw.
Bei AMD kann man sich dumm und dämlich suchen und eine ausführliche Doku gibts auch nicht.

Ums kurz zu machen: AMD Stream ist der absolute Horror, wenn man bedenkt, dass man etwas etablieren will. So macht man das nicht.
Das ist wahrscheinlich auch der Grund dafür, dass man bei AMD jetzt erstmal auf das offene OpenCL und Direct3D11 wartet. Die erste Runde geht hier definitiv an Nvidia und ein weiterer Versuch dem etwas entgegenzusetzen wäre blödsinnig.

Btw: Es wäre interessant zu wissen, welche Library und vor allem welche Berechnung für diesen Test genutzt wird.
Ich tippe mal auf FFT. Haben die dann für CUDA CUFFT verwendet? Wieviele Dimensionen? Welche Library für die AMD-GPUs?

So ist der Test nur was für Schwanzverlängerungen. Oh, sorry. Bin ja in einem 3D-Forum->3DMark?->lol?!

reunion@work
2008-09-09, 09:09:01
Und da drängt sich sehr schnell die Frage, wieso zum Teufel die Radeons so abstinken.


Die Frage stellt sich IMHO nicht. Wenn es D3D11 oder OpenCL gibt sind solche Vergleiche vielleicht zulässig, aber da AMD CAL/Brook+ längst aufgegeben hat und sich auf eben auf diese gemeinsamen Schnittstellen konzentriert, während nV mit CUDA eine sehr hardwarenahe Schnittstelle für ihre GPUs bietet, sind dieser Ergebnisse nur logisch.

deekey777
2008-09-09, 11:23:09
AMD hat weder CAL noch Brook+ aufgegeben. Nur weil Theo Valich aus einem Statement eine sensationelle Schlagzeile zusammengereimt hat, heißt es nicht, dass es wahr ist. Überhaupt: Warum sollte man ihm glauben, wenn er den Begriff "CTM" verwendete?
Ich hoffe, diese Diskussion, AMD habe CAL aufgegeben, ist jetzt zu Ende:
http://forum.beyond3d.com/showthread.php?t=49574, insbesondere:
In reality CTM evolved into CAL some time ago, and CAL will remain as the enabler for our Stream compute ecosystem by being the interface to the hardware - OpenCL, Cobra, Brook+, 3rd party toolsets will layer on top of this.
Und hier die Pressemitteilung:
http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~127451,00.html

Pirx
2008-09-09, 12:26:08
Imho kann man doch Sandra sowieso einfach nur vergessen, war doch noch nie ernstzunehmen.

Skinner
2008-09-09, 13:50:48
Aber in den restlichen Tests dominiert eine 9600GT selbst die HD4870.

womit der Test unbrauchbar ist.

Gast
2008-09-09, 22:46:14
Der zweite Test wird mit doppelter Genauigkeit ausgeführt, und das beherrschen die Radeons ab HD3000 in Hardware (Vergleich zum G200 wäre interessant).

eine 280GTX@default ist angeblich ~20x schneller als eine 4870X2 ;)

achja, DP ist auf der geforce angeblich wesentlich schneller als SP ;)

samm
2008-09-09, 23:25:24
Gast: Nein, da bist du fehl"informiert". Die GTX 280 soll in DP theoretisch 90GFLOPS erreichen, da ist die 3870 noch schneller :)

Auf die schnelle gefundener Link: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/4/

Gast
2008-09-10, 12:54:34
Gast: Nein, da bist du fehl"informiert". Die GTX 280 soll in DP theoretisch 90GFLOPS erreichen, da ist die 3870 noch schneller :)



nix theoretisch, praktischer test mit sandra behauptet angeblich dass die GTX280 dermaßen viel schneller sein soll ;)

Gast
2008-09-10, 13:15:57
hier das ergebnis mit einer 280GTX

http://img131.imageshack.us/img131/9789/sandrazs6.png

da gibt es einige auffälligkeiten, die den test wohl unbrauchbar machen.


einerseits fällt auf dass ati-karten mit DP nur minimal leistung verlieren.
als nächstes ist die 280GTX plötzlich mit DP angeblich 17x so schnell, als bei SP.
denkbar wäre höchstens, dass der unterschied zwischen den beiden tests eben nicht nur die genauigkeit ist und die werte damit überhaupt nicht vergleichbar sind. das extrem gute abschneiden der 280GTX ist aber trotzdem verdammt seltsam.

als nächstes fällt auf, dass die 280GTX angeblich nichtmal doppelt so schnell wie die 9600GT im SP-test ist, wirklich toll scheint die GPU ja nicht ausgelastet zu werden.

das ganze wird auch noch dadurch untermauert, dass die temperatur der GPU gerade mal um 1° ansteigt, was alleine schon durch den wechsel in den 3D-modus erklärbar ist, das teil langweilt sich offenbar ziemlich.

AnarchX
2008-09-10, 17:20:41
OEMs leave 3DMark on the bench
For a pretty little thing called Sandra 2009 (http://www.theinquirer.net/gb/inquirer/news/2008/09/08/oem-leave-3dmark-bench)
X-D

Traurig, wenn wirklich etwas dran ist...

=Floi=
2008-09-13, 11:07:15
das thema findet aber wenig anklang

Gast
2008-09-13, 11:21:02
wunderts dich?

Spasstiger
2008-09-13, 13:23:42
Die GeForces können auf jeden Fall wesentlich mehr Threads parallel bearbeiten als die Radeons, vielleicht trägt das zu den Ergebnissen bei.

Und was das Thema Double-Precision angeht:
Die Radeons (mit RV770) brechen bei Double-Precision-Operationen theoretisch auf 1/5 der Single-Precision-Leistung ein (160 skalare SPs statt 800 skalarer SPs stehen dann effektiv zur Verfügung).
Die GeForces (mit GT200) brechen theoretisch auf 1/8 ihrer Single-Precision-Leistung ein, weil pro 8 skalare Single-Precision SPs nur eine Double-Precision-SP zur Verfügung steht.

Schade, dass in Sandra keine GFlops-Werte angegeben werden, sondern nur ein nichtssagender Wert in kPixel/s.

mapel110
2008-09-13, 13:42:10
Der Benchmark bringt meinen Treiber zum Absturz. Geforce 177.92, 8800 GT 1024, Vista 64 SP1 + alle Updates. O_o

=Floi=
2008-09-15, 07:18:39
ich finde generell haben die meisten noch nicht kapiert was GPGPU bringt und wieviel potential darin steckt. Man profitiert ja nicht nur direkt davon, sondern ach indirekt.
Der nächste große hemmschuh ist die nicht vorhandene software bzw. der nicht vorhandene standard...

BlackBirdSR
2008-09-15, 07:21:47
Das problem an Sandra war schon immer:
a) völlig undurchsichtige Tests
b) völlig bescheuerte Tests die fern ab der Realität arbeiten

Scheint sich hier nicht geändert zu haben!

deekey777
2008-11-04, 17:33:12
Ok, heute erschien die neue Version des Suite, und die Ergebnisse der Radeons haben sich verdoppelt. :biggrin:
Jetzt sieht das so aus:
http://www.abload.de/thumb/sandaraanov5m77.png (http://www.abload.de/image.php?img=sandaraanov5m77.png)

Kaffetasse
2008-11-04, 18:41:15
Balken, toll. :P
Wer hat denn jetzt schon mit "Sandra" gezoggt? ;D

deekey777
2008-11-04, 18:45:23
Balken, toll. :P
Wer hat denn jetzt schon mit "Sandra" gezoggt? ;D

Noch so ein geistvoller Beitrag, und du wirst deine erste rote Karte sehen.

=Floi=
2008-11-05, 02:47:29
gibt es bei den referenzkarten auch einen G92 oder GT200 chip? @dk666?
leider gibt es für die karten von amd bzw. deren gigantische rechenleistung noch keine wirklichen anwendungen für den endverbraucher. Ich grunde ist selbst eine 8600gt dank cuda und physx nützlicher, als eine 4870X2 mit 2,4 Teraflop shaderleistung. Das hat mich auch bisher von ati fern gehalten.

Diese karten können nicht mal in theoretischen tests die shaderleistung in spielen zeigen.

deekey777
2008-11-05, 10:28:43
Leider nicht. Dort sind nur die GX2, 9800GTX+, 9600GT, 9500GT, 8800GT und 8500GT zu finden. "Nur", weil die Radeons nicht vollzählig sind, sondern auch neben X2 im CF-Verbund.

Der Sprung erinnert mich an diese Diskussion (http://forum.ixbt.com/topic.cgi?id=105:48) im iXBT-Forum, wo die Verbesserungen im Code (Brook+) die Berechnungen beschleunigten (zuerst von 2,6 auf 1,4 s und dann auf 1,2 s heruntergingen).

In Crysis könnte schon die Shaderleistung der limitierende Faktor sein.

Gast
2008-11-08, 17:31:01
Wieso verwundert sich den einige über das schlechte abschneiden der ATI Karten bei GPGPU Anwendungen, das der G200 und alle anderen Karten ab 8xxx dank Cuda brutal auf das Optimiert sind ist ja schon länger klar.

Zudem man die Flop Leistung zwischen ATI und NVIDIA nie und nimmer miteinander Vergleichen kann, da die ATI Angaben doch sehr Theoretisch sind und die ganze Architektur halt überhaupt nicht so Effizient arbeitet wie die bei NVIDIA.

Kaffetasse
2008-11-08, 23:04:11
Zudem man die Flop Leistung zwischen ATI und NVIDIA nie und nimmer miteinander Vergleichen kann, da die ATI Angaben doch sehr Theoretisch sind und die ganze Architektur halt überhaupt nicht so Effizient arbeitet wie die bei NVIDIA.
Klar, deswegen schaffen es die R770 Chips auch dank ihres ineffektiven 256Bit SI auch so heftig nah an die GT200 Chips heran mit 512/448Bit SI. ;D

Gast
2008-11-08, 23:20:02
Klar, deswegen schaffen es die R770 Chips auch dank ihres ineffektiven 256Bit SI auch so heftig nah an die GT200 Chips heran mit 512/448Bit SI. ;D

sorry, aber was hat die speicherbandbreite mit der rechenleistung zu tun?

Kaffetasse
2008-11-09, 00:27:02
sorry, aber was hat die speicherbandbreite mit der rechenleistung zu tun?
Nur das Gesamtpaket zählt oder packst Du dir deine CPU auf den Küchentisch und sagst "mach mal das Video fertig"?
Außerdem schrieb ich vom SI=Speicherinterface.

=Floi=
2008-11-09, 00:46:32
Dann muß ich aber schon fragen, warum man nicht an der effizienz dreht und damit transistoren spart. Das ergibt so keinen sinn.
Ich könnte mir schon vorstellen, dass diese theoretischen 1,2 gflop schon erreicht werden können. (immerhin sind ja diese 800 SPs vorhanden und im grunde ist deren auslastung ja kein hexenwerk) Nur wie und wann erreicht man diese 1,2 tflop bzw. warum sieht man davon in spielen so wenig?

deekey777
2008-11-09, 01:14:15
Ich habe nicht umsonst das Beispiel aus dem iXBT-Forum gebracht, wo clevere Leute durch Optimierungen die Performance kräftig verbessert haben.
Egal ob CUDA oder AMD Stream: Ohne Optimierungen erhält man mieserable Performance. Auch wenn es für einige Leute ein Schock sein könnte: CUDA ist kein Zauber, mit dem man sofort die volle Performance erhält.

Was die Spiele angeht: Ach, komm. Ob es außer den Pixelshadern nichts anderes zu tun gibt.

Gast
2008-11-09, 12:19:13
Nur das Gesamtpaket zählt oder packst Du dir deine CPU auf den Küchentisch und sagst "mach mal das Video fertig"?

irgendwie geht es in diesem thread um GPGPU und da ist die speicherbandbreite größtenteils ziemlich egal (natürlich nicht egal, aber bei allen grafikkarten mehr als überdimensioniert)


Außerdem schrieb ich vom SI=Speicherinterface.

und worauf hat dieses einen einfluss? richtig auf die bandbreite.

deekey777
2009-11-28, 19:49:27
SiSoft Sandra 2010 beinhaltet auch GPGPU-Tests mit OpenCL und DirectCompute: http://www.sisoftware.net/index.html?dir=news&location=2010_release&langx=en&a=

Hier die Downloadübersicht: http://www.sisoftware.net/index.html?dir=dload&location=sware_dl_3264&langx=en&a= (Lite)

deekey777
2009-12-06, 18:59:28
http://www.sisoftware.net/index.html?dir=dload&location=sware_dl_3264&langx=en&a=
Die Suite wurde jetzt auf 16.11 updatet, damit komme ich wenigstens ins GPGPU-Zeug, aber kein OpenCL für meine HD4850 verfügbar. ;(

Eigentlich ist bei mir alles installiert, aber ich tippe mal blind, dass ab 9.12 es nicht mehr nötig sein wird, auch das Stream SDK installiert zu haben, um an den OpenCL-Support ranzukommen.

dildo4u
2009-12-06, 19:09:34
http://www.sisoftware.net/index.html?dir=dload&location=sware_dl_3264&langx=en&a=
Die Suite wurde jetzt auf 16.11 updatet, damit komme ich wenigstens ins GPGPU-Zeug, aber kein OpenCL für meine HD4850 verfügbar. ;(

Same Here.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=471845