PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Suche Info aus c't-Artikel


Pinoccio
2009-11-08, 12:10:28
Hallo,

dort (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7631422&postcount=23) erwähnt deekey777 eine Studie, die gezeigt habe, daß nur 15% der Software tatsächlich die doppelte Genauigkeit brauchen.
Nun soll diese Studie in diesem c't-Artikel: "Parallel-Werkzeuge -
Datenverarbeitung auf Grafikkarten mit ATI Stream und Nvidia CUDA" von Manfred Bertuch (http://www.heise.de/ct/inhalt/2009/11/142/) erwähnt sein. Da mir leider diese c't nicht vorliegt, hätte ich mal eine (bzw. zwei) Bitten an c't-Sammler*:
Ist eine derartige Studie dort erwähnt? Und wenn ja, kann mir jemand den genauen Titel oder vielleicht den DOI oder einen Link zu ihr verraten?

Vielen Dank!
mfg

Die_Allianz
2009-11-08, 12:27:47
du kannst den artikel für 70 cent kaufen

Pinoccio
2009-11-08, 12:37:23
du kannst den artikel für 70 cent kaufenOhne zu wissen, ob diese Studie dort überhaupt erwähnt wird (bzw. so, daß ich sie finde) und mit zwei Zahlungssystemen, bei denen ich nicht angemeldet bin bzw. mich auch nicht anmelden möchte? Eher nicht.

mfg

redfalcon
2009-11-08, 13:08:47
In diesem Artikel habe ich beim Durchlesen nichts gefunden. In dem direkt danach "Feurige Tesla-Strömungen" findet sich nur eine Aussage des Linpack-Benchmark Entwicklers: "...schätzt gar, dass nur etwa zehn Prozent der verbreiteten HPC-Software wirklich im vollen Umfang doppelte Genauigkeit benötigt." (c't 11/09, S 148) (http://www.heise.de/ct/inhalt/2009/11/148/).
Eine Studie wird da allerdings nicht erwähnt.

aths
2009-11-08, 14:44:15
Wobei das Benötigen von 64-Bit-Genauigkeit sich sicherlich auch nach den Gegebenheiten richtet. Wäre 64-Bit-Genauigkeit in deutlich höherer Leistung zu bekommen, würde es wohl mehr Anwendungen geben, die das auch nutzen weil sie es brauchen.

Pinoccio
2009-11-08, 15:26:56
Wobei das Benötigen von 64-Bit-Genauigkeit sich sicherlich auch nach den Gegebenheiten richtet. Wäre 64-Bit-Genauigkeit in deutlich höherer Leistung zu bekommen, würde es wohl mehr Anwendungen geben, die das auch nutzen weil sie es brauchen.Das mag sein. Es geht/ging im Kontext um wissenschaftliche Software. Dort ist - so jedenfalls dekeys Wiedergabe der Studie bzw. der von redfalcon wiedergegeben LINPACK-Entwickler - einfache Genauigkeit (also 32 Bit) oft ausreichend. Das warum und wieso hätte mich ja nun gerademal interessiert.

Ein Beispiel, was mir einfällt, wäre der Gaußalgorithmus. Der benötigt - sofern die Eingabedaten die 32 Bit nicht ausreizen - keine höhere Präzision.

mfg

RLZ
2009-11-08, 16:37:11
Wobei das Benötigen von 64-Bit-Genauigkeit sich sicherlich auch nach den Gegebenheiten richtet. Wäre 64-Bit-Genauigkeit in deutlich höherer Leistung zu bekommen, würde es wohl mehr Anwendungen geben, die das auch nutzen weil sie es brauchen.
Seit wann entscheidet ein relativ kleiner konstanter Faktor x darüber, ob ein Algorithmus DP benötigt, um ein brauchbares Ergebnis zu liefern?

Nevermore4ever
2009-11-11, 19:12:22
Tja, nicht immer ist es ja ein "muss", es kann ja auch mal ein "nehmen wir gerne mit" sein, z. B. beim Rendering, wo die Farben dann NOCH ein Quäntchen realistischer sind.

aths
2009-11-12, 14:14:08
Beim Farbwert dürfte Double-Precision keine Rolle spielen. Ich denke eher an Geometrie-Daten bei Modellen in sehr großen Skalen, oder an Koordinaten bei der Erzeugung fraktaler Bilder.

Spasstiger
2010-07-11, 19:22:25
Ich hab an der Uni schon einen Vortrag über Feldsimulationssoftware, die mit CUDA und einfacher Genauigkeit implementiert wurde, gehört. Dabei wurde auch auf die ganz offensichtlich vorhandenen Abweichungen zur CPU-Version des Programms in doppelter Genauigkeit und die Abweichung zu realen Messungen eingegangen. Die Abweichung war in manchen Fällen schon so groß, dass man dort besser doppelte Genauigkeit nutzt, um eine gute Übereinstimmung mit realen Messungen zu erhalten. Wurde am Ende des Vortrags auch als Verbesserungsvorschlag gennant (als die Arbeit begonnen wurde, gab es noch keine passenden Grafikkarten von NV).