PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ROCm-Thread


PrivateCeralion
2017-12-20, 21:05:35
Hi :) Da das Thema künstliche Intelligenz immer wichtiger wird und aktuell die meisten AI-Bibliotheken mit Grafikkarten beschleunigt werden können, ist es wahrscheinlich sinnvoll ein Thread über ROCm zu machen.

Heute wurde ROCm 1.7 veröffentlicht, hat jemand damit schon Erfahrungen gemacht. Besonders interessiert mich der Tensor Flow support.

LG PrivateCeralion

bnoob
2017-12-20, 23:39:17
Würde mich auch interessieren, möchte mir über den Urlaub mal die Stanford-Vorlesung zur Einführung in ML antun und bisher war die Straßenweisheit "Für Tensorflow brauchst du eine nVidia", was natürlich etwas blöd ist mit einer Vega 64 :D

Achill
2017-12-21, 00:18:42
Es gibt wohl 2 Ansätze das Zusammenspiel mit AMD GPUs zu ermöglichen (habs nur überflogen): https://github.com/tensorflow/tensorflow/issues/22

1. Ein Cuda-Port mittels Hip
-https://github.com/ROCmSoftwarePlatform/hiptensorflow/blob/hip/README.ROCm.md

2. Tensorflow C++ -> SYCL -> OpenCL
- https://github.com/AlphasCodes/DeepLearning
- https://developer.codeplay.com/computecppce/latest/overview (scheint wieder proprietär)

Trap
2017-12-21, 15:08:55
ROCm hat schon mit 1.6 für Tensorflow gut funktioniert (mit einer Vega56) -> mit der Anleitung https://github.com/ROCmSoftwarePlatform/hiptensorflow/blob/hip/rocm_docs/tensorflow-install-basic.md. Ich hab es allerdings vor allem über Keras genutzt.

Mal die neue Version testen.

Würde mich auch interessieren, möchte mir über den Urlaub mal die Stanford-Vorlesung zur Einführung in ML antun
Ich kann für deep learning den Kurs empfehlen: http://course.fast.ai/ - sehr praxisnah/anwendungsorientiert und mit motivierenden Übungsaufgaben.

Skysnake
2017-12-22, 21:00:22
Intel hat inzwischen auch einen Tensorflow Port gebracht. Damit kommt man wohl bis zu Faktor 2 an eine GPU run. Der Unterschied ist also nicht mehr groß. Je nachdem sind CPU Cluster dann eventuell sogar interessant. Kommst halt ganz auf das Netz an.