PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Deep-Mind gets deeper


blinki
2016-10-17, 21:31:59
Hi, also ich hab da ne News gelesen http://www.spektrum.de/news/deep-learning-netze-bekommen-gedaechtnis-spendiert/1426153?utm_source=zon&utm_medium=teaser&utm_content=news&utm_campaign=ZON_KOOP.

Der Artike handelt von einem Paper aus den Google Deep Mind-Labs bezüglich "Differenzierbarer Neuronaler Computer" DNCs, und ich verstehe dabei so vieles nicht. Kann da mal jemand eine Einordnung geben?

Soweit ich das verstanden habe, haben die ein rekurrentes neuronales Netz bzw. im speziellen eine long-short-term-memory machine genommen und der einen quasi unendlichen Backgrundspeicher verpasst. D.h. die LSTM kann nach eigenem belieben eigene States speichern. Die Speicherstellen werden dabei nicht wie ein Stack oä. alloziert, sondern die Layerstates entsprechen --so wie ich das verstanden habe-- einer Speicherstelle nach AHNLICHKEIT !
Quasi einer Hashfunktion (de fakto haben die da eine cos- funktion benutzt-- was für mich vom gefühl her auf irgendwas mit fft hinausläuft)

Jedenfalls lassen die das in den üblichen Frameworks laufen, also das scheint keine Hardwareimplementierung zu sein, aber das übliche: besser, schneller, leistungsfähiger - kommt dabei heraus.
Das Paper ist über den Artikel zur Zeit zugänglich, über nature.com direkt kostenpflichtig. Wer kann mir das etwas plastischer beschreiben, was da abgeht? Danke

Gruß blinki


Edit:

Um das etwas weniger vage zu halten:
- Ist das der Stein der Weisen oder eine kleine unwichtige Verbesserung?
-Ist so etwas absehbar überhaupt in Hardware zu realisieren, oder bleibt das eine reine Softwaregeschichte?

dabad1
2016-10-18, 15:00:22
Ich versuch mich mal an einer Antwort, bin aber kein Experte für Künstliche neuronale Netze.

Du kannst den ganzen Nature Artikel hier lesen: http://www.nature.com/articles/nature20101.epdf?author_access_token=ImTXBI8aWbYxYQ51Plys8NRgN0jAjWel9jnR3ZoTv0M ggmpDmwljGswxVdeocYSurJ3hxupzWuRNeGvvXnoO8o4jTJcnAyhGuZzXJ1GEaD-Z7E6X_a9R-xqJ9TfJWBqz

Grob vereinfacht zusammengefasst haben sie ein neurales Netzwerk mit einem externen Speichermedium verbunden. Dann haben Sie das Netzwerk selbständig erlernen lassen Informationen auf das Speichermedium zu schreiben oder zu lesen.
Sinn der ganzen Übung ist es dem Netzwerk „reasing“ Task beizubringen, wie fragen antwort spielchen:
„The dataset consists of short ‘story’ snippets followed by
questions with answers that can be inferred from the stories: for exam-
ple, the story “John is in the playground. John picked up the football.”
followed by the question “Where is the football?” with answer “play-
ground …”

Zu deinen Fragen:
Es ist eine Verbesserung, deepmind hatte bereits vorher die Idee für eine „neural Turing machine“ der differentiable neural computer ist „nur“ eine Weiterentwicklung.
Nein es macht, imho noch keinen Sinn hierfür irgendeine Form von neuer Hardware zu entwickeln.