Abstract

Der Grundbaustein eines jeden Deep-Learning-Ansatzes ist das 1958 von Frank Rosenblatt vorgestellte Perzeptron. Dieses ist eine Konstruktion von mehreren sogenannten künstlichen Neuronen, die mit gewichteten Verknüpfungen und einem Schwellwert miteinander gekoppelt sind. Bei einem einschichtigen Perzeptron sind dabei mehrere Eingabeneuronen mit einem oder mehreren Ausgabeknoten voll verknüpft, d. h. jede Eingabe mit jeder Ausgabe. Die gewichteten Verbindungen sind hierbei die lernbaren Parameter des Verfahrens, welche ursprünglich mit einer sehr einfachen Regel gelernt wurden. Der Grundbaustein des Perzeptrons ist leicht erweiterbar, indem man mehrere Schichten einzelner Perzeptronen mittels einer nichtlinearen Aktivierungsfunktion koppelt. Eine solche Struktur wird aufgrund ihrer Vielschichtigkeit Multi-Layer-Perzeptron (MLP) genannt. Darauf aufbauend gibt es eine Vielzahl weiterer spezieller Netzstrukturen, z. B. Convolutional Neuronale Netze, bei denen teilweise ein Neuron einer Schicht mit nur wenigen Neuronen der Vorgängerschicht verbunden ist, um lokale Muster zu erkennen, was u. a. bei der Bildverarbeitung und Mustererkennung sehr erfolgreich eingesetzt wird. Ein Neuronales Netz mit vielen Schichten wird standardmäßig mittels eines Gradientenabstiegs trainiert. Aufgrund der Popularität des Deep Learning existieren bereits mehrere mächtige freie Open-Source-Frameworks zum Trainieren tiefer Netzstrukturen.

Links and resources

Tags

community

  • @flint63
  • @dblp
@flint63's tags highlighted