Neuronen) ..." /> Neuronen) ..." /> Neuronen) ..." />

SEO Text Tool: Kostenlos einzigartige Texte schreiben mit dem Artikel Schreiber

Konfiguriere, welchen SEO Text das Tool automatisiert für dich erstellen soll

Schritt 1: Hauptstichwort eingeben
(Thema des Artikels)!

Schritt 2: Nebenstichwort eingeben
(Nuance des Text Inhaltes)!

Schritt 3: Klick auf "Text erstellen"!


Dein neuer Artikel Überschrift:    

Deep Learning Grundlagen - Teil 1: Einführung  STATWORX

Sprache:    

Dein Artikel ist in deutscher Sprache geschrieben

Hauptstichwort (Thema des Artikels):    

Deep Learning

Nebenstichwort (Nuance des Text Inhaltes):    

Zusammenfassung

Hauptthemen des neuen Artikels:    

Neuronen ✓ Learning ✓ Deep

Zusammenfassung:    

In der Regel werden in neuronalen Netzen keine einzelnen Neuronen, sondern ganze Schichten mit beliebig vielen dieser Knoten, modelliert. Wahrend Multi Layer Perceptrons (MLP) als universale Architekturen fur eine Vielzahl von Fragestellungen geeignet sind, weisen Sie einige Schwachen in bestimmte Einsatzgebieten auf. Die Pooling Layer laufen die, durch die Filter erstellten, Feature Maps ab und komprimieren diese, d.h. sie reduzieren die Anzahl der Pixel nach einer gegebenen Logik weiter.

Hilf uns, verlinke uns:    

Weiterführende Links:    


Artikel vorlesen lassen:

Artikel Text:

Deep Learning Grundlagen - Teil 1: Einführung  STATWORX
Bildquelle: https://media.nature.com/m685/nature-assets/srep/2017/170412/srep46368/images/srep46368-f2.jpg    

Grundsatzlich kann jedoch die Idee, dass viele einzelne "Recheneinheiten" (Neuronen) durch eine Vernetzung untereinander Informationen intelligent verarbeiten als Grundprinzip anerkannt werden. Im Gehirn sind Neuronen uber Synapsen miteinander verbunden, die sich zwischen Neuronen neu bilden bzw. allgemein verandern konnen. Die unten stehende Abbildung zeigt eine Pyramidenzelle, eine der am haufigsten anzutreffenden Neuronenstrukturen im menschlichen Gehirn. Darstellung einer Pyramidenzelle (Abbildung aus Haykin, Simon (2008), Seite 8) Wie auch andere Neuronenarten empfangt die Pyramidenzelle die meisten Ihre Eingangssignale uber die Dendriten, die mittels Axon und dessen Dendriten zehntausend oder mehr Verbindungen zu anderen Neuronen eingehen konnen. Gemass dem sog. Konvergenz-Divergenzprinzip erfolgt die Erregung einzelner Neuronen auf Basis vieler anderer Zellen wobei das Neuron ebenfalls gleichzeitig Signale an viele andere Zellen aussendet. Somit entsteht ein hochkomplexes Netzwerk von Verbindungen im Gehirn, die zur Informationsverbeitung genutzt werden. Einfach gesprochen, verarbeiten im Gehirn somit einzelne Neuronen die Signale anderer Neuronen (Inputs) und geben ein darauf basierendes, neues Signal an die nachste Gruppe von Neuronen weiter. Ein einzelnes Neuron ist somit durch eine bestimmte biologische (bzw. mathematische) Funktion reprasentiert, die seine Eingangssignale bewertet, ein entsprechendes Reaktionssignal erzeugt und dieses im Netzwerk an weitere Neuronen weitergibt. Der Begriff Netzwerk entsteht dadurch, dass viele dieser Neuronen in Schichten zusammengefasst werden und Ihre Signale die jeweils folgenden Knoten bzw. Schichten weitergeben und sich somit ein Netz zwischen den Neuronen spannt. Was versteht man unter Deep Learning? Unter Deep Learning versteht man heute Architekturen von neuronalen Netzen, die uber mehr als einen Hidden Layer verfugen. Der Nutzen mehrerer Neuronen-Schichten macht sich dadurch bemerkbar, dass zwischen den Schichten "neue" Informationen gebildet werden konnen, die eine Reprasentation der ursprunglichen Informationen darstellen. Wichtig hierbei ist zu verstehen, dass diese Reprasentationen eine Abwandlung bzw. Abstaktion der eigentlichen Eingangssignale sind. ,,Unter Deep Learning versteht man heute neuronalen Netze, die uber mehr als einen Hidden Layer verfugen. " Dieser Mechanismus, der unter dem Begriff "Representation Learning" zusammengefasst werden kann sorgt dafur, dass Deep Learning Modelle in der Regel sehr gut auf neue Datenpunkte abstrahieren konnen. Der Grund dafur ist, dass die geschaffenen Abstraktionen der Daten wesentlich generellerer Natur als es die ursprunglichen Eingangsdaten sind. Lernen durch Reprasentation ist bei Deep Learning eines der Hauptunterscheidungsmerkmale gegenuber klassischen Machine Learning Modellen, die i.d.R. ohne Reprasentation der Daten lernen. Die folgende Abbildung illustriert den Unterschied zwischen statistischen Computerprogrammen (Rule-based Systems), klassischen Machine Learning Modellen und Deep Learning. Da Deep Learning Modelle theoretisch uber sehr viele Schichten verfugen, ist die Abstraktionskapazitat besonders hoch. Somit kann ein Deep Learning Modell auf verschiedenen Ebenen Abstraktionen der Eingangsdaten bilden und zur Losung des Machine Learning Problems verwenden. Ein Beispiel fur eine solche komplexe Architektur ist das GoogleNet zur Bildklassifikation (siehe Abbildung). Ubersicht Architektur GoogleNet. Das GoogleNet verfugt uber mehrere Architekturblocke, die speziell auf die Anforderungen im Bereich Objekt- bzw. Bilderkennung ausgelegt sind. Somit ist das Netz in der Lage durch Representation Learning mehrere tausend Objekte auf Bildern mit einer hohen Genauigkeit zu erkennen. Aufbau und Bestandteile von neuronalen Netzen Zuruck zu den Basics. Der Grundbaustein jedes neuronalen Netzes ist das Neuron. Ein Neuron ist ein Knotenpunkt im neuronalen Netzwerk an dem ein oder mehrere Eingangssignale (numerische Daten) zusammentreffen und von der sog. Aktivierungsfunktion des Neurons weiterverarbeitet werden. Der Output des Neurons ist somit eine Funktion des Inputs. Es existieren verschiedene Aktivierungsfunktionen, auf die wir in spateren Teilen unserer Deep Learning Reihe genauer eingehen werden. Der elementare Grundbaustein jedes neuronalen Netzes ist das Neuron. Ein Neuron ist ein Knotenpunkt im neuronalen Netzwerk an dem ein oder mehrere Eingangssignale (Inputs) zusammentreffen und verarbeitet werden. Dabei kann es sich, je nachdem an welcher Stelle sich das Neuron im Netzwerk befindet, sowohl um Signale der Eimngangsschicht als auch Signale vorhergehender Neuronen handeln. Nach der Verarbeitung der Eingangssignale werden diese als Output an die nachfolgenden Neuronen weitergegeben. Formal gesprochen, ist der Output eines Neurons eine Funktion der Inputs. Die folgende Abbildung soll den grundsatzlichen Aufbau darstellen: Die obenstehende Abbildung stellt schematisch den Aufbau eines einzelnen Neurons dar. Auf der linken Seite der Abbildung treffen die Inputs am Neuron ein. Input steht dabei fur einen beliebigen numerischen Wert (z.B. vorhandene Daten oder Signale vorhergehender Neuronen). Das Neuron bewertet (gewichtet) den Input, berechnet den Output und gibt diesen an die darauffolgenden, verbundenen Neuronen weiter. Der Input eines Neurons ist somit die gewichtete Summe aller mit ihm verknupften vorher liegenden Neuronen. In der Regel werden in neuronalen Netzen keine einzelnen Neuronen, sondern ganze Schichten mit beliebig vielen dieser Knoten, modelliert. Diese Schichten werden,,Hidden Layer" genannt und sind der Kern der Architektur von Deep Learning Modellen. Analog zum Hidden Layer existieren der Input- und Output Layer. Ersterer ist der Eintrittspunkt der Daten in das Modell, wahrend letzterer das Ergebnis des Modells reprasentiert. In einer einfachen Architektur sind alle Neuronen aller benachbarten Layer miteinander verbunden. Die folgende Abbildung stellt den Aufbau eines einfachen neuronalen Netzes mit einem Input Layer, einem Hidden Layer und einem Output Layer dar. Die Verbindungen (Gewichte / Weights) zwischen den Neuronen sind derjenige Teil des neuronalen Netzes, der auf die vorliegenden Daten angepasst wird. Die Architektur des Netzes bleibt (zumindest in einfachen Architekturen) konstant wahrend des Trainings. Die Gewichte werden von Iteration zu Iteration so angepasst, dass der Fehler, den das neuronale Netz wahrend dem Trainings macht immer weiter reduziert wird. Wahrend des Trainings werden Abweichungen der Schatzung des Netzwerks von den tatsachlich beobachteten Datenpunkten berechnet. Nach der Berechnung des Gesamtfehlers werden die Gewichte des Netzes rekursiv aktualisiert. Die Richtung dieser Aktualisierung wird so gewahlt, dass der Fehler im nachsten Durchlauf kleiner wird. Diese Methodik nennt man "Gradient Descent" und beschreibt die iterative Anpassung der Modellparameter in entgegengesetzter Richtung zum Modellfehler. Auch heutzutage werden Deep Learning Modelle und neuronale Netze mittels Gradient Descent bzw. aktuelleren Abwandlungen davon trainiert. Architekturen von neuronalen Netzen Die Architektur von neuronalen Netzen kann durch den Anwender nahezu frei spezifiziert werden. Tools wie TensorFlow oder Theano ermoglichen es dem Anwender, Netzarchitekturen beliebiger Komplexitat zu modellieren und auf den vorliegenden Daten zu schatzen. Zu den Parametern der Netzarchitektur zahlen im einfachsten Falle die Anzahl der Hidden Layer, die Anzahl der Neuronen pro Layer sowie deren Aktivierungsfunktion. Im Rahmen der Forschung zu neuronalen Netzen und Deep Learning haben sich unterschiedlichste Architekturen von Netzwerken fur spezifische Anwendungen entwickelt. Jede dieser Architekturen weist spezifische Vorteile und Eigenschaften auf, die die Verarbeitung von speziellen Informationen erleichtern sollen. So wird beispielsweise bei Convolutional Neural Networks (CNNs), die primar zur Verarbeitung von Bildinformationen eingesetzt werden, die raumliche Anordnung von Informationen berucksichtigt, bei Recurrent Neural Nets (RNNs) die zeitliche Anordnung von Datenpunkten. Im Folgenden sollen die wichtigsten Typen von Architekturen kurz skizziert werden. Feedforward Netze Unter einem Feedforward Netz versteht man ein neuronales Netz mit einer Inputschicht, einem oder mehreren Hidden Layers sowie einer Outputschicht. In der Regel handelt es sich bei den Hidden Layers um sogenannte "Dense Layers", d.h. voll vernetzte Neuronen mit Gewichtungen zu allen Neuronen der vorherigen und folgenden Schicht. Die folgende Abbildung zeigt ein Deep Learning Modell, das mit vier Hidden Layers konstruiert wurde. Wahrend Multi Layer Perceptrons (MLP) als universale Architekturen fur eine Vielzahl von Fragestellungen geeignet sind, weisen Sie einige Schwachen in bestimmte Einsatzgebieten auf. So steigt die fur eine Bildklassifikation notwendige Anzahl der Neuronen fur eine Bildklassifikation mit jedem Pixel des Bildes immer weiter an. Convolutional Neural Networks (CNNs) Convolutional Neural Networks (CNN) sind ein spezieller Typ von neuronalen Netzwerken zur Verarbeitung von raumlich angeordneten Daten. Hierzu zahlen bspw. Bildinformationen (2 Dimensionen), Videos (3 Dimensionen) oder Audiospuren (1-2 Dimensionen). Die Architektur von CNNs unterscheidet sich deutlich von der eines klassischen Feedforward Netzes. CNNs werden mit einer speziellen Architektur gestaltet, den sogenannten Convolutional und Pooling Layers. Der Zweck dieser Schichten ist die Untersuchung des Inputs aus verschiedenen Perspektiven. Jedes Neuron im Convolutional Layer uberpruft einen bestimmten Bereich des Input Feldes mithilfe eines Filters, dem sog. Kernel. Ein Filter untersucht das Bild auf eine bestimmte Eigenschaft, wie z.B. Farbzusammensetzung oder Helligkeit. Das Ergebnis eines Filters ist der gewichtete Input eines Bereichs und wird im Convolutional Layer gespeichert. Die Grosse (oder vielmehr Tiefe) des Convolutional Layers definiert sich uber die Anzahl der Filter, da jeweils das gesamte Input Bild von jedem Filter gepruft wird. Diese Information wird zwischen den einzelnen Convolutional Layern mit sogenannten Pooling Layern komprimiert. Die Pooling Layer laufen die, durch die Filter erstellten, Feature Maps ab und komprimieren diese, d.h. sie reduzieren die Anzahl der Pixel nach einer gegebenen Logik weiter. Beispielsweise konnen hierbei Maximalwerte oder Mittelwerte der Filter verwendet werden. Anschliessend konnen noch weitere Convolutional Layer und/oder Pooling Schichten folgen, bis die abstrahierten Features in ein voll vernetztes MLP ubergeben werden, das wiederum im Output Layer mundet und die Schatzungen des Modells berechnet. Convolutional und Pooling Layer komprimieren somit die raumlich angeordneten Informationen und reduzieren die Anzahl der geschatzten Gewichtungen im Netzwerk. Somit konnen auch hochdimensionale Bilder (hohe Auflosung) als Inputs verwendet werden. Recurrent Neural Networks (RNNs) Recurrent Neural Networks (RNNs) sind ein Oberbegriff fur eine Gruppe von Netzwerkarchitekturen bei denen die Neuronen ihre Signale in einem geschlossenen Kreis weitergeben.

Artikel Video:    

Text mit Freunden teilen:    www.facebook.com

Wir entwickeln eine intelligente Sprach-Software. Universal einsetzbar in SEO, Marketing und Robotic. Mit Email anmelden!    



Der Artikel Schreiber "Text Generator" schreibt Artikel und generiert dir kostenfreien Unique Text für dein Content Marketing, dein SEO oder Suchmaschinen Marketing - Kreatives Schreiben als Software Algorithmus!



Du benutzt die erstellten Texte auf deine eigene Verantwortung! Wir übernehmen keine Haftung für die erstellten Textartikel!

© 2018 - 2019 -