Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Überblick Über Künstliche Neuronale Netze | Theoretische Grundlagen
Generative KI

bookÜberblick Über Künstliche Neuronale Netze

Künstliche Neuronale Netze (ANNs) bilden das Rückgrat moderner Generative AI. Sie sind darauf ausgelegt, Muster zu erkennen, Repräsentationen zu erlernen und Daten zu generieren, die reale Verteilungen nachahmen. Hier erhalten Sie einen prägnanten und umfassenden Überblick über ANNs mit Schwerpunkt auf deren Bedeutung für Generative AI.

Struktur von Neuronalen Netzen

Neuronen und Schichten

Ein neuronales Netz besteht aus miteinander verbundenen Einheiten, den Neuronen, die in Schichten organisiert sind:

  • Eingabeschicht: erhält Rohdaten (z. B. Bilder, Text, numerische Eingaben);
  • Verborgene Schichten: verarbeiten und transformieren Daten mittels gewichteter Verbindungen;
  • Ausgabeschicht: liefert Vorhersagen oder Klassifikationen.

Jedes Neuron berechnet eine gewichtete Summe seiner Eingaben und gibt das Ergebnis durch eine Aktivierungsfunktion weiter:

z=i=1nωixi+bz=\sum^n_{i=1}\omega_ix_i+b

wobei gilt:

  • xix_i sind Eingabewerte;
  • ωi\omega_i sind Gewichte;
  • bb ist der Bias-Term;
  • zz ist die gewichtete Summe, die an die Aktivierungsfunktion weitergegeben wird.

Aktivierungsfunktionen

Aktivierungsfunktionen führen Nichtlinearität ein und ermöglichen es Netzwerken, komplexe Muster zu erlernen. Zu den gängigen Aktivierungsfunktionen gehören:

  • Sigmoid, verwendet für Wahrscheinlichkeiten: σ(z)=11+ez\sigma(z)=\dfrac{1}{1+e^{-z}}
  • ReLU (Rectified Linear Unit), häufig in tiefen Netzwerken verwendet: f(z)=max(0,z)f(z)=\max(0,z)
  • Tanh, nützlich für nullzentrierte Ausgaben: tanh(z)=ezezez+ez\tanh(z)=\dfrac{e^z-e^{-z}}{e^z+e^{-z}}

Vorwärts- und Rückwärtspropagation

Vorwärtspropagation

Vorwärtspropagation bezeichnet das Durchleiten von Eingaben durch das Netzwerk zur Berechnung der Ausgabe. Jeder Neuron berechnet:

a=f(z)=f(i=1nωixi+b)a=f(z)=f\left( \sum^n_{i=1}\omega_i x_i + b \right)

wobei f(z)f(z) die Aktivierungsfunktion ist.

Rückpropagation und Gradientenabstieg

Zur Verbesserung der Vorhersagen passen künstliche neuronale Netze die Gewichte mithilfe der Rückpropagation an, die den Fehler durch Gradientenabstieg minimiert. Die Regel zur Gewichtsaktualisierung beim Gradientenabstieg lautet:

ωi(t+1)=ωi(t)ηLωi\omega^{(t+1)}_i=\omega^{(t)}_i - \eta *\frac{\partial L}{\partial \omega_i}

wobei:

  • η\eta die Lernrate ist;
  • LL die Verlustfunktion ist;
  • Lωi\frac{\partial L}{\partial \omega_i} der Gradient des Verlusts bezüglich ωi\omega_i ist.

Verlustfunktionen und Trainingsprozess

Verlustfunktionen

Verlustfunktionen messen die Differenz zwischen vorhergesagten und tatsächlichen Werten. Gängige Verlustfunktionen sind:

  • Mittlere quadratische Abweichung (MSE) (für Regression):
MSE=1ni=1n(yiy^i2)\text{MSE}=\frac{1}{n}\sum^n_{i=1}(y_i-\hat{y}_i^2)
  • Kreuzentropie-Verlust (für Klassifikation):
L=i=1nyilog(y^i)\text{L}=-\sum^n_{i=1}y_i\log(\hat{y}_i)

wobei:

  • yiy_i das wahre Label ist;
  • y^i\hat{y}_i die vorhergesagte Wahrscheinlichkeit ist.

Trainingsprozess

  1. Zufällige Initialisierung der Gewichte;
  2. Durchführung der Vorwärtsausbreitung zur Berechnung der Vorhersagen;
  3. Berechnung des Verlusts mit der gewählten Verlustfunktion;
  4. Verwendung der Rückpropagation zur Berechnung der Gewichtsaktualisierungen;
  5. Aktualisierung der Gewichte mittels Gradientenabstieg;
  6. Wiederholung über mehrere Epochen bis zur Konvergenz des Netzwerks.

Der Satz der universellen Approximation und Deep Learning

Satz der universellen Approximation

Der Satz der universellen Approximation besagt, dass ein neuronales Netzwerk mit mindestens einer versteckten Schicht jede stetige Funktion approximieren kann, sofern genügend Neuronen und geeignete Gewichtungen vorhanden sind. Dies begründet, warum künstliche neuronale Netze hochkomplexe Zusammenhänge modellieren können.

Deep Learning und seine Bedeutung

Deep Learning erweitert künstliche neuronale Netze durch das Hinzufügen vieler versteckter Schichten und ermöglicht dadurch:

  • Extraktion hierarchischer Merkmale (relevant bei Bildverarbeitung und NLP);
  • Modellierung komplexer Wahrscheinlichkeitsverteilungen (entscheidend für Generative KI);
  • Lernen ohne manuelles Feature Engineering (wie bei selbstüberwachtem Lernen).

Fazit

Dieses Kapitel führte in die grundlegenden Prinzipien künstlicher neuronaler Netze ein, mit Schwerpunkt auf deren Struktur, Lernprozess und Bedeutung im Deep Learning. Diese Konzepte bilden die Grundlage für fortgeschrittene Generative-KI-Techniken wie GANs und VAEs, die neuronale Netzwerke zur Generierung realistischer Daten nutzen.

1. Welches der folgenden Elemente ist KEIN Bestandteil eines künstlichen neuronalen Netzes?

2. Was ist der Hauptzweck der Backpropagation in neuronalen Netzen?

3. Der Universal Approximation Theorem besagt, dass ein ausreichend großes neuronales Netz welche der folgenden Funktionen annähern kann?

question mark

Welches der folgenden Elemente ist KEIN Bestandteil eines künstlichen neuronalen Netzes?

Select the correct answer

question mark

Was ist der Hauptzweck der Backpropagation in neuronalen Netzen?

Select the correct answer

question mark

Der Universal Approximation Theorem besagt, dass ein ausreichend großes neuronales Netz welche der folgenden Funktionen annähern kann?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

What are some real-world applications of ANNs in Generative AI?

Can you explain how backpropagation works in more detail?

How do activation functions affect the performance of a neural network?

Awesome!

Completion rate improved to 4.76

bookÜberblick Über Künstliche Neuronale Netze

Swipe um das Menü anzuzeigen

Künstliche Neuronale Netze (ANNs) bilden das Rückgrat moderner Generative AI. Sie sind darauf ausgelegt, Muster zu erkennen, Repräsentationen zu erlernen und Daten zu generieren, die reale Verteilungen nachahmen. Hier erhalten Sie einen prägnanten und umfassenden Überblick über ANNs mit Schwerpunkt auf deren Bedeutung für Generative AI.

Struktur von Neuronalen Netzen

Neuronen und Schichten

Ein neuronales Netz besteht aus miteinander verbundenen Einheiten, den Neuronen, die in Schichten organisiert sind:

  • Eingabeschicht: erhält Rohdaten (z. B. Bilder, Text, numerische Eingaben);
  • Verborgene Schichten: verarbeiten und transformieren Daten mittels gewichteter Verbindungen;
  • Ausgabeschicht: liefert Vorhersagen oder Klassifikationen.

Jedes Neuron berechnet eine gewichtete Summe seiner Eingaben und gibt das Ergebnis durch eine Aktivierungsfunktion weiter:

z=i=1nωixi+bz=\sum^n_{i=1}\omega_ix_i+b

wobei gilt:

  • xix_i sind Eingabewerte;
  • ωi\omega_i sind Gewichte;
  • bb ist der Bias-Term;
  • zz ist die gewichtete Summe, die an die Aktivierungsfunktion weitergegeben wird.

Aktivierungsfunktionen

Aktivierungsfunktionen führen Nichtlinearität ein und ermöglichen es Netzwerken, komplexe Muster zu erlernen. Zu den gängigen Aktivierungsfunktionen gehören:

  • Sigmoid, verwendet für Wahrscheinlichkeiten: σ(z)=11+ez\sigma(z)=\dfrac{1}{1+e^{-z}}
  • ReLU (Rectified Linear Unit), häufig in tiefen Netzwerken verwendet: f(z)=max(0,z)f(z)=\max(0,z)
  • Tanh, nützlich für nullzentrierte Ausgaben: tanh(z)=ezezez+ez\tanh(z)=\dfrac{e^z-e^{-z}}{e^z+e^{-z}}

Vorwärts- und Rückwärtspropagation

Vorwärtspropagation

Vorwärtspropagation bezeichnet das Durchleiten von Eingaben durch das Netzwerk zur Berechnung der Ausgabe. Jeder Neuron berechnet:

a=f(z)=f(i=1nωixi+b)a=f(z)=f\left( \sum^n_{i=1}\omega_i x_i + b \right)

wobei f(z)f(z) die Aktivierungsfunktion ist.

Rückpropagation und Gradientenabstieg

Zur Verbesserung der Vorhersagen passen künstliche neuronale Netze die Gewichte mithilfe der Rückpropagation an, die den Fehler durch Gradientenabstieg minimiert. Die Regel zur Gewichtsaktualisierung beim Gradientenabstieg lautet:

ωi(t+1)=ωi(t)ηLωi\omega^{(t+1)}_i=\omega^{(t)}_i - \eta *\frac{\partial L}{\partial \omega_i}

wobei:

  • η\eta die Lernrate ist;
  • LL die Verlustfunktion ist;
  • Lωi\frac{\partial L}{\partial \omega_i} der Gradient des Verlusts bezüglich ωi\omega_i ist.

Verlustfunktionen und Trainingsprozess

Verlustfunktionen

Verlustfunktionen messen die Differenz zwischen vorhergesagten und tatsächlichen Werten. Gängige Verlustfunktionen sind:

  • Mittlere quadratische Abweichung (MSE) (für Regression):
MSE=1ni=1n(yiy^i2)\text{MSE}=\frac{1}{n}\sum^n_{i=1}(y_i-\hat{y}_i^2)
  • Kreuzentropie-Verlust (für Klassifikation):
L=i=1nyilog(y^i)\text{L}=-\sum^n_{i=1}y_i\log(\hat{y}_i)

wobei:

  • yiy_i das wahre Label ist;
  • y^i\hat{y}_i die vorhergesagte Wahrscheinlichkeit ist.

Trainingsprozess

  1. Zufällige Initialisierung der Gewichte;
  2. Durchführung der Vorwärtsausbreitung zur Berechnung der Vorhersagen;
  3. Berechnung des Verlusts mit der gewählten Verlustfunktion;
  4. Verwendung der Rückpropagation zur Berechnung der Gewichtsaktualisierungen;
  5. Aktualisierung der Gewichte mittels Gradientenabstieg;
  6. Wiederholung über mehrere Epochen bis zur Konvergenz des Netzwerks.

Der Satz der universellen Approximation und Deep Learning

Satz der universellen Approximation

Der Satz der universellen Approximation besagt, dass ein neuronales Netzwerk mit mindestens einer versteckten Schicht jede stetige Funktion approximieren kann, sofern genügend Neuronen und geeignete Gewichtungen vorhanden sind. Dies begründet, warum künstliche neuronale Netze hochkomplexe Zusammenhänge modellieren können.

Deep Learning und seine Bedeutung

Deep Learning erweitert künstliche neuronale Netze durch das Hinzufügen vieler versteckter Schichten und ermöglicht dadurch:

  • Extraktion hierarchischer Merkmale (relevant bei Bildverarbeitung und NLP);
  • Modellierung komplexer Wahrscheinlichkeitsverteilungen (entscheidend für Generative KI);
  • Lernen ohne manuelles Feature Engineering (wie bei selbstüberwachtem Lernen).

Fazit

Dieses Kapitel führte in die grundlegenden Prinzipien künstlicher neuronaler Netze ein, mit Schwerpunkt auf deren Struktur, Lernprozess und Bedeutung im Deep Learning. Diese Konzepte bilden die Grundlage für fortgeschrittene Generative-KI-Techniken wie GANs und VAEs, die neuronale Netzwerke zur Generierung realistischer Daten nutzen.

1. Welches der folgenden Elemente ist KEIN Bestandteil eines künstlichen neuronalen Netzes?

2. Was ist der Hauptzweck der Backpropagation in neuronalen Netzen?

3. Der Universal Approximation Theorem besagt, dass ein ausreichend großes neuronales Netz welche der folgenden Funktionen annähern kann?

question mark

Welches der folgenden Elemente ist KEIN Bestandteil eines künstlichen neuronalen Netzes?

Select the correct answer

question mark

Was ist der Hauptzweck der Backpropagation in neuronalen Netzen?

Select the correct answer

question mark

Der Universal Approximation Theorem besagt, dass ein ausreichend großes neuronales Netz welche der folgenden Funktionen annähern kann?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
some-alt