Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Wie Funktionieren RNNs? | Einführung in RNNs
Einführung in RNNs

bookWie Funktionieren RNNs?

Rekurrente neuronale Netze (RNNs) sind darauf ausgelegt, sequenzielle Daten zu verarbeiten, indem sie Informationen aus vorherigen Eingaben in ihren internen Zuständen speichern. Dies macht sie ideal für Aufgaben wie Sprachmodellierung und Sequenzvorhersage.

  • Sequenzielle Verarbeitung: RNN verarbeitet Daten Schritt für Schritt und behält dabei den Überblick über vorherige Informationen;
  • Satzvervollständigung: Bei dem unvollständigen Satz "My favourite dish is sushi. So, my favourite cuisine is _____." verarbeitet das RNN die Wörter nacheinander. Nach dem Wort "sushi" sagt es das nächste Wort als "Japanese" basierend auf dem vorherigen Kontext voraus;
  • Gedächtnis in RNNs: Bei jedem Schritt aktualisiert das RNN seinen internen Zustand (Gedächtnis) mit neuen Informationen, um den Kontext für zukünftige Schritte zu bewahren;
  • Training des RNN: RNNs werden mit Backpropagation Through Time (BPTT) trainiert, wobei Fehler rückwärts durch jeden Zeitschritt weitergegeben werden, um die Gewichte für bessere Vorhersagen anzupassen.

Forward Propagation

Während der Forward Propagation verarbeitet das RNN die Eingabedaten Schritt für Schritt:

  1. Eingabe zum Zeitpunkt tt: Das Netzwerk erhält zu jedem Zeitpunkt eine Eingabe xtx_t;

  2. Aktualisierung des versteckten Zustands: Der aktuelle versteckte Zustand hth_t wird basierend auf dem vorherigen versteckten Zustand ht1h_{t-1} und der aktuellen Eingabe xtx_t mit folgender Formel aktualisiert:

    ht=f(W[ht1,xt]+b)
    • Dabei gilt:
      • WW ist die Gewichtsmatrix;
      • bb ist der Bias-Vektor;
      • ff ist die Aktivierungsfunktion.
  3. Ausgabegenerierung: Die Ausgabe yty_t wird basierend auf dem aktuellen versteckten Zustand hth_t mit folgender Formel erzeugt:

    yt=g(Vht+c)

    • Dabei gilt:
      • VV ist die Gewichtsmatrix für die Ausgabe;
      • cc ist der Bias für die Ausgabe;
      • gg ist die Aktivierungsfunktion der Ausgabeschicht.

Backpropagation-Prozess

Backpropagation in RNNs ist entscheidend für die Aktualisierung der Gewichte und die Verbesserung des Modells. Der Prozess wird an die sequenzielle Natur von RNNs durch Backpropagation Through Time (BPTT) angepasst:

  1. Fehlerberechnung: Der erste Schritt bei BPTT ist die Berechnung des Fehlers zu jedem Zeitschritt. Dieser Fehler ist typischerweise die Differenz zwischen der vorhergesagten Ausgabe und dem tatsächlichen Zielwert;

  2. Gradientenberechnung: In Rekurrenten Neuronalen Netzen werden die Gradienten der Verlustfunktion berechnet, indem der Fehler bezüglich der Netzwerkparameter abgeleitet und rückwärts durch die Zeit vom letzten zum ersten Schritt propagiert wird. Dies kann insbesondere bei langen Sequenzen zu verschwindenden oder explodierenden Gradienten führen;

  3. Gewichtsaktualisierung: Sobald die Gradienten berechnet wurden, werden die Gewichte mit einer Optimierungsmethode wie Stochastic Gradient Descent (SGD) aktualisiert. Die Gewichte werden so angepasst, dass der Fehler in zukünftigen Iterationen minimiert wird. Die Formel zur Aktualisierung der Gewichte lautet:

    W:=WηLossW

    • Dabei gilt:
      • η\eta ist die Lernrate;
      • LossW ist der Gradient der Verlustfunktion bezüglich der Gewichtsmatrix.

Zusammenfassend sind RNNs leistungsfähig, da sie Informationen aus der Vergangenheit speichern und nutzen können, was sie für Aufgaben mit Sequenzen geeignet macht.

question mark

Welche Rolle spielt die Funktion gg in der Ausgabegleichung yt=g(Vht+c)y_t = g(V \cdot h_t+ c)

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Awesome!

Completion rate improved to 4.55

bookWie Funktionieren RNNs?

Swipe um das Menü anzuzeigen

Rekurrente neuronale Netze (RNNs) sind darauf ausgelegt, sequenzielle Daten zu verarbeiten, indem sie Informationen aus vorherigen Eingaben in ihren internen Zuständen speichern. Dies macht sie ideal für Aufgaben wie Sprachmodellierung und Sequenzvorhersage.

  • Sequenzielle Verarbeitung: RNN verarbeitet Daten Schritt für Schritt und behält dabei den Überblick über vorherige Informationen;
  • Satzvervollständigung: Bei dem unvollständigen Satz "My favourite dish is sushi. So, my favourite cuisine is _____." verarbeitet das RNN die Wörter nacheinander. Nach dem Wort "sushi" sagt es das nächste Wort als "Japanese" basierend auf dem vorherigen Kontext voraus;
  • Gedächtnis in RNNs: Bei jedem Schritt aktualisiert das RNN seinen internen Zustand (Gedächtnis) mit neuen Informationen, um den Kontext für zukünftige Schritte zu bewahren;
  • Training des RNN: RNNs werden mit Backpropagation Through Time (BPTT) trainiert, wobei Fehler rückwärts durch jeden Zeitschritt weitergegeben werden, um die Gewichte für bessere Vorhersagen anzupassen.

Forward Propagation

Während der Forward Propagation verarbeitet das RNN die Eingabedaten Schritt für Schritt:

  1. Eingabe zum Zeitpunkt tt: Das Netzwerk erhält zu jedem Zeitpunkt eine Eingabe xtx_t;

  2. Aktualisierung des versteckten Zustands: Der aktuelle versteckte Zustand hth_t wird basierend auf dem vorherigen versteckten Zustand ht1h_{t-1} und der aktuellen Eingabe xtx_t mit folgender Formel aktualisiert:

    ht=f(W[ht1,xt]+b)
    • Dabei gilt:
      • WW ist die Gewichtsmatrix;
      • bb ist der Bias-Vektor;
      • ff ist die Aktivierungsfunktion.
  3. Ausgabegenerierung: Die Ausgabe yty_t wird basierend auf dem aktuellen versteckten Zustand hth_t mit folgender Formel erzeugt:

    yt=g(Vht+c)

    • Dabei gilt:
      • VV ist die Gewichtsmatrix für die Ausgabe;
      • cc ist der Bias für die Ausgabe;
      • gg ist die Aktivierungsfunktion der Ausgabeschicht.

Backpropagation-Prozess

Backpropagation in RNNs ist entscheidend für die Aktualisierung der Gewichte und die Verbesserung des Modells. Der Prozess wird an die sequenzielle Natur von RNNs durch Backpropagation Through Time (BPTT) angepasst:

  1. Fehlerberechnung: Der erste Schritt bei BPTT ist die Berechnung des Fehlers zu jedem Zeitschritt. Dieser Fehler ist typischerweise die Differenz zwischen der vorhergesagten Ausgabe und dem tatsächlichen Zielwert;

  2. Gradientenberechnung: In Rekurrenten Neuronalen Netzen werden die Gradienten der Verlustfunktion berechnet, indem der Fehler bezüglich der Netzwerkparameter abgeleitet und rückwärts durch die Zeit vom letzten zum ersten Schritt propagiert wird. Dies kann insbesondere bei langen Sequenzen zu verschwindenden oder explodierenden Gradienten führen;

  3. Gewichtsaktualisierung: Sobald die Gradienten berechnet wurden, werden die Gewichte mit einer Optimierungsmethode wie Stochastic Gradient Descent (SGD) aktualisiert. Die Gewichte werden so angepasst, dass der Fehler in zukünftigen Iterationen minimiert wird. Die Formel zur Aktualisierung der Gewichte lautet:

    W:=WηLossW

    • Dabei gilt:
      • η\eta ist die Lernrate;
      • LossW ist der Gradient der Verlustfunktion bezüglich der Gewichtsmatrix.

Zusammenfassend sind RNNs leistungsfähig, da sie Informationen aus der Vergangenheit speichern und nutzen können, was sie für Aufgaben mit Sequenzen geeignet macht.

question mark

Welche Rolle spielt die Funktion gg in der Ausgabegleichung yt=g(Vht+c)y_t = g(V \cdot h_t+ c)

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 2
some-alt