Kursinhalt
Einführung in das Reinforcement Learning
Einführung in das Reinforcement Learning
Verallgemeinerung des TD-Lernens
Bisher haben wir zwei Extremfälle des Lernens aus Erfahrung betrachtet:
- TD(0): verwendet die Ein-Schritt-Rendite;
- Monte Carlo: wartet bis zum Ende der Episode, um die Rendite zu berechnen.
Aber was, wenn wir etwas dazwischen wollen? Etwas, das mehr zukünftige Informationen nutzt als TD(0), aber nicht wie Monte Carlo auf die gesamte Episode warten muss?
Hier kommen das -Schritt-TD-Lernen und TD() ins Spiel — Methoden, die die bisher gesehenen Ansätze vereinheitlichen und verallgemeinern.
-Schritt-TD-Lernen
Die Idee hinter dem -Schritt-TD-Lernen ist einfach: Anstatt nur den nächsten Schritt oder die gesamte Episode zu verwenden, nutzen wir die nächsten Schritte und bootstrappen dann:
Dies ermöglicht einen Kompromiss:
- Für : entspricht es TD(0);
- Für : entspricht es Monte Carlo.
Diese Rückgaben können dann als Ziel im TD(0)-Aktualisierungsregel verwendet werden:
TD()
TD() ist ein ausgeklügeltes Konzept, das auf dem -Schritt-TD-Lernen aufbaut: Anstatt ein festes zu wählen, werden alle -Schritt-Rückgaben kombiniert:
wobei die Gewichtung steuert:
- Wenn : nur Ein-Schritt-Rückgabe TD(0);
- Wenn : vollständige Rückgabe Monte Carlo;
- Zwischenwerte mischen mehrere Schritt-Rückgaben.
Somit fungiert als Regler für den Bias-Varianz-Kompromiss:
- Niedriges : mehr Bias, weniger Varianz;
- Hohes : weniger Bias, mehr Varianz.
kann dann als Aktualisierungsziel in der TD(0)-Aktualisierungsregel verwendet werden:
Danke für Ihr Feedback!