Kursinhalt
Einführung in das Reinforcement Learning
Einführung in das Reinforcement Learning
Politikbewertung
Politikbewertung ist ein Verfahren zur Bestimmung der Wertfunktion einer gegebenen Politik.
Die Politikbewertung kann verwendet werden, um sowohl die Zustandswertfunktion als auch die Aktionswertfunktion zu schätzen. Für DP-Methoden wird jedoch die Zustandswertfunktion verwendet.
Wie bekannt, kann eine Zustandswertfunktion einer gegebenen Politik durch Lösen der Bellman-Gleichung bestimmt werden:
Wenn ein vollständiges Modell der Umgebung vorliegt (d. h. bekannte Übergangswahrscheinlichkeiten und erwartete Belohnungen für alle Zustands-Aktions-Paare), sind die einzigen verbleibenden Unbekannten in der Gleichung die Zustandswerte. Daher kann die obige Gleichung als ein System von linearen Gleichungen mit Unbekannten umformuliert werden.
Beispielsweise, wenn ein MDP 2 Zustände (, ) und 2 Aktionen (Wechsel zu , Wechsel zu ) hat, könnte die Zustandswertfunktion wie folgt definiert werden:
Dies kann mit Standardmethoden der linearen Algebra gelöst werden.
Eine eindeutige Lösung für ein solches lineares Gleichungssystem ist garantiert, wenn mindestens eine der folgenden Bedingungen erfüllt ist:
- Der Diskontfaktor erfüllt ;
- Die Politik stellt sicher, dass bei Befolgung aus jedem Zustand die Episode schließlich terminiert.
Iterative Politikauswertung
Die Lösung kann direkt berechnet werden, jedoch wird aufgrund der einfachen Implementierung häufiger ein iteratives Verfahren verwendet. Diese Methode beginnt mit der Zuweisung von beliebigen Anfangswerten für alle Zustände, außer für Endzustände, die auf 0 gesetzt werden. Die Werte werden dann iterativ mithilfe der Bellman-Gleichung als Aktualisierungsregel angepasst:
Die geschätzte Zustandswertfunktion konvergiert schließlich zu einer echten Zustandswertfunktion , wenn gilt, sofern existiert.
Strategien zur Wert-Backup
Beim Aktualisieren von Wertschätzungen werden neue Schätzungen auf Basis vorheriger Werte berechnet. Der Prozess der Beibehaltung vorheriger Schätzungen wird als Backup bezeichnet. Es gibt zwei gängige Strategien zur Durchführung von Backups:
- Vollständiges Backup: Diese Methode beinhaltet das Speichern der neuen Schätzungen in einem separaten Array, das sich von dem mit den vorherigen (gesicherten) Werten unterscheidet. Folglich werden zwei Arrays benötigt — eines zur Aufbewahrung der vorherigen Schätzungen und ein weiteres zur Speicherung der neu berechneten Werte;
- In-place-Backup: Bei diesem Ansatz werden alle Werte in einem einzigen Array verwaltet. Jede neue Schätzung ersetzt sofort den vorherigen Wert. Diese Methode reduziert den Speicherbedarf, da nur ein Array benötigt wird.
In der Regel wird die Methode des In-place-Backups bevorzugt, da sie weniger Speicher benötigt und aufgrund der sofortigen Verwendung der neuesten Schätzungen schneller konvergiert.
Wann sollte die Aktualisierung gestoppt werden?
Bei der iterativen Politikauswertung gibt es keinen exakten Zeitpunkt, zu dem der Algorithmus gestoppt werden sollte. Obwohl die Konvergenz im Grenzwert garantiert ist, sind weitere Berechnungen über einen bestimmten Punkt hinaus in der Praxis nicht notwendig. Ein einfaches und effektives Abbruchkriterium besteht darin, den absoluten Unterschied zwischen aufeinanderfolgenden Wertschätzungen, , zu verfolgen und mit einem kleinen Schwellenwert zu vergleichen. Wenn nach einem vollständigen Aktualisierungszyklus (bei dem die Werte für alle Zustände aktualisiert werden) keine Änderungen den Wert überschreiten, kann der Prozess sicher beendet werden.
Pseudocode
Danke für Ihr Feedback!