Kursinhalt
Einführung in das Reinforcement Learning
Einführung in das Reinforcement Learning
Politikverbesserung
Politikverbesserung ist ein Prozess zur Verbesserung der Politik auf Basis aktueller Schätzungen der Wertfunktion.
Wie bei der Politikevaluierung kann die Politikverbesserung sowohl mit der Zustandswertfunktion als auch mit der Aktionswertfunktion arbeiten. Für DP-Methoden wird jedoch die Zustandswertfunktion verwendet.
Nachdem nun die Zustandswertfunktion für eine beliebige Politik geschätzt werden kann, ist der nächste logische Schritt zu untersuchen, ob es Politiken gibt, die besser als die aktuelle sind. Eine Möglichkeit besteht darin, in einem Zustand eine andere Aktion auszuführen und anschließend der aktuellen Politik zu folgen. Falls dies bekannt vorkommt, liegt das daran, dass dies der Definition der Aktionswertfunktion entspricht:
Wenn dieser neue Wert größer ist als der ursprüngliche Zustandswert , deutet dies darauf hin, dass das Ausführen der Aktion im Zustand und anschließendes Fortsetzen mit der Politik zu besseren Ergebnissen führt als das strikte Befolgen der Politik . Da die Zustände unabhängig sind, ist es optimal, immer die Aktion zu wählen, sobald der Zustand erreicht wird. Daher kann eine verbesserte Politik konstruiert werden, die mit identisch ist, außer dass sie im Zustand die Aktion auswählt, was der ursprünglichen Politik überlegen wäre.
Satz zur Politikverbesserung
Die oben beschriebene Argumentation lässt sich als Satz zur Politikverbesserung verallgemeinern:
Der Beweis dieses Theorems ist relativ einfach und kann durch eine wiederholte Substitution durchgeführt werden:
Verbesserungsstrategie
Das Aktualisieren von Aktionen für bestimmte Zustände kann zu Verbesserungen führen, jedoch ist es effektiver, die Aktionen für alle Zustände gleichzeitig zu aktualisieren. Für jeden Zustand wird dabei die Aktion gewählt, die den Aktionswert maximiert:
wobei (Abkürzung für Argument des Maximums) ein Operator ist, der den Wert der Variablen zurückgibt, der eine gegebene Funktion maximiert.
Die resultierende gierige Politik, bezeichnet als , erfüllt durch ihre Konstruktion die Bedingungen des Policy-Improvement-Theorems und garantiert, dass mindestens so gut wie die ursprüngliche Politik ist und typischerweise besser.
Falls genauso gut wie, aber nicht besser als ist, dann sind sowohl als auch optimale Politiken, da ihre Wertfunktionen gleich sind und die Bellman-Optimalitätsgleichung erfüllen:
Danke für Ihr Feedback!