Kursusindhold
Introduktion til Reinforcement Learning
Introduktion til Reinforcement Learning
Politikforbedring
Politikforbedring er en proces, hvor politikken forbedres baseret på de nuværende estimater af værdifunktionen.
Ligesom ved politikkevaluering kan politikforbedring anvendes med både tilstandsværdifunktion og aktionsværdifunktion. Men for DP-metoder vil tilstandsværdifunktionen blive brugt.
Nu hvor du kan estimere tilstandsværdifunktionen for en vilkårlig politik, er det naturlige næste skridt at undersøge, om der findes politikker, der er bedre end den nuværende. En måde at gøre dette på er at overveje at tage en anden handling i en tilstand og derefter følge den nuværende politik. Hvis dette lyder bekendt, er det fordi det ligner definitionen af aktionsværdifunktionen:
Hvis denne nye værdi er større end den oprindelige tilstandsværdi , indikerer det, at det at vælge handling i tilstand og derefter fortsætte med politik fører til bedre resultater end udelukkende at følge politik . Da tilstande er uafhængige, er det optimalt altid at vælge handling , når tilstand opstår. Derfor kan vi konstruere en forbedret politik , som er identisk med , bortset fra at den vælger handling i tilstand , hvilket vil være bedre end den oprindelige politik .
Politisk forbedringsteorem
Den ovenfor beskrevne ræsonnement kan generaliseres som politisk forbedringsteorem:
Beviset for denne sætning er relativt simpelt og kan opnås ved en gentagen substitution:
Forbedringsstrategi
Selvom opdatering af handlinger for visse tilstande kan føre til forbedringer, er det mere effektivt at opdatere handlinger for alle tilstande samtidigt. Specifikt vælges for hver tilstand den handling , der maksimerer handlingsværdien :
hvor (forkortelse for argumentet for maksimum) er en operator, der returnerer værdien af den variabel, der maksimerer en given funktion.
Den resulterende grådige politik, betegnet som , opfylder betingelserne i policy improvement-sætningen ved konstruktion, hvilket garanterer, at er mindst lige så god som den oprindelige politik , og typisk bedre.
Hvis er lige så god som, men ikke bedre end , så er både og optimale politikker, da deres værdifunktioner er ens og opfylder Bellmans optimalitetsligning:
Tak for dine kommentarer!