Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Episodit ja Palautukset | RL:n Ydinteoria
Vahvistusoppimisen Perusteet

bookEpisodit ja Palautukset

Tehtävän kesto

RL-tehtävät luokitellaan tyypillisesti episodisiin tai jatkuviin sen mukaan, miten oppimisprosessi on jäsennelty ajan suhteen.

Note
Määritelmä

Episodi on täydellinen vuorovaikutusjakso agentin ja ympäristön välillä, joka alkaa alkutilasta ja etenee siirtymien kautta, kunnes saavutetaan päättymistila.

Episodiset tehtävät ovat tehtäviä, jotka koostuvat rajallisesta jaksosta tiloja, toimintoja ja palkkioita, joissa agentin vuorovaikutus ympäristön kanssa jaetaan erillisiin episodeihin.

Vastaavasti jatkuvilla tehtävillä ei ole selkeää loppua jokaiselle vuorovaikutussyklille. Agentti vuorovaikuttaa jatkuvasti ympäristön kanssa ilman palautusta alkuperäiseen tilaan, ja oppimisprosessi on käynnissä usein ilman selkeää päätepistettä.

Tuotto

Tiedät jo, että agentin keskeinen tavoite on maksimoida kumulatiiviset palkkiot. Vaikka palkkiofunktio antaa hetkellisiä palkkioita, se ei huomioi tulevia seurauksia, mikä voi olla ongelmallista. Agentti, joka on koulutettu maksimoimaan vain välittömät palkkiot, saattaa sivuuttaa pitkän aikavälin hyödyt. Tämän ongelman ratkaisemiseksi otetaan käyttöön käsite nimeltä tuotto.

Note
Määritelmä

Palautus GG on agentin saama kokonaiskertynyt palkkio tietystä tilasta eteenpäin, joka sisältää kaikki tulevaisuudessa saatavat palkkiot, ei vain välittömät.

Palautus kuvaa paremmin, kuinka hyvä tietty tila tai toiminto on pitkällä aikavälillä. Vahvistusoppimisen tavoite voidaan nyt määritellä palautuksen maksimoimiseksi.

Jos TT on viimeinen aikaleima, palautuksen kaava on seuraava:

Gt=Rt+1+Rt+2+Rt+3+...+RTG_t = R_{t+1} + R_{t+2} + R_{t+3} + ... + R_T

Diskonttaus

Vaikka yksinkertainen tuotto toimii hyvänä tavoitteena episodisissa tehtävissä, jatkuvissa tehtävissä ilmenee ongelma. Jos aika-askeleiden määrä on ääretön, voi tuotto itsessään olla ääretön. Tämän ratkaisemiseksi käytetään diskonttaustekijää, joka varmistaa, että tuleville palkkioille annetaan vähemmän painoarvoa, estää tuoton muuttumisen äärettömäksi.

Note
Määritelmä

Diskonttaustekijä γ\gamma on kertoluku, jota käytetään tulevien palkkioiden nykyarvon määrittämiseen. Sen arvo vaihtelee välillä 0 ja 1, missä arvo lähempänä 0 saa agentin painottamaan välittömiä palkkioita, kun taas arvo lähempänä 1 saa agentin huomioimaan tulevat palkkiot merkittävämpinä.

Tuotto yhdistettynä diskonttokertoimeen kutsutaan diskontatuksi tuotoksi.

Diskontatun tuoton kaava näyttää tältä:

Gt=Rt+1+γRt+2+γ2Rt+3+...=k=0γkRt+k+1G_t = R_{t+1} + \gamma R_{t+2} + \gamma^2 R_{t+3} + ... = \sum_{k=0}^\infty \gamma^k R_{t+k+1}
Note
Opiskele lisää

Jopa episodisissa tehtävissä diskonttokertoimen käyttö tarjoaa käytännön etuja: se motivoi agenttia saavuttamaan tavoitteensa mahdollisimman nopeasti, mikä johtaa tehokkaampaan toimintaan. Tästä syystä diskonttausta käytetään yleisesti myös selvästi episodisissa tilanteissa.

question mark

Mitä diskonttaustekijä γ\gamma edustaa?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 4

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Awesome!

Completion rate improved to 2.7

bookEpisodit ja Palautukset

Pyyhkäise näyttääksesi valikon

Tehtävän kesto

RL-tehtävät luokitellaan tyypillisesti episodisiin tai jatkuviin sen mukaan, miten oppimisprosessi on jäsennelty ajan suhteen.

Note
Määritelmä

Episodi on täydellinen vuorovaikutusjakso agentin ja ympäristön välillä, joka alkaa alkutilasta ja etenee siirtymien kautta, kunnes saavutetaan päättymistila.

Episodiset tehtävät ovat tehtäviä, jotka koostuvat rajallisesta jaksosta tiloja, toimintoja ja palkkioita, joissa agentin vuorovaikutus ympäristön kanssa jaetaan erillisiin episodeihin.

Vastaavasti jatkuvilla tehtävillä ei ole selkeää loppua jokaiselle vuorovaikutussyklille. Agentti vuorovaikuttaa jatkuvasti ympäristön kanssa ilman palautusta alkuperäiseen tilaan, ja oppimisprosessi on käynnissä usein ilman selkeää päätepistettä.

Tuotto

Tiedät jo, että agentin keskeinen tavoite on maksimoida kumulatiiviset palkkiot. Vaikka palkkiofunktio antaa hetkellisiä palkkioita, se ei huomioi tulevia seurauksia, mikä voi olla ongelmallista. Agentti, joka on koulutettu maksimoimaan vain välittömät palkkiot, saattaa sivuuttaa pitkän aikavälin hyödyt. Tämän ongelman ratkaisemiseksi otetaan käyttöön käsite nimeltä tuotto.

Note
Määritelmä

Palautus GG on agentin saama kokonaiskertynyt palkkio tietystä tilasta eteenpäin, joka sisältää kaikki tulevaisuudessa saatavat palkkiot, ei vain välittömät.

Palautus kuvaa paremmin, kuinka hyvä tietty tila tai toiminto on pitkällä aikavälillä. Vahvistusoppimisen tavoite voidaan nyt määritellä palautuksen maksimoimiseksi.

Jos TT on viimeinen aikaleima, palautuksen kaava on seuraava:

Gt=Rt+1+Rt+2+Rt+3+...+RTG_t = R_{t+1} + R_{t+2} + R_{t+3} + ... + R_T

Diskonttaus

Vaikka yksinkertainen tuotto toimii hyvänä tavoitteena episodisissa tehtävissä, jatkuvissa tehtävissä ilmenee ongelma. Jos aika-askeleiden määrä on ääretön, voi tuotto itsessään olla ääretön. Tämän ratkaisemiseksi käytetään diskonttaustekijää, joka varmistaa, että tuleville palkkioille annetaan vähemmän painoarvoa, estää tuoton muuttumisen äärettömäksi.

Note
Määritelmä

Diskonttaustekijä γ\gamma on kertoluku, jota käytetään tulevien palkkioiden nykyarvon määrittämiseen. Sen arvo vaihtelee välillä 0 ja 1, missä arvo lähempänä 0 saa agentin painottamaan välittömiä palkkioita, kun taas arvo lähempänä 1 saa agentin huomioimaan tulevat palkkiot merkittävämpinä.

Tuotto yhdistettynä diskonttokertoimeen kutsutaan diskontatuksi tuotoksi.

Diskontatun tuoton kaava näyttää tältä:

Gt=Rt+1+γRt+2+γ2Rt+3+...=k=0γkRt+k+1G_t = R_{t+1} + \gamma R_{t+2} + \gamma^2 R_{t+3} + ... = \sum_{k=0}^\infty \gamma^k R_{t+k+1}
Note
Opiskele lisää

Jopa episodisissa tehtävissä diskonttokertoimen käyttö tarjoaa käytännön etuja: se motivoi agenttia saavuttamaan tavoitteensa mahdollisimman nopeasti, mikä johtaa tehokkaampaan toimintaan. Tästä syystä diskonttausta käytetään yleisesti myös selvästi episodisissa tilanteissa.

question mark

Mitä diskonttaustekijä γ\gamma edustaa?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 4
some-alt