Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Bayesilainen Päättely ja Markovin Prosessit | Teoreettiset Perusteet
Generatiivinen Tekoäly

bookBayesilainen Päättely ja Markovin Prosessit

Bayesilaisen päättelyn ymmärtäminen tekoälyssä

Mitä on bayesilainen päättely?

Bayesilainen päättely on tilastollinen menetelmä, jota käytetään todennäköisyyksien päivittämiseen uuden todistusaineiston perusteella. Tekoälyjärjestelmät hyödyntävät bayesilaista päättelyä tarkentaakseen ennusteitaan kerätessään lisää dataa.

Kuvittele, että ennustat säätä. Jos kaupungissasi on yleensä aurinkoista, mutta näet tummia pilviä muodostumassa, muutat odotustasi ja ennustat sadetta. Näin bayesilainen päättely toimii—aloitetaan alkuperäisellä oletuksella (priori), otetaan huomioon uusi data ja päivitetään uskomus sen mukaisesti.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

missä:

  • P(HD)P(H|D) on posterioritodennäköisyys, päivitetty todennäköisyys hypoteesille HH annetun datan DD perusteella;
  • P(DH)P(D|H) on likelihood, eli kuinka hyvin hypoteesi HH selittää datan DD;
  • P(H)P(H) on prioritodennäköisyys, alkuperäinen uskomus ennen kuin DD havaitaan;
  • P(D)P(D) on marginaalitodennäköisyys, joka toimii normalisointivakiona.

Ongelmanasettelu: Tekoälyyn perustuva roskapostisuodatin käyttää bayesilaista luokittelua.

  • 20 % sähköposteista on roskapostia (P(Spam) = 0.2);
  • 80 % sähköposteista ei ole roskapostia (P(Not Spam) = 0.8);
  • 90 % roskapostiviesteistä sisältää sanan "urgent" (P(Urgent | Spam) = 0.9);
  • 10 % tavallisista sähköposteista sisältää sanan "urgent" (P(Urgent | Not Spam) = 0.1).

Kysymys:
Jos sähköposti sisältää sanan "urgent", mikä on todennäköisyys, että se on roskapostia (P(Spam | Urgent))?

Markov-prosessit: Tulevaisuuden ennustaminen

Mikä on Markov-ketju?

Markov-ketju on matemaattinen malli, jossa seuraava tila riippuu vain nykyisestä tilasta, ei aiemmista. Sitä käytetään laajasti tekoälyssä jaksollisen datan ja päätöksentekoprosessien mallintamiseen. Tässä ovat Markov-prosessien keskeiset kaavat:

1. Siirtymätodennäköisyyden kaava
Todennäköisyys, että järjestelmä on tilassa SjS_j ajanhetkellä tt, kun edellinen tila oli SiS_i ajanhetkellä t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

missä TijT_{ij} on siirtymätodennäköisyys tilasta SiS_i tilaan SjS_j;

2. Tilatodennäköisyyden päivitys
Tilojen todennäköisyysjakauma ajanhetkellä tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

missä:

  • PtP_t on tilatodennäköisyys ajanhetkellä tt.
  • Pt1P_{t-1} on tilatodennäköisyys ajanhetkellä t1t-1.
  • TT on siirtymämatrixi.

3. Tasapainotilan todennäköisyys (pitkän aikavälin käyttäytyminen)
Pitkään jatkuvassa Markov-prosessissa tasapainotilan todennäköisyys PsP_s täyttää ehdon:

Ps=PsTP_s=P_s \cdot T

Tämä yhtälö ratkaistaan tasapainojakauman löytämiseksi, jossa todennäköisyydet eivät muutu ajan myötä.

Ongelmanasettelu: Tietyssä kaupungissa säätila vaihtelee aurinkoisten ja sateisten päivien välillä. Siirtymien todennäköisyydet näiden tilojen välillä on annettu seuraavalla siirtymämatriisilla:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Missä:

  • 0.7 on todennäköisyys, että aurinkoisen päivän jälkeen seuraa jälleen aurinkoinen päivä;
  • 0.3 on todennäköisyys, että aurinkoinen päivä muuttuu sateiseksi;
  • 0.6 on todennäköisyys, että sateinen päivä muuttuu aurinkoiseksi;
  • 0.4 on todennäköisyys, että sateisen päivän jälkeen seuraa jälleen sateinen päivä.

Jos tämän päivän sää on aurinkoinen, mikä on todennäköisyys, että kahden päivän kuluttua on sateista?

Markovin päätösprosessit (MDP): Päätöksenteon opettaminen tekoälylle

MDP:t laajentavat Markovin ketjuja lisäämällä toimintoja ja palkkioita, mahdollistaen tekoälyn tehdä optimaalisia päätöksiä pelkän tilojen ennustamisen sijaan.

Esimerkki: Robotti sokkelossa

Sokkeloa kulkeva robotti oppii, mitkä reitit johtavat ulos ottamalla huomioon:

  • Toiminnot: liikkuminen vasemmalle, oikealle, ylös tai alas;
  • Palkkiot: tavoitteen saavuttaminen, seinään törmääminen tai esteen kohtaaminen;
  • Optimaalinen strategia: toimintojen valinta, jotka maksimoivat palkkion.

MDP:t ovat laajasti käytössä pelitekoälyssä, robotiikassa ja suositusjärjestelmissä päätöksenteon optimointiin.

Piilotetut Markovin mallit (HMM): Näkymättömien mallien ymmärtäminen

HMM on Markovin malli, jossa osa tiloista on piilotettuja ja tekoälyn täytyy päätellä ne havaittujen tietojen perusteella.

Esimerkki: Puheentunnistus

Kun puhut Sirille tai Alexalle, tekoäly ei näe sanoja suoraan. Sen sijaan se käsittelee ääniaaltoja ja pyrkii määrittämään todennäköisimmän sanajonon.

HMM:t ovat keskeisiä seuraavissa:

  • Puheen- ja tekstintunnistus: tekoäly tulkitsee puhuttua kieltä ja käsialaa;
  • Pörssimarkkinoiden ennustaminen: tekoäly mallintaa piilotettuja trendejä markkinoiden vaihteluiden ennustamiseksi;
  • Robotiikka ja pelit: tekoälyohjatut agentit päättelevät piilotiloja havaittavista tapahtumista.

Yhteenveto

Bayesilainen päättely tarjoaa systemaattisen tavan päivittää uskomuksia tekoälymalleissa, kun taas Markovin prosessit tarjoavat tehokkaita työkaluja peräkkäisten riippuvuuksien mallintamiseen. Nämä periaatteet muodostavat perustan keskeisille generatiivisen tekoälyn sovelluksille, kuten vahvistusoppimiselle, todennäköisille graafimalleille ja rakenteiselle sekvenssigeneroinnille.

1. Mikä on bayesiläisen päättelyn ensisijainen rooli tekoälyssä?

2. Mitä tekoäly ottaa huomioon tehdessään päätöksen Markovin päätösprosessissa?

3. Mikä seuraavista on piilotettujen Markov-mallien sovellus?

question mark

Mikä on bayesiläisen päättelyn ensisijainen rooli tekoälyssä?

Select the correct answer

question mark

Mitä tekoäly ottaa huomioon tehdessään päätöksen Markovin päätösprosessissa?

Select the correct answer

question mark

Mikä seuraavista on piilotettujen Markov-mallien sovellus?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 2

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Suggested prompts:

Can you explain how Bayes' theorem is applied in spam detection?

What is the difference between a Markov chain and a Markov decision process?

Can you give more real-world examples of Hidden Markov Models in AI?

Awesome!

Completion rate improved to 4.76

bookBayesilainen Päättely ja Markovin Prosessit

Pyyhkäise näyttääksesi valikon

Bayesilaisen päättelyn ymmärtäminen tekoälyssä

Mitä on bayesilainen päättely?

Bayesilainen päättely on tilastollinen menetelmä, jota käytetään todennäköisyyksien päivittämiseen uuden todistusaineiston perusteella. Tekoälyjärjestelmät hyödyntävät bayesilaista päättelyä tarkentaakseen ennusteitaan kerätessään lisää dataa.

Kuvittele, että ennustat säätä. Jos kaupungissasi on yleensä aurinkoista, mutta näet tummia pilviä muodostumassa, muutat odotustasi ja ennustat sadetta. Näin bayesilainen päättely toimii—aloitetaan alkuperäisellä oletuksella (priori), otetaan huomioon uusi data ja päivitetään uskomus sen mukaisesti.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

missä:

  • P(HD)P(H|D) on posterioritodennäköisyys, päivitetty todennäköisyys hypoteesille HH annetun datan DD perusteella;
  • P(DH)P(D|H) on likelihood, eli kuinka hyvin hypoteesi HH selittää datan DD;
  • P(H)P(H) on prioritodennäköisyys, alkuperäinen uskomus ennen kuin DD havaitaan;
  • P(D)P(D) on marginaalitodennäköisyys, joka toimii normalisointivakiona.

Ongelmanasettelu: Tekoälyyn perustuva roskapostisuodatin käyttää bayesilaista luokittelua.

  • 20 % sähköposteista on roskapostia (P(Spam) = 0.2);
  • 80 % sähköposteista ei ole roskapostia (P(Not Spam) = 0.8);
  • 90 % roskapostiviesteistä sisältää sanan "urgent" (P(Urgent | Spam) = 0.9);
  • 10 % tavallisista sähköposteista sisältää sanan "urgent" (P(Urgent | Not Spam) = 0.1).

Kysymys:
Jos sähköposti sisältää sanan "urgent", mikä on todennäköisyys, että se on roskapostia (P(Spam | Urgent))?

Markov-prosessit: Tulevaisuuden ennustaminen

Mikä on Markov-ketju?

Markov-ketju on matemaattinen malli, jossa seuraava tila riippuu vain nykyisestä tilasta, ei aiemmista. Sitä käytetään laajasti tekoälyssä jaksollisen datan ja päätöksentekoprosessien mallintamiseen. Tässä ovat Markov-prosessien keskeiset kaavat:

1. Siirtymätodennäköisyyden kaava
Todennäköisyys, että järjestelmä on tilassa SjS_j ajanhetkellä tt, kun edellinen tila oli SiS_i ajanhetkellä t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

missä TijT_{ij} on siirtymätodennäköisyys tilasta SiS_i tilaan SjS_j;

2. Tilatodennäköisyyden päivitys
Tilojen todennäköisyysjakauma ajanhetkellä tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

missä:

  • PtP_t on tilatodennäköisyys ajanhetkellä tt.
  • Pt1P_{t-1} on tilatodennäköisyys ajanhetkellä t1t-1.
  • TT on siirtymämatrixi.

3. Tasapainotilan todennäköisyys (pitkän aikavälin käyttäytyminen)
Pitkään jatkuvassa Markov-prosessissa tasapainotilan todennäköisyys PsP_s täyttää ehdon:

Ps=PsTP_s=P_s \cdot T

Tämä yhtälö ratkaistaan tasapainojakauman löytämiseksi, jossa todennäköisyydet eivät muutu ajan myötä.

Ongelmanasettelu: Tietyssä kaupungissa säätila vaihtelee aurinkoisten ja sateisten päivien välillä. Siirtymien todennäköisyydet näiden tilojen välillä on annettu seuraavalla siirtymämatriisilla:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Missä:

  • 0.7 on todennäköisyys, että aurinkoisen päivän jälkeen seuraa jälleen aurinkoinen päivä;
  • 0.3 on todennäköisyys, että aurinkoinen päivä muuttuu sateiseksi;
  • 0.6 on todennäköisyys, että sateinen päivä muuttuu aurinkoiseksi;
  • 0.4 on todennäköisyys, että sateisen päivän jälkeen seuraa jälleen sateinen päivä.

Jos tämän päivän sää on aurinkoinen, mikä on todennäköisyys, että kahden päivän kuluttua on sateista?

Markovin päätösprosessit (MDP): Päätöksenteon opettaminen tekoälylle

MDP:t laajentavat Markovin ketjuja lisäämällä toimintoja ja palkkioita, mahdollistaen tekoälyn tehdä optimaalisia päätöksiä pelkän tilojen ennustamisen sijaan.

Esimerkki: Robotti sokkelossa

Sokkeloa kulkeva robotti oppii, mitkä reitit johtavat ulos ottamalla huomioon:

  • Toiminnot: liikkuminen vasemmalle, oikealle, ylös tai alas;
  • Palkkiot: tavoitteen saavuttaminen, seinään törmääminen tai esteen kohtaaminen;
  • Optimaalinen strategia: toimintojen valinta, jotka maksimoivat palkkion.

MDP:t ovat laajasti käytössä pelitekoälyssä, robotiikassa ja suositusjärjestelmissä päätöksenteon optimointiin.

Piilotetut Markovin mallit (HMM): Näkymättömien mallien ymmärtäminen

HMM on Markovin malli, jossa osa tiloista on piilotettuja ja tekoälyn täytyy päätellä ne havaittujen tietojen perusteella.

Esimerkki: Puheentunnistus

Kun puhut Sirille tai Alexalle, tekoäly ei näe sanoja suoraan. Sen sijaan se käsittelee ääniaaltoja ja pyrkii määrittämään todennäköisimmän sanajonon.

HMM:t ovat keskeisiä seuraavissa:

  • Puheen- ja tekstintunnistus: tekoäly tulkitsee puhuttua kieltä ja käsialaa;
  • Pörssimarkkinoiden ennustaminen: tekoäly mallintaa piilotettuja trendejä markkinoiden vaihteluiden ennustamiseksi;
  • Robotiikka ja pelit: tekoälyohjatut agentit päättelevät piilotiloja havaittavista tapahtumista.

Yhteenveto

Bayesilainen päättely tarjoaa systemaattisen tavan päivittää uskomuksia tekoälymalleissa, kun taas Markovin prosessit tarjoavat tehokkaita työkaluja peräkkäisten riippuvuuksien mallintamiseen. Nämä periaatteet muodostavat perustan keskeisille generatiivisen tekoälyn sovelluksille, kuten vahvistusoppimiselle, todennäköisille graafimalleille ja rakenteiselle sekvenssigeneroinnille.

1. Mikä on bayesiläisen päättelyn ensisijainen rooli tekoälyssä?

2. Mitä tekoäly ottaa huomioon tehdessään päätöksen Markovin päätösprosessissa?

3. Mikä seuraavista on piilotettujen Markov-mallien sovellus?

question mark

Mikä on bayesiläisen päättelyn ensisijainen rooli tekoälyssä?

Select the correct answer

question mark

Mitä tekoäly ottaa huomioon tehdessään päätöksen Markovin päätösprosessissa?

Select the correct answer

question mark

Mikä seuraavista on piilotettujen Markov-mallien sovellus?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 2
some-alt