Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Bayesiansk Inferens og Markov-prosesser | Teoretiske Grunnlag
Generativ KI

bookBayesiansk Inferens og Markov-prosesser

Forståelse av Bayesiansk inferens i KI

Hva er Bayesiansk inferens?

Bayesiansk inferens er en statistisk metode som brukes til å oppdatere sannsynligheter basert på nye bevis. KI-systemer benytter Bayesiansk inferens for å forbedre sine prediksjoner etter hvert som de samler inn mer data.

Tenk deg at du skal forutsi været. Hvis det vanligvis er sol i byen din, men du ser mørke skyer samle seg, justerer du forventningen og forutser regn. Dette illustrerer hvordan Bayesiansk inferens fungerer—man starter med en opprinnelig antakelse (prior), inkluderer nye data, og oppdaterer antakelsen deretter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

hvor:

  • P(HD)P(H|D) er posterior sannsynlighet, den oppdaterte sannsynligheten for hypotesen HH gitt data DD;
  • P(DH)P(D|H) er likelihood, som representerer hvor godt hypotesen HH forklarer data DD;
  • P(H)P(H) er prior sannsynlighet, den opprinnelige antakelsen før man observerer DD;
  • P(D)P(D) er marginal likelihood, som fungerer som en normaliseringskonstant.

Problemstilling: Et AI-basert spamfilter bruker Bayesiansk klassifisering.

  • 20 % av e-poster er spam (P(Spam) = 0.2);
  • 80 % av e-poster er ikke spam (P(Not Spam) = 0.8);
  • 90 % av spam-eposter inneholder ordet “urgent” (P(Urgent | Spam) = 0.9);
  • 10 % av vanlige e-poster inneholder ordet “urgent” (P(Urgent | Not Spam) = 0.1).

Spørsmål:
Hvis en e-post inneholder ordet "urgent", hva er sannsynligheten for at den er spam (P(Spam | Urgent))?

Markov-prosesser: Forutsi fremtiden

Hva er en Markov-kjede?

En Markov-kjede er en matematisk modell der neste tilstand kun avhenger av nåværende tilstand og ikke av de foregående. Den brukes mye i AI for å modellere sekvensielle data og beslutningsprosesser. Her er de sentrale formlene som brukes i Markov-prosesser:

1. Formel for overgangssannsynlighet
Sannsynligheten for at et system er i tilstand SjS_j ved tid tt gitt forrige tilstand SiS_i ved tid t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

hvor TijT_{ij} er overgangssannsynligheten fra tilstand SiS_i til SjS_j;

2. Oppdatering av tilstandssannsynlighet
Sannsynlighetsfordelingen over tilstander ved tid tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

hvor:

  • PtP_t er tilstandssannsynligheten ved tid tt.
  • Pt1P_{t-1} er tilstandssannsynligheten ved tid t1t-1.
  • TT er overgangsmatrisen.

3. Stasjonær sannsynlighet (Langtidsatferd)
For en Markov-prosess som pågår over tid, oppfyller den stasjonære sannsynligheten PsP_s følgende:

Ps=PsTP_s=P_s \cdot T

Denne ligningen løses for å finne likevektsfordelingen der sannsynlighetene ikke endrer seg over tid.

Problemstilling: I en bestemt by veksler været mellom solrike og regnfulle dager. Sannsynligheten for overgang mellom disse tilstandene er gitt av følgende overgangsmatrise:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Hvor:

  • 0.7 er sannsynligheten for at etter en solrik dag kommer en ny solrik dag;
  • 0.3 er sannsynligheten for at en solrik dag blir til en regnfull dag;
  • 0.6 er sannsynligheten for at en regnfull dag blir til en solrik dag;
  • 0.4 er sannsynligheten for at etter en regnfull dag kommer en ny regnfull dag.

Hvis dagens vær er solrikt, hva er sannsynligheten for at det blir regnfullt om to dager?

Markov-beslutningsprosesser (MDP-er): Lære AI å ta beslutninger

MDP-er utvider Markov-kjeder ved å introdusere handlinger og belønninger, noe som gjør det mulig for AI å ta optimale beslutninger i stedet for bare å forutsi tilstander.

Eksempel: En robot i en labyrint

En robot som navigerer i en labyrint lærer hvilke veier som fører til utgangen ved å vurdere:

  • Handlinger: bevege seg til venstre, høyre, opp eller ned;
  • Belønninger: å lykkes med å nå målet, treffe en vegg eller møte en hindring;
  • Optimal strategi: velge handlinger som maksimerer belønningen.

MDP-er brukes mye innen spill-AI, robotikk og anbefalingssystemer for å optimalisere beslutningstaking.

Skjulte Markov-modeller (HMM-er): Forstå usynlige mønstre

En HMM er en Markov-modell der noen tilstander er skjulte, og AI må utlede dem basert på observerte data.

Eksempel: Talegjenkjenning

Når du snakker til Siri eller Alexa, ser ikke AI direkte ordene. I stedet behandler den lydbølger og forsøker å bestemme den mest sannsynlige sekvensen av ord.

HMM-er er essensielle innen:

  • Tale- og tekstgjenkjenning: AI tolker talespråk og håndskrift;
  • Aksjemarkedsprediksjoner: AI modellerer skjulte trender for å forutsi markedsvariasjoner;
  • Robotikk og spill: AI-styrte agenter utleder skjulte tilstander fra observerbare hendelser.

Konklusjon

Bayesiansk inferens gir en streng metode for å oppdatere sannsynligheter i AI-modeller, mens Markov-prosesser tilbyr kraftige verktøy for å modellere sekvensielle avhengigheter. Disse prinsippene ligger til grunn for sentrale generative AI-applikasjoner, inkludert forsterkende læring, sannsynlighetsbaserte grafmodeller og strukturert sekvensgenerering.

1. Hva er hovedrollen til bayesiansk inferens i KI?

2. Hva vurderer en KI i en Markov beslutningsprosess når den tar en beslutning?

3. Hvilket av følgende er en anvendelse av skjulte Markov-modeller?

question mark

Hva er hovedrollen til bayesiansk inferens i KI?

Select the correct answer

question mark

Hva vurderer en KI i en Markov beslutningsprosess når den tar en beslutning?

Select the correct answer

question mark

Hvilket av følgende er en anvendelse av skjulte Markov-modeller?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Awesome!

Completion rate improved to 4.76

bookBayesiansk Inferens og Markov-prosesser

Sveip for å vise menyen

Forståelse av Bayesiansk inferens i KI

Hva er Bayesiansk inferens?

Bayesiansk inferens er en statistisk metode som brukes til å oppdatere sannsynligheter basert på nye bevis. KI-systemer benytter Bayesiansk inferens for å forbedre sine prediksjoner etter hvert som de samler inn mer data.

Tenk deg at du skal forutsi været. Hvis det vanligvis er sol i byen din, men du ser mørke skyer samle seg, justerer du forventningen og forutser regn. Dette illustrerer hvordan Bayesiansk inferens fungerer—man starter med en opprinnelig antakelse (prior), inkluderer nye data, og oppdaterer antakelsen deretter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

hvor:

  • P(HD)P(H|D) er posterior sannsynlighet, den oppdaterte sannsynligheten for hypotesen HH gitt data DD;
  • P(DH)P(D|H) er likelihood, som representerer hvor godt hypotesen HH forklarer data DD;
  • P(H)P(H) er prior sannsynlighet, den opprinnelige antakelsen før man observerer DD;
  • P(D)P(D) er marginal likelihood, som fungerer som en normaliseringskonstant.

Problemstilling: Et AI-basert spamfilter bruker Bayesiansk klassifisering.

  • 20 % av e-poster er spam (P(Spam) = 0.2);
  • 80 % av e-poster er ikke spam (P(Not Spam) = 0.8);
  • 90 % av spam-eposter inneholder ordet “urgent” (P(Urgent | Spam) = 0.9);
  • 10 % av vanlige e-poster inneholder ordet “urgent” (P(Urgent | Not Spam) = 0.1).

Spørsmål:
Hvis en e-post inneholder ordet "urgent", hva er sannsynligheten for at den er spam (P(Spam | Urgent))?

Markov-prosesser: Forutsi fremtiden

Hva er en Markov-kjede?

En Markov-kjede er en matematisk modell der neste tilstand kun avhenger av nåværende tilstand og ikke av de foregående. Den brukes mye i AI for å modellere sekvensielle data og beslutningsprosesser. Her er de sentrale formlene som brukes i Markov-prosesser:

1. Formel for overgangssannsynlighet
Sannsynligheten for at et system er i tilstand SjS_j ved tid tt gitt forrige tilstand SiS_i ved tid t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

hvor TijT_{ij} er overgangssannsynligheten fra tilstand SiS_i til SjS_j;

2. Oppdatering av tilstandssannsynlighet
Sannsynlighetsfordelingen over tilstander ved tid tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

hvor:

  • PtP_t er tilstandssannsynligheten ved tid tt.
  • Pt1P_{t-1} er tilstandssannsynligheten ved tid t1t-1.
  • TT er overgangsmatrisen.

3. Stasjonær sannsynlighet (Langtidsatferd)
For en Markov-prosess som pågår over tid, oppfyller den stasjonære sannsynligheten PsP_s følgende:

Ps=PsTP_s=P_s \cdot T

Denne ligningen løses for å finne likevektsfordelingen der sannsynlighetene ikke endrer seg over tid.

Problemstilling: I en bestemt by veksler været mellom solrike og regnfulle dager. Sannsynligheten for overgang mellom disse tilstandene er gitt av følgende overgangsmatrise:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Hvor:

  • 0.7 er sannsynligheten for at etter en solrik dag kommer en ny solrik dag;
  • 0.3 er sannsynligheten for at en solrik dag blir til en regnfull dag;
  • 0.6 er sannsynligheten for at en regnfull dag blir til en solrik dag;
  • 0.4 er sannsynligheten for at etter en regnfull dag kommer en ny regnfull dag.

Hvis dagens vær er solrikt, hva er sannsynligheten for at det blir regnfullt om to dager?

Markov-beslutningsprosesser (MDP-er): Lære AI å ta beslutninger

MDP-er utvider Markov-kjeder ved å introdusere handlinger og belønninger, noe som gjør det mulig for AI å ta optimale beslutninger i stedet for bare å forutsi tilstander.

Eksempel: En robot i en labyrint

En robot som navigerer i en labyrint lærer hvilke veier som fører til utgangen ved å vurdere:

  • Handlinger: bevege seg til venstre, høyre, opp eller ned;
  • Belønninger: å lykkes med å nå målet, treffe en vegg eller møte en hindring;
  • Optimal strategi: velge handlinger som maksimerer belønningen.

MDP-er brukes mye innen spill-AI, robotikk og anbefalingssystemer for å optimalisere beslutningstaking.

Skjulte Markov-modeller (HMM-er): Forstå usynlige mønstre

En HMM er en Markov-modell der noen tilstander er skjulte, og AI må utlede dem basert på observerte data.

Eksempel: Talegjenkjenning

Når du snakker til Siri eller Alexa, ser ikke AI direkte ordene. I stedet behandler den lydbølger og forsøker å bestemme den mest sannsynlige sekvensen av ord.

HMM-er er essensielle innen:

  • Tale- og tekstgjenkjenning: AI tolker talespråk og håndskrift;
  • Aksjemarkedsprediksjoner: AI modellerer skjulte trender for å forutsi markedsvariasjoner;
  • Robotikk og spill: AI-styrte agenter utleder skjulte tilstander fra observerbare hendelser.

Konklusjon

Bayesiansk inferens gir en streng metode for å oppdatere sannsynligheter i AI-modeller, mens Markov-prosesser tilbyr kraftige verktøy for å modellere sekvensielle avhengigheter. Disse prinsippene ligger til grunn for sentrale generative AI-applikasjoner, inkludert forsterkende læring, sannsynlighetsbaserte grafmodeller og strukturert sekvensgenerering.

1. Hva er hovedrollen til bayesiansk inferens i KI?

2. Hva vurderer en KI i en Markov beslutningsprosess når den tar en beslutning?

3. Hvilket av følgende er en anvendelse av skjulte Markov-modeller?

question mark

Hva er hovedrollen til bayesiansk inferens i KI?

Select the correct answer

question mark

Hva vurderer en KI i en Markov beslutningsprosess når den tar en beslutning?

Select the correct answer

question mark

Hvilket av følgende er en anvendelse av skjulte Markov-modeller?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2
some-alt