Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Bayesiansk Inferens og Markov-Processer | Teoretiske Grundlag
Generativ AI

bookBayesiansk Inferens og Markov-Processer

Forståelse af Bayesiansk Inferens i AI

Hvad er Bayesiansk Inferens?

Bayesiansk inferens er en statistisk metode, der anvendes til at opdatere sandsynligheder baseret på nye beviser. AI-systemer anvender bayesiansk inferens til at forfine deres forudsigelser, efterhånden som de indsamler flere data.

Forestil dig, at du forudsiger vejret. Hvis det normalt er solrigt i din by, men du ser mørke skyer danne sig, justerer du din forventning og forudsiger regn. Dette illustrerer, hvordan bayesiansk inferens fungerer—man starter med en indledende antagelse (prior), inddrager nye data og opdaterer antagelsen derefter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

hvor:

  • P(HD)P(H|D) er posterior sandsynlighed, den opdaterede sandsynlighed for hypotesen HH givet data DD;
  • P(DH)P(D|H) er likelihood, der repræsenterer hvor godt hypotesen HH forklarer data DD;
  • P(H)P(H) er prior sandsynlighed, den oprindelige antagelse før observation af DD;
  • P(D)P(D) er marginal likelihood, som fungerer som en normaliseringskonstant.

Problemformulering: Et AI-spamfilter anvender Bayesiansk klassifikation.

  • 20% af e-mails er spam (P(Spam) = 0.2);
  • 80% af e-mails er ikke spam (P(Not Spam) = 0.8);
  • 90% af spam-e-mails indeholder ordet “urgent” (P(Urgent | Spam) = 0.9);
  • 10% af almindelige e-mails indeholder ordet “urgent” (P(Urgent | Not Spam) = 0.1).

Spørgsmål:
Hvis en e-mail indeholder ordet "urgent", hvad er sandsynligheden for, at den er spam (P(Spam | Urgent))?

Markov-processer: Forudsigelse af fremtiden

Hvad er en Markov-kæde?

En Markov-kæde er en matematisk model, hvor den næste tilstand kun afhænger af den nuværende tilstand og ikke af de foregående. Den anvendes bredt i AI til at modellere sekventielle data og beslutningsprocesser. Her er de centrale formler, der anvendes i Markov-processer:

1. Formel for overgangssandsynlighed
Sandsynligheden for, at et system er i tilstand SjS_j på tidspunkt tt givet dets forrige tilstand SiS_i på tidspunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

hvor TijT_{ij} er overgangssandsynligheden fra tilstand SiS_i til SjS_j;

2. Opdatering af tilstandssandsynlighed
Sandsynlighedsfordelingen over tilstande på tidspunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

hvor:

  • PtP_t er tilstandssandsynligheden på tidspunkt tt.
  • Pt1P_{t-1} er tilstandssandsynligheden på tidspunkt t1t-1.
  • TT er overgangsmatricen.

3. Steady-State Sandsynlighed (Langsigtet Adfærd)
For en Markov-proces, der kører over lang tid, opfylder steady-state sandsynligheden PsP_s følgende:

Ps=PsTP_s=P_s \cdot T

Denne ligning løses for at finde ligevægtsfordelingen, hvor sandsynlighederne ikke ændrer sig over tid.

Problemformulering: I en bestemt by skifter vejret mellem solrige og regnfulde dage. Sandsynligheden for at skifte mellem disse tilstande er givet ved følgende transitionsmatrix:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Hvor:

  • 0.7 er sandsynligheden for, at efter en solrig dag kommer endnu en solrig dag;
  • 0.3 er sandsynligheden for, at en solrig dag bliver til en regnfuld dag;
  • 0.6 er sandsynligheden for, at en regnfuld dag bliver til en solrig dag;
  • 0.4 er sandsynligheden for, at efter en regnfuld dag kommer endnu en regnfuld dag.

Hvis dagens vejr er solrigt, hvad er sandsynligheden for, at det vil være regnfuldt om to dage?

Markov-beslutningsprocesser (MDP'er): Undervisning af AI i beslutningstagning

MDP'er udvider Markov-kæder ved at introducere handlinger og belønninger, hvilket gør det muligt for AI at træffe optimale beslutninger i stedet for blot at forudsige tilstande.

Eksempel: En robot i en labyrint

En robot, der navigerer i en labyrint, lærer hvilke stier der fører til udgangen ved at overveje:

  • Handlinger: bevæge sig til venstre, højre, op eller ned;
  • Belønninger: nå målet, ramme en væg eller støde på en forhindring;
  • Optimal strategi: vælge handlinger, der maksimerer belønningen.

MDP'er anvendes bredt i spil-AI, robotteknologi og anbefalingssystemer for at optimere beslutningstagning.

Skjulte Markov-modeller (HMM'er): Forståelse af skjulte mønstre

En HMM er en Markov-model, hvor nogle tilstande er skjulte, og AI skal udlede dem baseret på observerede data.

Eksempel: Talegenkendelse

Når du taler til Siri eller Alexa, ser AI ikke ordene direkte. I stedet behandler den lydbølger og forsøger at bestemme den mest sandsynlige sekvens af ord.

HMM'er er essentielle i:

  • Tale- og tekstgenkendelse: AI tolker talt sprog og håndskrift;
  • Aktiemarkedsprognoser: AI modellerer skjulte tendenser for at forudsige markedsudsving;
  • Robotteknologi og spil: AI-styrede agenter udleder skjulte tilstande fra observerbare hændelser.

Konklusion

Bayesiansk inferens giver en stringent metode til at opdatere overbevisninger i AI-modeller, mens Markov-processer tilbyder effektive værktøjer til modellering af sekventielle afhængigheder. Disse principper danner grundlaget for centrale generative AI-applikationer, herunder forstærkningslæring, probabilistiske grafiske modeller og struktureret sekvensgenerering.

1. Hvad er den primære rolle for bayesiansk inferens i AI?

2. Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

3. Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

question mark

Hvad er den primære rolle for bayesiansk inferens i AI?

Select the correct answer

question mark

Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

Select the correct answer

question mark

Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Awesome!

Completion rate improved to 4.76

bookBayesiansk Inferens og Markov-Processer

Stryg for at vise menuen

Forståelse af Bayesiansk Inferens i AI

Hvad er Bayesiansk Inferens?

Bayesiansk inferens er en statistisk metode, der anvendes til at opdatere sandsynligheder baseret på nye beviser. AI-systemer anvender bayesiansk inferens til at forfine deres forudsigelser, efterhånden som de indsamler flere data.

Forestil dig, at du forudsiger vejret. Hvis det normalt er solrigt i din by, men du ser mørke skyer danne sig, justerer du din forventning og forudsiger regn. Dette illustrerer, hvordan bayesiansk inferens fungerer—man starter med en indledende antagelse (prior), inddrager nye data og opdaterer antagelsen derefter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

hvor:

  • P(HD)P(H|D) er posterior sandsynlighed, den opdaterede sandsynlighed for hypotesen HH givet data DD;
  • P(DH)P(D|H) er likelihood, der repræsenterer hvor godt hypotesen HH forklarer data DD;
  • P(H)P(H) er prior sandsynlighed, den oprindelige antagelse før observation af DD;
  • P(D)P(D) er marginal likelihood, som fungerer som en normaliseringskonstant.

Problemformulering: Et AI-spamfilter anvender Bayesiansk klassifikation.

  • 20% af e-mails er spam (P(Spam) = 0.2);
  • 80% af e-mails er ikke spam (P(Not Spam) = 0.8);
  • 90% af spam-e-mails indeholder ordet “urgent” (P(Urgent | Spam) = 0.9);
  • 10% af almindelige e-mails indeholder ordet “urgent” (P(Urgent | Not Spam) = 0.1).

Spørgsmål:
Hvis en e-mail indeholder ordet "urgent", hvad er sandsynligheden for, at den er spam (P(Spam | Urgent))?

Markov-processer: Forudsigelse af fremtiden

Hvad er en Markov-kæde?

En Markov-kæde er en matematisk model, hvor den næste tilstand kun afhænger af den nuværende tilstand og ikke af de foregående. Den anvendes bredt i AI til at modellere sekventielle data og beslutningsprocesser. Her er de centrale formler, der anvendes i Markov-processer:

1. Formel for overgangssandsynlighed
Sandsynligheden for, at et system er i tilstand SjS_j på tidspunkt tt givet dets forrige tilstand SiS_i på tidspunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

hvor TijT_{ij} er overgangssandsynligheden fra tilstand SiS_i til SjS_j;

2. Opdatering af tilstandssandsynlighed
Sandsynlighedsfordelingen over tilstande på tidspunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

hvor:

  • PtP_t er tilstandssandsynligheden på tidspunkt tt.
  • Pt1P_{t-1} er tilstandssandsynligheden på tidspunkt t1t-1.
  • TT er overgangsmatricen.

3. Steady-State Sandsynlighed (Langsigtet Adfærd)
For en Markov-proces, der kører over lang tid, opfylder steady-state sandsynligheden PsP_s følgende:

Ps=PsTP_s=P_s \cdot T

Denne ligning løses for at finde ligevægtsfordelingen, hvor sandsynlighederne ikke ændrer sig over tid.

Problemformulering: I en bestemt by skifter vejret mellem solrige og regnfulde dage. Sandsynligheden for at skifte mellem disse tilstande er givet ved følgende transitionsmatrix:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Hvor:

  • 0.7 er sandsynligheden for, at efter en solrig dag kommer endnu en solrig dag;
  • 0.3 er sandsynligheden for, at en solrig dag bliver til en regnfuld dag;
  • 0.6 er sandsynligheden for, at en regnfuld dag bliver til en solrig dag;
  • 0.4 er sandsynligheden for, at efter en regnfuld dag kommer endnu en regnfuld dag.

Hvis dagens vejr er solrigt, hvad er sandsynligheden for, at det vil være regnfuldt om to dage?

Markov-beslutningsprocesser (MDP'er): Undervisning af AI i beslutningstagning

MDP'er udvider Markov-kæder ved at introducere handlinger og belønninger, hvilket gør det muligt for AI at træffe optimale beslutninger i stedet for blot at forudsige tilstande.

Eksempel: En robot i en labyrint

En robot, der navigerer i en labyrint, lærer hvilke stier der fører til udgangen ved at overveje:

  • Handlinger: bevæge sig til venstre, højre, op eller ned;
  • Belønninger: nå målet, ramme en væg eller støde på en forhindring;
  • Optimal strategi: vælge handlinger, der maksimerer belønningen.

MDP'er anvendes bredt i spil-AI, robotteknologi og anbefalingssystemer for at optimere beslutningstagning.

Skjulte Markov-modeller (HMM'er): Forståelse af skjulte mønstre

En HMM er en Markov-model, hvor nogle tilstande er skjulte, og AI skal udlede dem baseret på observerede data.

Eksempel: Talegenkendelse

Når du taler til Siri eller Alexa, ser AI ikke ordene direkte. I stedet behandler den lydbølger og forsøger at bestemme den mest sandsynlige sekvens af ord.

HMM'er er essentielle i:

  • Tale- og tekstgenkendelse: AI tolker talt sprog og håndskrift;
  • Aktiemarkedsprognoser: AI modellerer skjulte tendenser for at forudsige markedsudsving;
  • Robotteknologi og spil: AI-styrede agenter udleder skjulte tilstande fra observerbare hændelser.

Konklusion

Bayesiansk inferens giver en stringent metode til at opdatere overbevisninger i AI-modeller, mens Markov-processer tilbyder effektive værktøjer til modellering af sekventielle afhængigheder. Disse principper danner grundlaget for centrale generative AI-applikationer, herunder forstærkningslæring, probabilistiske grafiske modeller og struktureret sekvensgenerering.

1. Hvad er den primære rolle for bayesiansk inferens i AI?

2. Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

3. Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

question mark

Hvad er den primære rolle for bayesiansk inferens i AI?

Select the correct answer

question mark

Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

Select the correct answer

question mark

Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 2
some-alt