Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Bayesiansk Inferens og Markov-Processer | Sektion
Generativ Deep Learning

bookBayesiansk Inferens og Markov-Processer

Stryg for at vise menuen

Forståelse af Bayesiansk Inferens i AI

Hvad er Bayesiansk Inferens?

Bayesiansk inferens er en statistisk metode, der bruges til at opdatere sandsynligheder baseret på nye beviser. AI-systemer anvender bayesiansk inferens til at forfine deres forudsigelser, efterhånden som de indsamler flere data.

Forestil dig, at du forudsiger vejret. Hvis det normalt er solrigt i din by, men du ser mørke skyer samle sig, justerer du din forventning og forudsiger regn. Dette er, hvordan bayesiansk inferens fungerer—man starter med en indledende antagelse (prior), inddrager nye data og opdaterer antagelsen derefter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

hvor:

  • P(HD)P(H|D) er posterior sandsynligheden, den opdaterede sandsynlighed for hypotesen HH givet data DD;
  • P(DH)P(D|H) er likelihood, som repræsenterer hvor godt hypotesen HH forklarer data DD;
  • P(H)P(H) er prior sandsynligheden, den oprindelige antagelse før observation af DD;
  • P(D)P(D) er marginal likelihood, som fungerer som en normaliseringskonstant.

Problemformulering: Et AI-spamfilter anvender Bayesiansk klassifikation.

  • 20% af e-mails er spam (P(Spam) = 0.2);
  • 80% af e-mails er ikke spam (P(Not Spam) = 0.8);
  • 90% af spam-e-mails indeholder ordet “urgent” (P(Urgent | Spam) = 0.9);
  • 10% af almindelige e-mails indeholder ordet “urgent” (P(Urgent | Not Spam) = 0.1).

Spørgsmål:
Hvis en e-mail indeholder ordet "urgent", hvad er sandsynligheden for, at den er spam (P(Spam | Urgent))?

Markov-processer: Forudsigelse af fremtiden

Hvad er en Markov-kæde?

En Markov-kæde er en matematisk model, hvor den næste tilstand kun afhænger af den nuværende tilstand og ikke af de foregående. Den anvendes bredt i AI til at modellere sekventielle data og beslutningsprocesser. Her er de centrale formler, der bruges i Markov-processer:

1. Formel for overgangssandsynlighed
Sandsynligheden for, at et system er i tilstand SjS_j på tidspunkt tt givet dets forrige tilstand SiS_i på tidspunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

hvor TijT_{ij} er overgangssandsynligheden fra tilstand SiS_i til SjS_j;

2. Opdatering af tilstandssandsynlighed
Sandsynlighedsfordelingen over tilstande på tidspunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

hvor:

  • PtP_t er tilstandssandsynligheden på tidspunkt tt.
  • Pt1P_{t-1} er tilstandssandsynligheden på tidspunkt t1t-1.
  • TT er overgangsmatricen.

3. Steady-State Sandsynlighed (Langsigtet Adfærd)
For en Markov-proces, der kører over lang tid, opfylder steady-state sandsynligheden PsP_s følgende:

Ps=PsTP_s=P_s \cdot T

Denne ligning løses for at finde ligevægtsfordelingen, hvor sandsynlighederne ikke ændrer sig over tid.

Problemformulering: I en bestemt by skifter vejret mellem solrige og regnfulde dage. Sandsynligheden for at skifte mellem disse tilstande er givet ved følgende transitionsmatrix:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Hvor:

  • 0.7 er sandsynligheden for, at efter en solrig dag følger endnu en solrig dag;
  • 0.3 er sandsynligheden for, at en solrig dag bliver til en regnfuld dag;
  • 0.6 er sandsynligheden for, at en regnfuld dag bliver til en solrig dag;
  • 0.4 er sandsynligheden for, at efter en regnfuld dag følger endnu en regnfuld dag.

Hvis vejret i dag er solrigt, hvad er sandsynligheden for, at det vil være regnfuldt om to dage?

Markov-beslutningsprocesser (MDP'er): Undervisning af AI i beslutningstagning

MDP'er udvider Markov-kæder ved at introducere handlinger og belønninger, hvilket gør det muligt for AI at træffe optimale beslutninger i stedet for blot at forudsige tilstande.

Eksempel: En robot i en labyrint

En robot, der navigerer i en labyrint, lærer hvilke stier der fører til udgangen ved at overveje:

  • Handlinger: bevæge sig til venstre, højre, op eller ned;
  • Belønninger: succesfuldt nå målet, ramme en væg eller støde på en forhindring;
  • Optimal strategi: vælge handlinger, der maksimerer belønningen.

MDP'er anvendes bredt i spil-AI, robotteknologi og anbefalingssystemer for at optimere beslutningstagning.

Skjulte Markov-modeller (HMM'er): Forståelse af usete mønstre

En HMM er en Markov-model, hvor nogle tilstande er skjulte, og AI skal udlede dem baseret på observerede data.

Eksempel: Talegenkendelse

Når du taler til Siri eller Alexa, ser AI ikke direkte ordene. I stedet behandler den lydbølger og forsøger at bestemme den mest sandsynlige sekvens af ord.

HMM'er er essentielle i:

  • Tale- og tekstgenkendelse: AI tolker talt sprog og håndskrift;
  • Aktiemarkedsprognoser: AI modellerer skjulte tendenser for at forudsige markedsudsving;
  • Robotteknologi og spil: AI-styrede agenter udleder skjulte tilstande fra observerbare hændelser.

Konklusion

Bayesiansk inferens giver en stringent metode til at opdatere overbevisninger i AI-modeller, mens Markov-processer tilbyder effektive værktøjer til modellering af sekventielle afhængigheder. Disse principper danner grundlaget for centrale generative AI-applikationer, herunder forstærkningslæring, sandsynlighedsgrafiske modeller og struktureret sekvensgenerering.

1. Hvad er den primære rolle for bayesiansk inferens i AI?

2. Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

3. Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

question mark

Hvad er den primære rolle for bayesiansk inferens i AI?

Select the correct answer

question mark

Hvad tager en AI i betragtning, når den træffer en beslutning i en Markov-beslutningsproces?

Select the correct answer

question mark

Hvilket af følgende er en anvendelse af skjulte Markov-modeller?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 5

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 1. Kapitel 5
some-alt