Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Bayesiansk Inferens och Markovprocesser | Teoretiska Grunder
Generativ AI

bookBayesiansk Inferens och Markovprocesser

Förståelse av Bayesiansk inferens inom AI

Vad är Bayesiansk inferens?

Bayesiansk inferens är en statistisk metod som används för att uppdatera sannolikheter baserat på ny evidens. AI-system använder Bayesiansk inferens för att förfina sina prediktioner när de samlar in mer data.

Föreställ dig att du förutspår vädret. Om det vanligtvis är soligt i din stad men du ser mörka moln bildas, justerar du din förväntan och förutspår regn. Detta är hur Bayesiansk inferens fungerar—man börjar med en initial tro (prior), införlivar ny data och uppdaterar tron därefter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

Där:

  • P(HD)P(H|D) är posterior-sannolikheten, den uppdaterade sannolikheten för hypotesen HH givet data DD;
  • P(DH)P(D|H) är likelihood, som representerar hur väl hypotesen HH förklarar data DD;
  • P(H)P(H) är prior-sannolikheten, den initiala tron innan observation av DD;
  • P(D)P(D) är marginal likelihood, som fungerar som en normaliseringskonstant.

Problemformulering: Ett AI-baserat skräppostfilter använder Bayesiansk klassificering.

  • 20 % av e-postmeddelandena är skräppost (P(Spam) = 0.2);
  • 80 % av e-postmeddelandena är inte skräppost (P(Not Spam) = 0.8);
  • 90 % av skräppostmeddelandena innehåller ordet "urgent" (P(Urgent | Spam) = 0.9);
  • 10 % av vanliga e-postmeddelanden innehåller ordet "urgent" (P(Urgent | Not Spam) = 0.1).

Fråga:
Om ett e-postmeddelande innehåller ordet "urgent", vad är sannolikheten att det är skräppost (P(Spam | Urgent))?

Markovprocesser: Förutsäga framtiden

Vad är en Markovkedja?

En Markovkedja är en matematisk modell där nästa tillstånd endast beror på det aktuella tillståndet och inte på de föregående. Den används ofta inom AI för att modellera sekventiella data och beslutsprocesser. Här är de centrala formlerna som används i Markovprocesser:

1. Övergångssannolikhetsformel
Sannolikheten att ett system befinner sig i tillståndet SjS_j vid tidpunkt tt givet dess föregående tillstånd SiS_i vid tidpunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

Där TijT_{ij} är övergångssannolikheten från tillstånd SiS_i till SjS_j;

2. Uppdatering av tillståndssannolikhet
Sannolikhetsfördelningen över tillstånd vid tidpunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

Där:

  • PtP_t är tillståndssannolikheten vid tidpunkt tt.
  • Pt1P_{t-1} är tillståndssannolikheten vid tidpunkt t1t-1.
  • TT är övergångsmatrisen.

3. Stationär sannolikhet (långsiktigt beteende)
För en Markovprocess som pågår under lång tid uppfyller den stationära sannolikheten PsP_s:

Ps=PsTP_s=P_s \cdot T

Denna ekvation löses för att hitta jämviktsfördelningen där sannolikheterna inte förändras över tid.

Problemformulering: I en viss stad växlar vädret mellan soliga och regniga dagar. Sannolikheten för att övergå mellan dessa tillstånd ges av följande övergångsmatris:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Där:

  • 0.7 är sannolikheten att efter en solig dag blir det återigen en solig dag;
  • 0.3 är sannolikheten att en solig dag blir regnig;
  • 0.6 är sannolikheten att en regnig dag blir solig;
  • 0.4 är sannolikheten att efter en regnig dag blir det återigen en regnig dag.

Om dagens väder är soligt, vad är sannolikheten att det är regnigt om två dagar?

Markovbeslutsprocesser (MDP): Undervisa AI att fatta beslut

MDP utökar Markovkedjor genom att införa handlingar och belöningar, vilket gör det möjligt för AI att fatta optimala beslut istället för att bara förutsäga tillstånd.

Exempel: En robot i en labyrint

En robot som navigerar i en labyrint lär sig vilka vägar som leder till utgången genom att beakta:

  • Handlingar: röra sig vänster, höger, upp eller ner;
  • Belöningar: framgångsrikt nå målet, stöta på en vägg eller ett hinder;
  • Optimal strategi: välja handlingar som maximerar belöningen.

MDP används ofta inom spel-AI, robotik och rekommendationssystem för att optimera beslutsfattande.

Dolda Markovmodeller (HMM): Förstå osynliga mönster

En HMM är en Markovmodell där vissa tillstånd är dolda, och AI måste härleda dem baserat på observerad data.

Exempel: Taligenkänning

När du talar med Siri eller Alexa ser AI inte orden direkt. Istället bearbetar den ljudvågor och försöker avgöra den mest sannolika sekvensen av ord.

HMM är avgörande inom:

  • Talsyntes och textigenkänning: AI tolkar talat språk och handskrift;
  • Börsprognoser: AI modellerar dolda trender för att förutsäga marknadssvängningar;
  • Robotik och spel: AI-styrda agenter härleder dolda tillstånd från observerbara händelser.

Slutsats

Bayesiansk inferens tillhandahåller ett rigoröst sätt att uppdatera sannolikheter i AI-modeller, medan Markovprocesser erbjuder kraftfulla verktyg för att modellera sekventiella beroenden. Dessa principer utgör grunden för viktiga generativa AI-tillämpningar, inklusive förstärkningsinlärning, probabilistiska grafiska modeller och strukturerad sekvensgenerering.

1. Vad är den primära rollen för bayesiansk inferens inom AI?

2. Vad beaktar en AI vid beslutsfattande i en Markovbeslutsprocess?

3. Vilket av följande är en tillämpning av dolda Markovmodeller?

question mark

Vad är den primära rollen för bayesiansk inferens inom AI?

Select the correct answer

question mark

Vad beaktar en AI vid beslutsfattande i en Markovbeslutsprocess?

Select the correct answer

question mark

Vilket av följande är en tillämpning av dolda Markovmodeller?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 2

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Suggested prompts:

Can you explain how Bayes' theorem is applied in spam detection?

What is the difference between a Markov chain and a Markov decision process?

Can you give more real-world examples of Hidden Markov Models in AI?

Awesome!

Completion rate improved to 4.76

bookBayesiansk Inferens och Markovprocesser

Svep för att visa menyn

Förståelse av Bayesiansk inferens inom AI

Vad är Bayesiansk inferens?

Bayesiansk inferens är en statistisk metod som används för att uppdatera sannolikheter baserat på ny evidens. AI-system använder Bayesiansk inferens för att förfina sina prediktioner när de samlar in mer data.

Föreställ dig att du förutspår vädret. Om det vanligtvis är soligt i din stad men du ser mörka moln bildas, justerar du din förväntan och förutspår regn. Detta är hur Bayesiansk inferens fungerar—man börjar med en initial tro (prior), införlivar ny data och uppdaterar tron därefter.

P(HD)=P(DH)P(H)P(D)P(H|D)=\frac{P(D|H)\cdot P(H)}{P(D)}

Där:

  • P(HD)P(H|D) är posterior-sannolikheten, den uppdaterade sannolikheten för hypotesen HH givet data DD;
  • P(DH)P(D|H) är likelihood, som representerar hur väl hypotesen HH förklarar data DD;
  • P(H)P(H) är prior-sannolikheten, den initiala tron innan observation av DD;
  • P(D)P(D) är marginal likelihood, som fungerar som en normaliseringskonstant.

Problemformulering: Ett AI-baserat skräppostfilter använder Bayesiansk klassificering.

  • 20 % av e-postmeddelandena är skräppost (P(Spam) = 0.2);
  • 80 % av e-postmeddelandena är inte skräppost (P(Not Spam) = 0.8);
  • 90 % av skräppostmeddelandena innehåller ordet "urgent" (P(Urgent | Spam) = 0.9);
  • 10 % av vanliga e-postmeddelanden innehåller ordet "urgent" (P(Urgent | Not Spam) = 0.1).

Fråga:
Om ett e-postmeddelande innehåller ordet "urgent", vad är sannolikheten att det är skräppost (P(Spam | Urgent))?

Markovprocesser: Förutsäga framtiden

Vad är en Markovkedja?

En Markovkedja är en matematisk modell där nästa tillstånd endast beror på det aktuella tillståndet och inte på de föregående. Den används ofta inom AI för att modellera sekventiella data och beslutsprocesser. Här är de centrala formlerna som används i Markovprocesser:

1. Övergångssannolikhetsformel
Sannolikheten att ett system befinner sig i tillståndet SjS_j vid tidpunkt tt givet dess föregående tillstånd SiS_i vid tidpunkt t1t-1:

P(SjSi)=TijP(S_j|S_i)=T_{ij}

Där TijT_{ij} är övergångssannolikheten från tillstånd SiS_i till SjS_j;

2. Uppdatering av tillståndssannolikhet
Sannolikhetsfördelningen över tillstånd vid tidpunkt tt:

Pt=Pt1TP_t=P_{t-1}\cdot T

Där:

  • PtP_t är tillståndssannolikheten vid tidpunkt tt.
  • Pt1P_{t-1} är tillståndssannolikheten vid tidpunkt t1t-1.
  • TT är övergångsmatrisen.

3. Stationär sannolikhet (långsiktigt beteende)
För en Markovprocess som pågår under lång tid uppfyller den stationära sannolikheten PsP_s:

Ps=PsTP_s=P_s \cdot T

Denna ekvation löses för att hitta jämviktsfördelningen där sannolikheterna inte förändras över tid.

Problemformulering: I en viss stad växlar vädret mellan soliga och regniga dagar. Sannolikheten för att övergå mellan dessa tillstånd ges av följande övergångsmatris:

T=[0.70.30.60.4]T = \begin{bmatrix} 0.7&0.3\\0.6&0.4 \end{bmatrix}

Där:

  • 0.7 är sannolikheten att efter en solig dag blir det återigen en solig dag;
  • 0.3 är sannolikheten att en solig dag blir regnig;
  • 0.6 är sannolikheten att en regnig dag blir solig;
  • 0.4 är sannolikheten att efter en regnig dag blir det återigen en regnig dag.

Om dagens väder är soligt, vad är sannolikheten att det är regnigt om två dagar?

Markovbeslutsprocesser (MDP): Undervisa AI att fatta beslut

MDP utökar Markovkedjor genom att införa handlingar och belöningar, vilket gör det möjligt för AI att fatta optimala beslut istället för att bara förutsäga tillstånd.

Exempel: En robot i en labyrint

En robot som navigerar i en labyrint lär sig vilka vägar som leder till utgången genom att beakta:

  • Handlingar: röra sig vänster, höger, upp eller ner;
  • Belöningar: framgångsrikt nå målet, stöta på en vägg eller ett hinder;
  • Optimal strategi: välja handlingar som maximerar belöningen.

MDP används ofta inom spel-AI, robotik och rekommendationssystem för att optimera beslutsfattande.

Dolda Markovmodeller (HMM): Förstå osynliga mönster

En HMM är en Markovmodell där vissa tillstånd är dolda, och AI måste härleda dem baserat på observerad data.

Exempel: Taligenkänning

När du talar med Siri eller Alexa ser AI inte orden direkt. Istället bearbetar den ljudvågor och försöker avgöra den mest sannolika sekvensen av ord.

HMM är avgörande inom:

  • Talsyntes och textigenkänning: AI tolkar talat språk och handskrift;
  • Börsprognoser: AI modellerar dolda trender för att förutsäga marknadssvängningar;
  • Robotik och spel: AI-styrda agenter härleder dolda tillstånd från observerbara händelser.

Slutsats

Bayesiansk inferens tillhandahåller ett rigoröst sätt att uppdatera sannolikheter i AI-modeller, medan Markovprocesser erbjuder kraftfulla verktyg för att modellera sekventiella beroenden. Dessa principer utgör grunden för viktiga generativa AI-tillämpningar, inklusive förstärkningsinlärning, probabilistiska grafiska modeller och strukturerad sekvensgenerering.

1. Vad är den primära rollen för bayesiansk inferens inom AI?

2. Vad beaktar en AI vid beslutsfattande i en Markovbeslutsprocess?

3. Vilket av följande är en tillämpning av dolda Markovmodeller?

question mark

Vad är den primära rollen för bayesiansk inferens inom AI?

Select the correct answer

question mark

Vad beaktar en AI vid beslutsfattande i en Markovbeslutsprocess?

Select the correct answer

question mark

Vilket av följande är en tillämpning av dolda Markovmodeller?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 2
some-alt