Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Sannolikhetsfördelningar och Slumpmässighet i AI | Teoretiska Grunder
Generativ AI

bookSannolikhetsfördelningar och Slumpmässighet i AI

Sannolikhetsfördelningar och slumpmässighet utgör kärnan i generativa modeller och möjliggör för AI-system att skapa varierade och realistiska resultat. Istället för att uttryckligen definiera sannolikhetsteori fokuserar detta kapitel på hur sannolikhet används inom Generativ AI för att modellera osäkerhet, ta stickprov på data och träna generativa modeller.

Sannolikhetsfördelningars roll inom Generativ AI

Generativa modeller förlitar sig på sannolikhetsfördelningar för att lära sig datamönster och generera nya prover. Centrala begrepp inkluderar:

  • Latent rumsrepresentation: många generativa modeller (t.ex. VAE, GAN) avbildar indata till en sannolikhetsfördelning i lägre dimensioner. Stickprov från denna fördelning genererar nya datapunkter;
  • Sannolikhetsuppskattning: probabilistiska modeller uppskattar sannolikheten att observera en datapunkt givet en inlärd fördelning, vilket styr träningen;
  • Sampling och generering: processen att dra slumpmässiga prover från inlärda fördelningar för att skapa ny syntetisk data.

Viktiga matematiska begrepp:

För en sannolikhetsfördelning p(x)p(x) är sannolikheten för data XX givet modellparametrar θ\theta:

L(θX)=i=1Np(xiθ)\mathcal{L}(\theta|X)= \prod^{N}_{i=1}p(x_i|\theta)

Att maximera denna sannolikhet hjälper generativa modeller att lära sig mönster från data. Inom generativ AI antar modeller ofta specifika former av sannolikhetsfördelningar—såsom Gaussisk, Bernoulli eller kategorisk—för att representera data. Valet av fördelning påverkar hur modeller lär sig och genererar nya exempel. Till exempel används kategoriska fördelningar vid textgenerering för att modellera sannolikheten för varje möjligt ord givet tidigare ord.

Slumpmässighet och brus i generativa modeller

Brus spelar en avgörande roll inom Generativ AI, säkerställer mångfald och förbättrar robusthet:

  • Latent brus i GANs: i GANs transformeras en brusvektor zp(x)z \sim p(x) (ofta samplad från en Gaussisk eller Uniform fördelning) till realistiska exempel genom generatorn. Denna slumpmässighet säkerställer variation i genererade bilder;
  • Variationsinferens i VAEs: VAEs introducerar Gaussiskt brus i det latenta rummet, vilket möjliggör smidig interpolation mellan genererade exempel. Detta säkerställer att små förändringar i latenta variabler ger meningsfulla variationer i utdata;
  • Diffusionsmodeller och stokastiska processer: Dessa modeller lär sig att reversera en gradvis brusaddition för att generera högkvalitativ data. Genom att iterativt förfina brusiga indata kan de generera komplexa, realistiska bilder.

Exempel: Gaussiskt latentrum i VAEs

I VAEs ger kodaren ut parametrar för en Gaussisk fördelning:

q(zx)=N(z;μ(x),σ2(x))q(z|x)=\mathcal{N}(z;\mu(x),\sigma^2(x))

Istället för att använda en deterministisk avbildning, samplar VAE:er från denna fördelning, vilket introducerar kontrollerad slumpmässighet som möjliggör varierad generering. Denna teknik gör det möjligt för VAE:er att generera nya ansikten genom att interpolera mellan olika representationer i det latenta rummet.

Samplingsmetoder inom Generativ AI

Samplingsmetoder är avgörande för att generera nya datapunkter från inlärda fördelningar:

  • Monte Carlo-sampling: används i sannolikhetsmodeller som Bayesiansk inferens för att approximera förväntningsvärden. Monte Carlo-integration uppskattar ett förväntningsvärde som:
E[f(X)]1Ni=1Nf(Xi)\mathbb{E}[f(X)]\approx \frac{1}{N}\sum^N_{i=1}f(X_i)

Där XiX_i är samplade från mål-fördelningen.

  • Reparameteriseringstricket: i VAE:er säkerställs gradientflöde genom stokastiska noder genom att uttrycka zz som:
z=μ+σε, εN(0,1)z=\mu + \sigma \cdot \varepsilon,\ \varepsilon \sim \mathcal{N}(0, 1)

Detta trick möjliggör effektiv backpropagering genom stokastiska lager.

  • Ancestralt urval: i autoregressiva modeller (t.ex. GPT) genereras prover sekventiellt baserat på villkorliga sannolikheter. Till exempel, vid generering av text förutspår en modell nästa ord givet de föregående:
p(xtx1,x2,,xt1)p(x_t|x_1, x_2, \ldots,x_{t-1})

Denna sekventiella process säkerställer sammanhang i genererad text.

Exempel: Ancestralt urval vid textgenerering

Antag att vi tränar en generativ modell för att skapa engelska meningar. Givet indata "The cat" samplar modellen nästa ord från en inlärd sannolikhetsfördelning och producerar utdata som:

  • "The cat sleeps."
  • "The cat jumps."
  • "The cat is hungry."

Varje förutsägelse av nästa ord beror på tidigare genererade ord, vilket skapar meningsfulla sekvenser.

Praktiska tillämpningar inom generativ AI

  • GANs: använder brusvektorer för att generera högupplösta bilder;
  • VAE: kodar data till en sannolikhetsfördelning för smidig interpolation i latent utrymme;
  • Diffusionsmodeller: använder stokastisk brusreducering för att iterativt generera bilder;
  • Bayesiska generativa modeller: modellerar osäkerhet i generativa uppgifter.

Slutsats

Sannolikhet och slumpmässighet utgör grunden för Generativ AI och möjliggör för modeller att lära sig fördelningar, generera varierade utdata och approximera verklighetens variation. De kommande kapitlen bygger vidare på dessa koncept för att utforska sannolikhetsmodellering, neurala nätverk och generativa arkitekturer.

1. Vilket av följande är ett exempel på en sannolikhetsfördelning som används i Generativ AI?

2. Vilken roll spelar brus i Variational Autoencoders (VAE:er)?

3. Vilken samplingsmetod används vanligtvis i generativa AI-modeller som GPT?

question mark

Vilket av följande är ett exempel på en sannolikhetsfördelning som används i Generativ AI?

Select the correct answer

question mark

Vilken roll spelar brus i Variational Autoencoders (VAE:er)?

Select the correct answer

question mark

Vilken samplingsmetod används vanligtvis i generativa AI-modeller som GPT?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 1

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Awesome!

Completion rate improved to 4.76

bookSannolikhetsfördelningar och Slumpmässighet i AI

Svep för att visa menyn

Sannolikhetsfördelningar och slumpmässighet utgör kärnan i generativa modeller och möjliggör för AI-system att skapa varierade och realistiska resultat. Istället för att uttryckligen definiera sannolikhetsteori fokuserar detta kapitel på hur sannolikhet används inom Generativ AI för att modellera osäkerhet, ta stickprov på data och träna generativa modeller.

Sannolikhetsfördelningars roll inom Generativ AI

Generativa modeller förlitar sig på sannolikhetsfördelningar för att lära sig datamönster och generera nya prover. Centrala begrepp inkluderar:

  • Latent rumsrepresentation: många generativa modeller (t.ex. VAE, GAN) avbildar indata till en sannolikhetsfördelning i lägre dimensioner. Stickprov från denna fördelning genererar nya datapunkter;
  • Sannolikhetsuppskattning: probabilistiska modeller uppskattar sannolikheten att observera en datapunkt givet en inlärd fördelning, vilket styr träningen;
  • Sampling och generering: processen att dra slumpmässiga prover från inlärda fördelningar för att skapa ny syntetisk data.

Viktiga matematiska begrepp:

För en sannolikhetsfördelning p(x)p(x) är sannolikheten för data XX givet modellparametrar θ\theta:

L(θX)=i=1Np(xiθ)\mathcal{L}(\theta|X)= \prod^{N}_{i=1}p(x_i|\theta)

Att maximera denna sannolikhet hjälper generativa modeller att lära sig mönster från data. Inom generativ AI antar modeller ofta specifika former av sannolikhetsfördelningar—såsom Gaussisk, Bernoulli eller kategorisk—för att representera data. Valet av fördelning påverkar hur modeller lär sig och genererar nya exempel. Till exempel används kategoriska fördelningar vid textgenerering för att modellera sannolikheten för varje möjligt ord givet tidigare ord.

Slumpmässighet och brus i generativa modeller

Brus spelar en avgörande roll inom Generativ AI, säkerställer mångfald och förbättrar robusthet:

  • Latent brus i GANs: i GANs transformeras en brusvektor zp(x)z \sim p(x) (ofta samplad från en Gaussisk eller Uniform fördelning) till realistiska exempel genom generatorn. Denna slumpmässighet säkerställer variation i genererade bilder;
  • Variationsinferens i VAEs: VAEs introducerar Gaussiskt brus i det latenta rummet, vilket möjliggör smidig interpolation mellan genererade exempel. Detta säkerställer att små förändringar i latenta variabler ger meningsfulla variationer i utdata;
  • Diffusionsmodeller och stokastiska processer: Dessa modeller lär sig att reversera en gradvis brusaddition för att generera högkvalitativ data. Genom att iterativt förfina brusiga indata kan de generera komplexa, realistiska bilder.

Exempel: Gaussiskt latentrum i VAEs

I VAEs ger kodaren ut parametrar för en Gaussisk fördelning:

q(zx)=N(z;μ(x),σ2(x))q(z|x)=\mathcal{N}(z;\mu(x),\sigma^2(x))

Istället för att använda en deterministisk avbildning, samplar VAE:er från denna fördelning, vilket introducerar kontrollerad slumpmässighet som möjliggör varierad generering. Denna teknik gör det möjligt för VAE:er att generera nya ansikten genom att interpolera mellan olika representationer i det latenta rummet.

Samplingsmetoder inom Generativ AI

Samplingsmetoder är avgörande för att generera nya datapunkter från inlärda fördelningar:

  • Monte Carlo-sampling: används i sannolikhetsmodeller som Bayesiansk inferens för att approximera förväntningsvärden. Monte Carlo-integration uppskattar ett förväntningsvärde som:
E[f(X)]1Ni=1Nf(Xi)\mathbb{E}[f(X)]\approx \frac{1}{N}\sum^N_{i=1}f(X_i)

Där XiX_i är samplade från mål-fördelningen.

  • Reparameteriseringstricket: i VAE:er säkerställs gradientflöde genom stokastiska noder genom att uttrycka zz som:
z=μ+σε, εN(0,1)z=\mu + \sigma \cdot \varepsilon,\ \varepsilon \sim \mathcal{N}(0, 1)

Detta trick möjliggör effektiv backpropagering genom stokastiska lager.

  • Ancestralt urval: i autoregressiva modeller (t.ex. GPT) genereras prover sekventiellt baserat på villkorliga sannolikheter. Till exempel, vid generering av text förutspår en modell nästa ord givet de föregående:
p(xtx1,x2,,xt1)p(x_t|x_1, x_2, \ldots,x_{t-1})

Denna sekventiella process säkerställer sammanhang i genererad text.

Exempel: Ancestralt urval vid textgenerering

Antag att vi tränar en generativ modell för att skapa engelska meningar. Givet indata "The cat" samplar modellen nästa ord från en inlärd sannolikhetsfördelning och producerar utdata som:

  • "The cat sleeps."
  • "The cat jumps."
  • "The cat is hungry."

Varje förutsägelse av nästa ord beror på tidigare genererade ord, vilket skapar meningsfulla sekvenser.

Praktiska tillämpningar inom generativ AI

  • GANs: använder brusvektorer för att generera högupplösta bilder;
  • VAE: kodar data till en sannolikhetsfördelning för smidig interpolation i latent utrymme;
  • Diffusionsmodeller: använder stokastisk brusreducering för att iterativt generera bilder;
  • Bayesiska generativa modeller: modellerar osäkerhet i generativa uppgifter.

Slutsats

Sannolikhet och slumpmässighet utgör grunden för Generativ AI och möjliggör för modeller att lära sig fördelningar, generera varierade utdata och approximera verklighetens variation. De kommande kapitlen bygger vidare på dessa koncept för att utforska sannolikhetsmodellering, neurala nätverk och generativa arkitekturer.

1. Vilket av följande är ett exempel på en sannolikhetsfördelning som används i Generativ AI?

2. Vilken roll spelar brus i Variational Autoencoders (VAE:er)?

3. Vilken samplingsmetod används vanligtvis i generativa AI-modeller som GPT?

question mark

Vilket av följande är ett exempel på en sannolikhetsfördelning som används i Generativ AI?

Select the correct answer

question mark

Vilken roll spelar brus i Variational Autoencoders (VAE:er)?

Select the correct answer

question mark

Vilken samplingsmetod används vanligtvis i generativa AI-modeller som GPT?

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 1
some-alt