Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Sandsynlighedsfordelinger og Tilfældighed i AI | Teoretiske Grundlag
Generativ AI

bookSandsynlighedsfordelinger og Tilfældighed i AI

Sandsynlighedsfordelinger og tilfældighed er centrale elementer i generative modeller, hvilket gør det muligt for AI-systemer at skabe varierede og realistiske output. I stedet for at definere sandsynlighedsteori eksplicit, fokuserer dette kapitel på, hvordan sandsynlighed anvendes i Generativ AI til at modellere usikkerhed, udtage prøver af data og træne generative modeller.

Sandsynlighedsfordelingers rolle i Generativ AI

Generative modeller benytter sandsynlighedsfordelinger til at lære datamønstre og generere nye prøver. Centrale begreber omfatter:

  • Latent rum-repræsentation: mange generative modeller (f.eks. VAE'er, GAN'er) kortlægger inputdata til en lavdimensionel sandsynlighedsfordeling. Udtagning fra denne fordeling genererer nye datapunkter;
  • Sandsynlighedsvurdering: probabilistiske modeller vurderer sandsynligheden for at observere et datapunkt givet en indlært fordeling, hvilket styrer træningen;
  • Udtagning og generering: processen med at udtage tilfældige prøver fra indlærte fordelinger for at skabe nye syntetiske data.

Centrale matematiske begreber:

For en sandsynlighedsfordeling p(x)p(x) er sandsynligheden for data XX givet modelparametre θ\theta:

L(θX)=i=1Np(xiθ)\mathcal{L}(\theta|X)= \prod^{N}_{i=1}p(x_i|\theta)

Maksimering af denne sandsynlighed hjælper generative modeller med at lære mønstre fra data. I generativ AI antager modeller ofte bestemte former for sandsynlighedsfordelinger—såsom Gaussisk, Bernoulli eller kategorisk—for at repræsentere data. Valget af fordeling påvirker, hvordan modeller lærer og genererer nye eksempler. For eksempel anvendes kategoriske fordelinger i tekstgenerering til at modellere sandsynligheden for hvert muligt ord givet tidligere ord.

Tilfældighed og støj i generative modeller

Støj spiller en afgørende rolle i generativ AI, sikrer diversitet og forbedrer robusthed:

  • Latent støj i GANs: I GANs transformeres en støjvektor zp(x)z \sim p(x) (ofte samplet fra en Gaussisk eller Uniform fordeling) til realistiske eksempler gennem generatoren. Denne tilfældighed sikrer variation i genererede billeder;
  • Variationsinference i VAEs: VAEs introducerer Gaussisk støj i latent rum, hvilket muliggør glidende interpolation mellem genererede eksempler. Dette sikrer, at små ændringer i latente variable resulterer i meningsfulde variationer i output;
  • Diffusionsmodeller og stokastiske processer: Disse modeller lærer at omvende en gradvis støjtilføjelsesproces for at generere data af høj kvalitet. Ved iterativt at forfine støjfyldte input kan de generere komplekse, realistiske billeder.

Eksempel: Gaussisk latent rum i VAEs

I VAEs udgiver encoder-parametre for en Gaussisk fordeling:

q(zx)=N(z;μ(x),σ2(x))q(z|x)=\mathcal{N}(z;\mu(x),\sigma^2(x))

I stedet for at anvende en deterministisk afbildning, udtager VAEs prøver fra denne fordeling, hvilket introducerer kontrolleret tilfældighed, der muliggør mangfoldig generering. Denne teknik gør det muligt for VAEs at generere nye ansigter ved at interpolere mellem forskellige latente rum-repræsentationer.

Udtagningsteknikker i Generativ AI

Udtagningsteknikker er essentielle for at generere nye datapunkter fra indlærte fordelinger:

  • Monte Carlo-udtagning: anvendes i probabilistiske modeller som Bayesiansk inferens til at approksimere forventninger. Monte Carlo-integration estimerer en forventning som:
E[f(X)]1Ni=1Nf(Xi)\mathbb{E}[f(X)]\approx \frac{1}{N}\sum^N_{i=1}f(X_i)

hvor XiX_i udtages fra målfordelingen.

  • Reparametriseringstrick: i VAEs sikrer gradientflow gennem stokastiske noder ved at udtrykke zz som:
z=μ+σε, εN(0,1)z=\mu + \sigma \cdot \varepsilon,\ \varepsilon \sim \mathcal{N}(0, 1)

Dette trick muliggør effektiv backpropagation gennem stokastiske lag.

  • Ancestral Sampling: i autoregressive modeller (f.eks. GPT) genereres prøver sekventielt baseret på betingede sandsynligheder. For eksempel, når der genereres tekst, forudsiger en model det næste ord givet de foregående:
p(xtx1,x2,,xt1)p(x_t|x_1, x_2, \ldots,x_{t-1})

Denne sekventielle proces sikrer sammenhæng i genereret tekst.

Eksempel: Ancestral Sampling i tekstgenerering

Antag, at der trænes en generativ model til at generere engelske sætninger. Givet inputtet "The cat", udtager modellen det næste ord fra en indlært sandsynlighedsfordeling og producerer output som:

  • "The cat sleeps."
  • "The cat jumps."
  • "The cat is hungry."

Hver forudsigelse af næste ord afhænger af tidligere genererede ord, hvilket skaber meningsfulde sekvenser.

Praktiske anvendelser i generativ AI

  • GANs: bruger støjvektorer til at generere billeder i høj opløsning;
  • VAEs: koder data til en sandsynlighedsfordeling for glat interpolation i latent rum;
  • Diffusionsmodeller: anvender stokastisk støjfjerning til iterativ billedgenerering;
  • Bayesianske generative modeller: modellerer usikkerhed i generative opgaver.

Konklusion

Sandsynlighed og tilfældighed udgør fundamentet for Generativ AI og gør det muligt for modeller at lære fordelinger, generere varierede output og efterligne variationer fra den virkelige verden. De næste kapitler bygger videre på disse begreber for at udforske sandsynlighedsmodellering, neurale netværk og generative arkitekturer.

1. Hvilket af følgende er et eksempel på en sandsynlighedsfordeling, der bruges i Generativ AI?

2. Hvilken rolle spiller støj i Variational Autoencoders (VAE'er)?

3. Hvilken sampling-metode anvendes ofte i generative AI-modeller som GPT?

question mark

Hvilket af følgende er et eksempel på en sandsynlighedsfordeling, der bruges i Generativ AI?

Select the correct answer

question mark

Hvilken rolle spiller støj i Variational Autoencoders (VAE'er)?

Select the correct answer

question mark

Hvilken sampling-metode anvendes ofte i generative AI-modeller som GPT?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 1

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain the difference between VAEs, GANs, and diffusion models?

How does the choice of probability distribution affect generative model performance?

Can you give more examples of how randomness is used in generative AI?

Awesome!

Completion rate improved to 4.76

bookSandsynlighedsfordelinger og Tilfældighed i AI

Stryg for at vise menuen

Sandsynlighedsfordelinger og tilfældighed er centrale elementer i generative modeller, hvilket gør det muligt for AI-systemer at skabe varierede og realistiske output. I stedet for at definere sandsynlighedsteori eksplicit, fokuserer dette kapitel på, hvordan sandsynlighed anvendes i Generativ AI til at modellere usikkerhed, udtage prøver af data og træne generative modeller.

Sandsynlighedsfordelingers rolle i Generativ AI

Generative modeller benytter sandsynlighedsfordelinger til at lære datamønstre og generere nye prøver. Centrale begreber omfatter:

  • Latent rum-repræsentation: mange generative modeller (f.eks. VAE'er, GAN'er) kortlægger inputdata til en lavdimensionel sandsynlighedsfordeling. Udtagning fra denne fordeling genererer nye datapunkter;
  • Sandsynlighedsvurdering: probabilistiske modeller vurderer sandsynligheden for at observere et datapunkt givet en indlært fordeling, hvilket styrer træningen;
  • Udtagning og generering: processen med at udtage tilfældige prøver fra indlærte fordelinger for at skabe nye syntetiske data.

Centrale matematiske begreber:

For en sandsynlighedsfordeling p(x)p(x) er sandsynligheden for data XX givet modelparametre θ\theta:

L(θX)=i=1Np(xiθ)\mathcal{L}(\theta|X)= \prod^{N}_{i=1}p(x_i|\theta)

Maksimering af denne sandsynlighed hjælper generative modeller med at lære mønstre fra data. I generativ AI antager modeller ofte bestemte former for sandsynlighedsfordelinger—såsom Gaussisk, Bernoulli eller kategorisk—for at repræsentere data. Valget af fordeling påvirker, hvordan modeller lærer og genererer nye eksempler. For eksempel anvendes kategoriske fordelinger i tekstgenerering til at modellere sandsynligheden for hvert muligt ord givet tidligere ord.

Tilfældighed og støj i generative modeller

Støj spiller en afgørende rolle i generativ AI, sikrer diversitet og forbedrer robusthed:

  • Latent støj i GANs: I GANs transformeres en støjvektor zp(x)z \sim p(x) (ofte samplet fra en Gaussisk eller Uniform fordeling) til realistiske eksempler gennem generatoren. Denne tilfældighed sikrer variation i genererede billeder;
  • Variationsinference i VAEs: VAEs introducerer Gaussisk støj i latent rum, hvilket muliggør glidende interpolation mellem genererede eksempler. Dette sikrer, at små ændringer i latente variable resulterer i meningsfulde variationer i output;
  • Diffusionsmodeller og stokastiske processer: Disse modeller lærer at omvende en gradvis støjtilføjelsesproces for at generere data af høj kvalitet. Ved iterativt at forfine støjfyldte input kan de generere komplekse, realistiske billeder.

Eksempel: Gaussisk latent rum i VAEs

I VAEs udgiver encoder-parametre for en Gaussisk fordeling:

q(zx)=N(z;μ(x),σ2(x))q(z|x)=\mathcal{N}(z;\mu(x),\sigma^2(x))

I stedet for at anvende en deterministisk afbildning, udtager VAEs prøver fra denne fordeling, hvilket introducerer kontrolleret tilfældighed, der muliggør mangfoldig generering. Denne teknik gør det muligt for VAEs at generere nye ansigter ved at interpolere mellem forskellige latente rum-repræsentationer.

Udtagningsteknikker i Generativ AI

Udtagningsteknikker er essentielle for at generere nye datapunkter fra indlærte fordelinger:

  • Monte Carlo-udtagning: anvendes i probabilistiske modeller som Bayesiansk inferens til at approksimere forventninger. Monte Carlo-integration estimerer en forventning som:
E[f(X)]1Ni=1Nf(Xi)\mathbb{E}[f(X)]\approx \frac{1}{N}\sum^N_{i=1}f(X_i)

hvor XiX_i udtages fra målfordelingen.

  • Reparametriseringstrick: i VAEs sikrer gradientflow gennem stokastiske noder ved at udtrykke zz som:
z=μ+σε, εN(0,1)z=\mu + \sigma \cdot \varepsilon,\ \varepsilon \sim \mathcal{N}(0, 1)

Dette trick muliggør effektiv backpropagation gennem stokastiske lag.

  • Ancestral Sampling: i autoregressive modeller (f.eks. GPT) genereres prøver sekventielt baseret på betingede sandsynligheder. For eksempel, når der genereres tekst, forudsiger en model det næste ord givet de foregående:
p(xtx1,x2,,xt1)p(x_t|x_1, x_2, \ldots,x_{t-1})

Denne sekventielle proces sikrer sammenhæng i genereret tekst.

Eksempel: Ancestral Sampling i tekstgenerering

Antag, at der trænes en generativ model til at generere engelske sætninger. Givet inputtet "The cat", udtager modellen det næste ord fra en indlært sandsynlighedsfordeling og producerer output som:

  • "The cat sleeps."
  • "The cat jumps."
  • "The cat is hungry."

Hver forudsigelse af næste ord afhænger af tidligere genererede ord, hvilket skaber meningsfulde sekvenser.

Praktiske anvendelser i generativ AI

  • GANs: bruger støjvektorer til at generere billeder i høj opløsning;
  • VAEs: koder data til en sandsynlighedsfordeling for glat interpolation i latent rum;
  • Diffusionsmodeller: anvender stokastisk støjfjerning til iterativ billedgenerering;
  • Bayesianske generative modeller: modellerer usikkerhed i generative opgaver.

Konklusion

Sandsynlighed og tilfældighed udgør fundamentet for Generativ AI og gør det muligt for modeller at lære fordelinger, generere varierede output og efterligne variationer fra den virkelige verden. De næste kapitler bygger videre på disse begreber for at udforske sandsynlighedsmodellering, neurale netværk og generative arkitekturer.

1. Hvilket af følgende er et eksempel på en sandsynlighedsfordeling, der bruges i Generativ AI?

2. Hvilken rolle spiller støj i Variational Autoencoders (VAE'er)?

3. Hvilken sampling-metode anvendes ofte i generative AI-modeller som GPT?

question mark

Hvilket af følgende er et eksempel på en sandsynlighedsfordeling, der bruges i Generativ AI?

Select the correct answer

question mark

Hvilken rolle spiller støj i Variational Autoencoders (VAE'er)?

Select the correct answer

question mark

Hvilken sampling-metode anvendes ofte i generative AI-modeller som GPT?

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 1
some-alt