Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Finne Parameterne | Logistisk Regresjon
Klassifisering med Python

bookFinne Parameterne

Logistisk regresjon krever kun at datamaskinen lærer de beste parameterne ββ. For dette må vi definere hva "beste parametere" betyr. La oss repetere hvordan modellen fungerer; den predikerer pp – sannsynligheten for å tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Åpenbart er modellen med gode parametere den som predikerer høy (nær 1) pp for tilfeller som faktisk tilhører klasse 1, og lav (nær 0) pp for tilfeller med faktisk klasse 0.

For å måle hvor dårlig eller god modellen er, bruker vi en kostnadsfunksjon. I lineær regresjon brukte vi MSE (mean squared error) som kostnadsfunksjon. Denne gangen brukes en annen funksjon:

Her representerer pp sannsynligheten for å tilhøre klasse 1, slik modellen predikerer, mens yy angir den faktiske målverdien.

Denne funksjonen straffer ikke bare feilaktige prediksjoner, men tar også hensyn til modellens selvtillit i sine prediksjoner. Som illustrert i bildet ovenfor, når verdien av pp ligger nær yy (den faktiske målverdien), forblir kostnadsfunksjonen relativt liten, noe som indikerer at modellen med høy selvtillit valgte riktig klasse. Omvendt, hvis prediksjonen er feil, øker kostnadsfunksjonen eksponentielt etter hvert som modellens selvtillit i feil klasse øker.

I sammenheng med binær klassifisering med en sigmoid-funksjon, brukes en kostnadsfunksjon som spesifikt kalles binær krysstapsfunksjon (binary cross-entropy loss), som vist ovenfor. Det er viktig å merke seg at det også finnes en generell form kjent som krysstapsfunksjon (eller kategorisk krysstap) som brukes for multiklasse klassifiseringsproblemer.

Den kategoriske krysstapsfunksjonen for én treningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antall klasser;
  • yiy_i er den faktiske målverdien (1 hvis klassen er korrekt, 0 ellers);
  • pip_i er den predikerte sannsynligheten for at instansen tilhører klasse ii.

Vi beregner tapfunksjonen for hver treningsinstans og tar gjennomsnittet. Dette gjennomsnittet kalles kostnadsfunksjonen. Logistisk regresjon finner parameterne β\beta som minimerer kostnadsfunksjonen.

question mark

Hvilken av disse brukes som tap i klassifiseringsoppgaver?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Suggested prompts:

Can you explain why binary cross-entropy is preferred over MSE for logistic regression?

What does the sigmoid function do in logistic regression?

How does the cost function help improve the model's predictions?

Awesome!

Completion rate improved to 4.17

bookFinne Parameterne

Sveip for å vise menyen

Logistisk regresjon krever kun at datamaskinen lærer de beste parameterne ββ. For dette må vi definere hva "beste parametere" betyr. La oss repetere hvordan modellen fungerer; den predikerer pp – sannsynligheten for å tilhøre klasse 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Hvor

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Åpenbart er modellen med gode parametere den som predikerer høy (nær 1) pp for tilfeller som faktisk tilhører klasse 1, og lav (nær 0) pp for tilfeller med faktisk klasse 0.

For å måle hvor dårlig eller god modellen er, bruker vi en kostnadsfunksjon. I lineær regresjon brukte vi MSE (mean squared error) som kostnadsfunksjon. Denne gangen brukes en annen funksjon:

Her representerer pp sannsynligheten for å tilhøre klasse 1, slik modellen predikerer, mens yy angir den faktiske målverdien.

Denne funksjonen straffer ikke bare feilaktige prediksjoner, men tar også hensyn til modellens selvtillit i sine prediksjoner. Som illustrert i bildet ovenfor, når verdien av pp ligger nær yy (den faktiske målverdien), forblir kostnadsfunksjonen relativt liten, noe som indikerer at modellen med høy selvtillit valgte riktig klasse. Omvendt, hvis prediksjonen er feil, øker kostnadsfunksjonen eksponentielt etter hvert som modellens selvtillit i feil klasse øker.

I sammenheng med binær klassifisering med en sigmoid-funksjon, brukes en kostnadsfunksjon som spesifikt kalles binær krysstapsfunksjon (binary cross-entropy loss), som vist ovenfor. Det er viktig å merke seg at det også finnes en generell form kjent som krysstapsfunksjon (eller kategorisk krysstap) som brukes for multiklasse klassifiseringsproblemer.

Den kategoriske krysstapsfunksjonen for én treningsinstans beregnes som følger:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Hvor

  • CC er antall klasser;
  • yiy_i er den faktiske målverdien (1 hvis klassen er korrekt, 0 ellers);
  • pip_i er den predikerte sannsynligheten for at instansen tilhører klasse ii.

Vi beregner tapfunksjonen for hver treningsinstans og tar gjennomsnittet. Dette gjennomsnittet kalles kostnadsfunksjonen. Logistisk regresjon finner parameterne β\beta som minimerer kostnadsfunksjonen.

question mark

Hvilken av disse brukes som tap i klassifiseringsoppgaver?

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2
some-alt