Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Het Vinden van de Parameters | Logistische Regressie
Classificatie met Python

bookHet Vinden van de Parameters

Logistische regressie vereist alleen dat de computer de beste parameters ββ leert. Daarvoor moeten we definiëren wat "beste parameters" betekent. Laten we herinneren hoe het model werkt: het voorspelt de pp - kans om tot klasse 1 te behoren:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Waarbij

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Het model met goede parameters voorspelt uiteraard een hoge (dicht bij 1) pp voor gevallen die daadwerkelijk tot klasse 1 behoren en een lage (dicht bij 0) pp voor gevallen met de werkelijke klasse 0.

Om te meten hoe slecht of goed het model is, gebruiken we een kostenfunctie. Bij lineaire regressie gebruikten we MSE (mean squared error) als kostenfunctie. Deze keer wordt een andere functie gebruikt:

Hier stelt pp de kans voor om tot klasse 1 te behoren, zoals voorspeld door het model, terwijl yy de werkelijke doelwaarde aanduidt.

Deze functie straft niet alleen onjuiste voorspellingen, maar houdt ook rekening met het vertrouwen van het model in zijn voorspellingen. Zoals geïllustreerd in de bovenstaande afbeelding, wanneer de waarde van pp dicht bij yy (de werkelijke doelwaarde) ligt, blijft de kostenfunctie relatief klein, wat aangeeft dat het model met vertrouwen de juiste klasse heeft gekozen. Omgekeerd, als de voorspelling onjuist is, neemt de kostenfunctie exponentieel toe naarmate het vertrouwen van het model in de onjuiste klasse toeneemt.

In de context van binaire classificatie met een sigmoidfunctie wordt de kostenfunctie die wordt gebruikt specifiek binaire cross-entropy loss genoemd, zoals hierboven getoond. Het is belangrijk op te merken dat er ook een algemene vorm bestaat, bekend als cross-entropy loss (of categorische cross-entropy), die wordt gebruikt voor multi-klasse classificatieproblemen.

De categorische cross-entropy loss voor een enkele trainingsinstantie wordt als volgt berekend:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Waarbij

  • CC het aantal klassen is;
  • yiy_i de werkelijke doelwaarde is (1 als de klasse de juiste klasse is, anders 0);
  • pip_i de voorspelde kans is dat de instantie tot klasse ii behoort.

We berekenen de verliesfunctie voor elke trainingsinstantie en nemen het gemiddelde. Dit gemiddelde wordt de kostenfunctie genoemd. Logistische regressie vindt de parameters β\beta die de kostenfunctie minimaliseren.

question mark

Welke van deze wordt gebruikt als verliesfunctie bij classificatietaken?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 2

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Suggested prompts:

Can you explain why binary cross-entropy is preferred over MSE for logistic regression?

What does the sigmoid function do in logistic regression?

How does the cost function help improve the model's predictions?

Awesome!

Completion rate improved to 4.17

bookHet Vinden van de Parameters

Veeg om het menu te tonen

Logistische regressie vereist alleen dat de computer de beste parameters ββ leert. Daarvoor moeten we definiëren wat "beste parameters" betekent. Laten we herinneren hoe het model werkt: het voorspelt de pp - kans om tot klasse 1 te behoren:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Waarbij

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Het model met goede parameters voorspelt uiteraard een hoge (dicht bij 1) pp voor gevallen die daadwerkelijk tot klasse 1 behoren en een lage (dicht bij 0) pp voor gevallen met de werkelijke klasse 0.

Om te meten hoe slecht of goed het model is, gebruiken we een kostenfunctie. Bij lineaire regressie gebruikten we MSE (mean squared error) als kostenfunctie. Deze keer wordt een andere functie gebruikt:

Hier stelt pp de kans voor om tot klasse 1 te behoren, zoals voorspeld door het model, terwijl yy de werkelijke doelwaarde aanduidt.

Deze functie straft niet alleen onjuiste voorspellingen, maar houdt ook rekening met het vertrouwen van het model in zijn voorspellingen. Zoals geïllustreerd in de bovenstaande afbeelding, wanneer de waarde van pp dicht bij yy (de werkelijke doelwaarde) ligt, blijft de kostenfunctie relatief klein, wat aangeeft dat het model met vertrouwen de juiste klasse heeft gekozen. Omgekeerd, als de voorspelling onjuist is, neemt de kostenfunctie exponentieel toe naarmate het vertrouwen van het model in de onjuiste klasse toeneemt.

In de context van binaire classificatie met een sigmoidfunctie wordt de kostenfunctie die wordt gebruikt specifiek binaire cross-entropy loss genoemd, zoals hierboven getoond. Het is belangrijk op te merken dat er ook een algemene vorm bestaat, bekend als cross-entropy loss (of categorische cross-entropy), die wordt gebruikt voor multi-klasse classificatieproblemen.

De categorische cross-entropy loss voor een enkele trainingsinstantie wordt als volgt berekend:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Waarbij

  • CC het aantal klassen is;
  • yiy_i de werkelijke doelwaarde is (1 als de klasse de juiste klasse is, anders 0);
  • pip_i de voorspelde kans is dat de instantie tot klasse ii behoort.

We berekenen de verliesfunctie voor elke trainingsinstantie en nemen het gemiddelde. Dit gemiddelde wordt de kostenfunctie genoemd. Logistische regressie vindt de parameters β\beta die de kostenfunctie minimaliseren.

question mark

Welke van deze wordt gebruikt als verliesfunctie bij classificatietaken?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 2
some-alt