Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Het Vinden van de Parameters | Eenvoudige Lineaire Regressie
Lineaire Regressie Met Python
course content

Cursusinhoud

Lineaire Regressie Met Python

Lineaire Regressie Met Python

1. Eenvoudige Lineaire Regressie
2. Meervoudige Lineaire Regressie
3. Polynomiale Regressie
4. Het Beste Model Kiezen

book
Het Vinden van de Parameters

We weten nu dat lineaire regressie gewoon een lijn is die het beste bij de data past. Maar hoe bepaal je welke lijn de juiste is?

Je kunt het verschil berekenen tussen de voorspelde waarde en de werkelijke doelwaarde voor elk datapunt in de trainingsset.
Deze verschillen worden residuen (of fouten) genoemd. Het doel is om de residuen zo klein mogelijk te maken.

Ordinary Least Squares

De standaardmethode is de Ordinary Least Squares (OLS) methode:
Neem elk residu, kwadrateer het (voornamelijk om het teken van een residu te elimineren), en sommeer ze allemaal.
Dit wordt SSR (Sum of squared residuals) genoemd. De taak is om de parameters te vinden die de SSR minimaliseren.

Normale Vergelijking

Gelukkig hoeven we niet alle lijnen te proberen en de SSR voor elk te berekenen. De taak om de SSR te minimaliseren heeft een wiskundige oplossing die niet veel rekenkracht vereist.
Deze oplossing wordt de Normale Vergelijking genoemd.

Deze vergelijking geeft ons de parameters van een lijn met de kleinste SSR.
Begrijp je niet precies hoe het werkt? Geen zorgen! Het is vrij complexe wiskunde. Maar je hoeft de parameters niet zelf uit te rekenen. Veel bibliotheken hebben lineaire regressie al geïmplementeerd.

Quiz

1. Bekijk de bovenstaande afbeelding. Welke regressielijn is beter?

2. y_true - y_predicted wordt genoemd

question mark

Bekijk de bovenstaande afbeelding. Welke regressielijn is beter?

Select the correct answer

question mark

y_true - y_predicted wordt genoemd

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 2

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

course content

Cursusinhoud

Lineaire Regressie Met Python

Lineaire Regressie Met Python

1. Eenvoudige Lineaire Regressie
2. Meervoudige Lineaire Regressie
3. Polynomiale Regressie
4. Het Beste Model Kiezen

book
Het Vinden van de Parameters

We weten nu dat lineaire regressie gewoon een lijn is die het beste bij de data past. Maar hoe bepaal je welke lijn de juiste is?

Je kunt het verschil berekenen tussen de voorspelde waarde en de werkelijke doelwaarde voor elk datapunt in de trainingsset.
Deze verschillen worden residuen (of fouten) genoemd. Het doel is om de residuen zo klein mogelijk te maken.

Ordinary Least Squares

De standaardmethode is de Ordinary Least Squares (OLS) methode:
Neem elk residu, kwadrateer het (voornamelijk om het teken van een residu te elimineren), en sommeer ze allemaal.
Dit wordt SSR (Sum of squared residuals) genoemd. De taak is om de parameters te vinden die de SSR minimaliseren.

Normale Vergelijking

Gelukkig hoeven we niet alle lijnen te proberen en de SSR voor elk te berekenen. De taak om de SSR te minimaliseren heeft een wiskundige oplossing die niet veel rekenkracht vereist.
Deze oplossing wordt de Normale Vergelijking genoemd.

Deze vergelijking geeft ons de parameters van een lijn met de kleinste SSR.
Begrijp je niet precies hoe het werkt? Geen zorgen! Het is vrij complexe wiskunde. Maar je hoeft de parameters niet zelf uit te rekenen. Veel bibliotheken hebben lineaire regressie al geïmplementeerd.

Quiz

1. Bekijk de bovenstaande afbeelding. Welke regressielijn is beter?

2. y_true - y_predicted wordt genoemd

question mark

Bekijk de bovenstaande afbeelding. Welke regressielijn is beter?

Select the correct answer

question mark

y_true - y_predicted wordt genoemd

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 2
some-alt