Polynomiale Regressie
In het vorige hoofdstuk hebben we kwadratische regressie onderzocht, waarvan de grafiek een parabool is. Op dezelfde manier kunnen we x³ aan de vergelijking toevoegen om de Kubieke Regressie te verkrijgen, die een complexere grafiek heeft. We kunnen ook x⁴ toevoegen, enzovoort.
Een graad van een polynomiale regressie
In het algemeen wordt dit de polynomiale vergelijking genoemd en is het de vergelijking van de polynomiale regressie. De hoogste macht van x bepaalt de graad van een polynomiale regressie in de vergelijking. Hier is een voorbeeld
N-de-graads polynomiale regressie
Als we n beschouwen als een geheel getal groter dan twee, kunnen we de vergelijking van een n-de-graads polynomiale regressie opschrijven.
ypred=β0+β1x+β2x2+⋯+βnxnWaarbij:
- β0,β1,β2,…,βn – de parameters van het model zijn;
- ypred – de voorspelling van de doelvariabele is;
- x – de waarde van de feature is;
- n – de graad van de polynomiale regressie is.
Normale Vergelijking
En zoals altijd worden de parameters gevonden met behulp van de Normale Vergelijking:
β=β0β1…βn=(X~TX~)−1X~TytrueWaarbij:
- β0,β1,…,βn – de parameters van het model zijn;
- X – een array van kenmerkwaarden uit de trainingsset;
- Xk – de elementgewijze macht van k van de X array;
- ytrue – een array van doelwaarden uit de trainingsset.
Polynomiale regressie met meerdere kenmerken
Voor het creëren van nog complexere vormen kan polynomiale regressie met meer dan één kenmerk worden gebruikt. Maar zelfs met twee kenmerken heeft een polynomiale regressie van de tweede graad al een vrij lange vergelijking.
Meestal is zo'n complex model niet nodig. Eenvoudigere modellen (zoals meervoudige lineaire regressie) beschrijven de data doorgaans voldoende goed, zijn eenvoudiger te interpreteren en te visualiseren, en vergen minder rekenkracht.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Geweldig!
Completion tarief verbeterd naar 3.33
Polynomiale Regressie
Veeg om het menu te tonen
In het vorige hoofdstuk hebben we kwadratische regressie onderzocht, waarvan de grafiek een parabool is. Op dezelfde manier kunnen we x³ aan de vergelijking toevoegen om de Kubieke Regressie te verkrijgen, die een complexere grafiek heeft. We kunnen ook x⁴ toevoegen, enzovoort.
Een graad van een polynomiale regressie
In het algemeen wordt dit de polynomiale vergelijking genoemd en is het de vergelijking van de polynomiale regressie. De hoogste macht van x bepaalt de graad van een polynomiale regressie in de vergelijking. Hier is een voorbeeld
N-de-graads polynomiale regressie
Als we n beschouwen als een geheel getal groter dan twee, kunnen we de vergelijking van een n-de-graads polynomiale regressie opschrijven.
ypred=β0+β1x+β2x2+⋯+βnxnWaarbij:
- β0,β1,β2,…,βn – de parameters van het model zijn;
- ypred – de voorspelling van de doelvariabele is;
- x – de waarde van de feature is;
- n – de graad van de polynomiale regressie is.
Normale Vergelijking
En zoals altijd worden de parameters gevonden met behulp van de Normale Vergelijking:
β=β0β1…βn=(X~TX~)−1X~TytrueWaarbij:
- β0,β1,…,βn – de parameters van het model zijn;
- X – een array van kenmerkwaarden uit de trainingsset;
- Xk – de elementgewijze macht van k van de X array;
- ytrue – een array van doelwaarden uit de trainingsset.
Polynomiale regressie met meerdere kenmerken
Voor het creëren van nog complexere vormen kan polynomiale regressie met meer dan één kenmerk worden gebruikt. Maar zelfs met twee kenmerken heeft een polynomiale regressie van de tweede graad al een vrij lange vergelijking.
Meestal is zo'n complex model niet nodig. Eenvoudigere modellen (zoals meervoudige lineaire regressie) beschrijven de data doorgaans voldoende goed, zijn eenvoudiger te interpreteren en te visualiseren, en vergen minder rekenkracht.
Bedankt voor je feedback!