Kwadratische Regressie
Het probleem met lineaire regressie
Voordat we Polynomial Regression definiëren, bekijken we eerst het geval waarbij de eerder behandelde Lineaire Regressie niet goed werkt.
Hier is te zien dat ons eenvoudige lineaire regressiemodel slecht presteert. Dit komt doordat het probeert een rechte lijn door de datapunten te trekken. We merken echter op dat het passen van een parabool een veel betere keuze zou zijn voor onze punten.
Vergelijking van kwadratische regressie
Voor het opstellen van een model met een rechte lijn gebruikten we de vergelijking van een lijn (y=ax+b). Om een parabolisch model te bouwen, hebben we de vergelijking van een parabool nodig. Dat is de kwadratische vergelijking: y=ax²+bx+c. Door a, b en c te vervangen door β krijgen we de vergelijking van kwadratische regressie:
Het model dat door deze vergelijking wordt beschreven, wordt kwadratische regressie genoemd. Net als voorheen hoeven alleen de beste parameters voor de gegevenspunten te worden gevonden.
Normale Vergelijking en X̃
Zoals altijd zorgt de normale vergelijking voor het vinden van de beste parameters. Maar we moeten de X̃ correct definiëren.
We weten al hoe we de X̃-matrix voor meervoudige lineaire regressie moeten opbouwen. Het blijkt dat de X̃-matrix voor polynomiale regressie op vergelijkbare wijze wordt geconstrueerd. We kunnen x² beschouwen als een tweede kenmerk. Op deze manier moet een nieuwe overeenkomstige kolom aan de X̃ worden toegevoegd. Deze bevat dezelfde waarden als de vorige kolom, maar dan in het kwadraat.
De onderstaande video laat zien hoe de X̃ wordt opgebouwd.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Can you explain more about how the X̃ matrix is constructed for polynomial regression?
What is the Normal Equation and how does it help find the best parameters?
How does quadratic regression differ from linear regression in practice?
Awesome!
Completion rate improved to 5.26
Kwadratische Regressie
Veeg om het menu te tonen
Het probleem met lineaire regressie
Voordat we Polynomial Regression definiëren, bekijken we eerst het geval waarbij de eerder behandelde Lineaire Regressie niet goed werkt.
Hier is te zien dat ons eenvoudige lineaire regressiemodel slecht presteert. Dit komt doordat het probeert een rechte lijn door de datapunten te trekken. We merken echter op dat het passen van een parabool een veel betere keuze zou zijn voor onze punten.
Vergelijking van kwadratische regressie
Voor het opstellen van een model met een rechte lijn gebruikten we de vergelijking van een lijn (y=ax+b). Om een parabolisch model te bouwen, hebben we de vergelijking van een parabool nodig. Dat is de kwadratische vergelijking: y=ax²+bx+c. Door a, b en c te vervangen door β krijgen we de vergelijking van kwadratische regressie:
Het model dat door deze vergelijking wordt beschreven, wordt kwadratische regressie genoemd. Net als voorheen hoeven alleen de beste parameters voor de gegevenspunten te worden gevonden.
Normale Vergelijking en X̃
Zoals altijd zorgt de normale vergelijking voor het vinden van de beste parameters. Maar we moeten de X̃ correct definiëren.
We weten al hoe we de X̃-matrix voor meervoudige lineaire regressie moeten opbouwen. Het blijkt dat de X̃-matrix voor polynomiale regressie op vergelijkbare wijze wordt geconstrueerd. We kunnen x² beschouwen als een tweede kenmerk. Op deze manier moet een nieuwe overeenkomstige kolom aan de X̃ worden toegevoegd. Deze bevat dezelfde waarden als de vorige kolom, maar dan in het kwadraat.
De onderstaande video laat zien hoe de X̃ wordt opgebouwd.
Bedankt voor je feedback!