Finde Parametrene
Vi ved nu, at lineær regression blot er en linje, der bedst passer til dataene. Men hvordan kan man afgøre, hvilken der er den rigtige?
Man kan beregne forskellen mellem den forudsagte værdi og den faktiske målte værdi for hvert datapunkt i træningssættet.
Disse forskelle kaldes residualer (eller fejl). Målet er at gøre residualerne så små som muligt.
Ordinary Least Squares
Standardmetoden er Ordinary Least Squares (OLS):
Tag hver residual, kvadrer den (primært for at fjerne fortegnet på residualen), og summer dem alle.
Dette kaldes SSR (Sum of squared residuals). Opgaven er at finde de parametre, der minimerer SSR.
Normal Ligning
Heldigvis behøver vi ikke at afprøve alle linjer og beregne SSR for dem. Opgaven med at minimere SSR har en matematisk løsning, som ikke er særlig beregningstung.
Denne løsning kaldes Normal Ligning.
Hvor:
- β0,β1,…,βn – er modellens parametre;
- X – er et array af feature-værdier fra træningssættet;
- Xk – er elementvis potens $k$ af $X$ arrayet;
- ytrue – er et array af mål-værdier fra træningssættet.
Denne ligning giver os parametrene for en linje med mindst SSR.
Forstod du ikke, hvordan det virker? Ingen grund til bekymring! Det er ret kompleks matematik. Men du behøver ikke selv beregne parametrene. Mange biblioteker har allerede implementeret lineær regression.
Quiz
1. Overvej billedet ovenfor. Hvilken regressionslinje er bedst?
2. y_true - y_predicted kaldes
Tak for dine kommentarer!
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Fantastisk!
Completion rate forbedret til 3.33
Finde Parametrene
Stryg for at vise menuen
Vi ved nu, at lineær regression blot er en linje, der bedst passer til dataene. Men hvordan kan man afgøre, hvilken der er den rigtige?
Man kan beregne forskellen mellem den forudsagte værdi og den faktiske målte værdi for hvert datapunkt i træningssættet.
Disse forskelle kaldes residualer (eller fejl). Målet er at gøre residualerne så små som muligt.
Ordinary Least Squares
Standardmetoden er Ordinary Least Squares (OLS):
Tag hver residual, kvadrer den (primært for at fjerne fortegnet på residualen), og summer dem alle.
Dette kaldes SSR (Sum of squared residuals). Opgaven er at finde de parametre, der minimerer SSR.
Normal Ligning
Heldigvis behøver vi ikke at afprøve alle linjer og beregne SSR for dem. Opgaven med at minimere SSR har en matematisk løsning, som ikke er særlig beregningstung.
Denne løsning kaldes Normal Ligning.
Hvor:
- β0,β1,…,βn – er modellens parametre;
- X – er et array af feature-værdier fra træningssættet;
- Xk – er elementvis potens $k$ af $X$ arrayet;
- ytrue – er et array af mål-værdier fra træningssættet.
Denne ligning giver os parametrene for en linje med mindst SSR.
Forstod du ikke, hvordan det virker? Ingen grund til bekymring! Det er ret kompleks matematik. Men du behøver ikke selv beregne parametrene. Mange biblioteker har allerede implementeret lineær regression.
Quiz
1. Overvej billedet ovenfor. Hvilken regressionslinje er bedst?
2. y_true - y_predicted kaldes
Tak for dine kommentarer!