Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Polynomiale Regression | Abschnitt
Practice
Projects
Quizzes & Challenges
Quizze
Challenges
/
Grundlagen des Überwachten Lernens

bookPolynomiale Regression

Im vorherigen Kapitel haben wir die quadratische Regression untersucht, deren Graph eine Parabel ist. Ebenso könnten wir zur Gleichung hinzufügen, um die kubische Regression zu erhalten, die einen komplexeren Graphen besitzt. Wir könnten auch x⁴ und so weiter hinzufügen.

Der Grad einer Polynomregression

Allgemein wird dies als Polynomgleichung bezeichnet und ist die Gleichung der Polynomregression. Die höchste Potenz von x definiert den Grad einer Polynomregression in der Gleichung. Hier ein Beispiel

Polynomregression n-ten Grades

Wenn n eine ganze Zahl größer als zwei ist, können wir die Gleichung einer Polynomregression n-ten Grades wie folgt aufschreiben:

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Dabei gilt:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sind die Parameter des Modells;
  • ypredy_{\text{pred}} – ist die Vorhersage des Zielwerts;
  • xx – ist der Merkmalswert;
  • nn – ist der Grad der Polynomregression.

Normalengleichung

Wie immer werden die Parameter mit der Normalengleichung bestimmt:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dabei gilt:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sind die Parameter des Modells;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – ist ein Array von Merkmalswerten aus dem Trainingsdatensatz;
  • XkX^k – ist die elementweise Potenz kk des XX-Arrays;
  • ytruey_{\text{true}} – ist ein Array von Zielwerten aus dem Trainingsdatensatz.

Polynomiale Regression mit mehreren Merkmalen

Zur Erzeugung noch komplexerer Formen kann die polynomiale Regression mit mehr als einem Merkmal verwendet werden. Bereits bei zwei Merkmalen besitzt die polynomiale Regression zweiten Grades eine recht umfangreiche Gleichung.

In den meisten Fällen ist ein derart komplexes Modell nicht erforderlich. Einfachere Modelle (wie die multiple lineare Regression) beschreiben die Daten in der Regel ausreichend gut, sind leichter zu interpretieren, zu visualisieren und weniger rechenintensiv.

question mark

Wählen Sie die FALSCHE Aussage aus.

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 11

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

bookPolynomiale Regression

Swipe um das Menü anzuzeigen

Im vorherigen Kapitel haben wir die quadratische Regression untersucht, deren Graph eine Parabel ist. Ebenso könnten wir zur Gleichung hinzufügen, um die kubische Regression zu erhalten, die einen komplexeren Graphen besitzt. Wir könnten auch x⁴ und so weiter hinzufügen.

Der Grad einer Polynomregression

Allgemein wird dies als Polynomgleichung bezeichnet und ist die Gleichung der Polynomregression. Die höchste Potenz von x definiert den Grad einer Polynomregression in der Gleichung. Hier ein Beispiel

Polynomregression n-ten Grades

Wenn n eine ganze Zahl größer als zwei ist, können wir die Gleichung einer Polynomregression n-ten Grades wie folgt aufschreiben:

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Dabei gilt:

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – sind die Parameter des Modells;
  • ypredy_{\text{pred}} – ist die Vorhersage des Zielwerts;
  • xx – ist der Merkmalswert;
  • nn – ist der Grad der Polynomregression.

Normalengleichung

Wie immer werden die Parameter mit der Normalengleichung bestimmt:

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Dabei gilt:

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – sind die Parameter des Modells;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – ist ein Array von Merkmalswerten aus dem Trainingsdatensatz;
  • XkX^k – ist die elementweise Potenz kk des XX-Arrays;
  • ytruey_{\text{true}} – ist ein Array von Zielwerten aus dem Trainingsdatensatz.

Polynomiale Regression mit mehreren Merkmalen

Zur Erzeugung noch komplexerer Formen kann die polynomiale Regression mit mehr als einem Merkmal verwendet werden. Bereits bei zwei Merkmalen besitzt die polynomiale Regression zweiten Grades eine recht umfangreiche Gleichung.

In den meisten Fällen ist ein derart komplexes Modell nicht erforderlich. Einfachere Modelle (wie die multiple lineare Regression) beschreiben die Daten in der Regel ausreichend gut, sind leichter zu interpretieren, zu visualisieren und weniger rechenintensiv.

question mark

Wählen Sie die FALSCHE Aussage aus.

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 11
some-alt