Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Régression Polynomiale | Section
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Fondamentaux de l'apprentissage supervisé

bookRégression Polynomiale

Dans le chapitre précédent, nous avons étudié la régression quadratique, dont le graphique est une parabole. De la même manière, il est possible d’ajouter le à l’équation pour obtenir la régression cubique, qui présente un graphique plus complexe. On peut également ajouter x⁴, et ainsi de suite.

Degré d'une régression polynomiale

De manière générale, il s'agit d'une équation polynomiale, qui constitue l’équation de la régression polynomiale. La puissance la plus élevée de x définit le degré d'une régression polynomiale dans l’équation. Voici un exemple

Régression polynomiale de degré n

En considérant n comme un nombre entier supérieur à deux, il est possible d’écrire l’équation d’une régression polynomiale de degré n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Où :

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – paramètres du modèle ;
  • ypredy_{\text{pred}} – prédiction de la cible ;
  • xx – valeur de la caractéristique ;
  • nn – degré de la régression polynomiale.

Équation normale

Et comme toujours, les paramètres sont déterminés à l'aide de l'équation normale :

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Où :

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – paramètres du modèle ;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – tableau des valeurs des variables explicatives issues de l'ensemble d'entraînement ;
  • XkX^k – puissance élément par élément de kk du tableau XX ;
  • ytruey_{\text{true}} – tableau des valeurs cibles issues de l'ensemble d'entraînement.

Régression polynomiale avec plusieurs variables explicatives

Pour créer des formes encore plus complexes, il est possible d'utiliser la régression polynomiale avec plus d'une variable explicative. Mais même avec deux variables, la régression polynomiale de degré 2 possède déjà une équation assez longue.

La plupart du temps, un modèle aussi complexe ne sera pas nécessaire. Des modèles plus simples (comme la régression linéaire multiple) décrivent généralement suffisamment bien les données, sont plus faciles à interpréter, à visualiser et sont moins coûteux en calcul.

question mark

Choisissez l'affirmation INCORRECTE.

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 11

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

bookRégression Polynomiale

Glissez pour afficher le menu

Dans le chapitre précédent, nous avons étudié la régression quadratique, dont le graphique est une parabole. De la même manière, il est possible d’ajouter le à l’équation pour obtenir la régression cubique, qui présente un graphique plus complexe. On peut également ajouter x⁴, et ainsi de suite.

Degré d'une régression polynomiale

De manière générale, il s'agit d'une équation polynomiale, qui constitue l’équation de la régression polynomiale. La puissance la plus élevée de x définit le degré d'une régression polynomiale dans l’équation. Voici un exemple

Régression polynomiale de degré n

En considérant n comme un nombre entier supérieur à deux, il est possible d’écrire l’équation d’une régression polynomiale de degré n.

ypred=β0+β1x+β2x2++βnxny_{\text{pred}} = \beta_0 + \beta_1 x + \beta_2 x^2 + \dots + \beta_n x^n

Où :

  • β0,β1,β2,,βn\beta_0, \beta_1, \beta_2, \dots, \beta_n – paramètres du modèle ;
  • ypredy_{\text{pred}} – prédiction de la cible ;
  • xx – valeur de la caractéristique ;
  • nn – degré de la régression polynomiale.

Équation normale

Et comme toujours, les paramètres sont déterminés à l'aide de l'équation normale :

β=(β0β1βn)=(X~TX~)1X~Tytrue\vec{\beta} = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \dots \\ \beta_n \end{pmatrix} = (\tilde{X}^T \tilde{X})^{-1} \tilde{X}^T y_{\text{true}}

Où :

  • β0,β1,,βn\beta_0, \beta_1, \dots, \beta_n – paramètres du modèle ;
X~=(1XX2Xn)\tilde{X} = \begin{pmatrix} | & | & | & \dots & | \\ 1 & X & X^2 & \dots & X^n \\ | & | & | & \dots & | \end{pmatrix}
  • XX – tableau des valeurs des variables explicatives issues de l'ensemble d'entraînement ;
  • XkX^k – puissance élément par élément de kk du tableau XX ;
  • ytruey_{\text{true}} – tableau des valeurs cibles issues de l'ensemble d'entraînement.

Régression polynomiale avec plusieurs variables explicatives

Pour créer des formes encore plus complexes, il est possible d'utiliser la régression polynomiale avec plus d'une variable explicative. Mais même avec deux variables, la régression polynomiale de degré 2 possède déjà une équation assez longue.

La plupart du temps, un modèle aussi complexe ne sera pas nécessaire. Des modèles plus simples (comme la régression linéaire multiple) décrivent généralement suffisamment bien les données, sont plus faciles à interpréter, à visualiser et sont moins coûteux en calcul.

question mark

Choisissez l'affirmation INCORRECTE.

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 11
some-alt