Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Régression Linéaire Avec Deux Variables | Section
Practice
Projects
Quizzes & Challenges
Quiz
Challenges
/
Fondamentaux de l'apprentissage supervisé

bookRégression Linéaire Avec Deux Variables

Jusqu'à présent, nous avons étudié la régression linéaire avec une seule variable explicative. Cela s'appelle la régression linéaire simple. Cependant, en pratique, la variable cible dépend le plus souvent de plusieurs variables explicatives. La régression linéaire avec plus d'une variable explicative est appelée régression linéaire multiple.

Équation de la régression linéaire à deux variables explicatives

Dans notre exemple avec les tailles, ajouter la taille de la mère comme variable explicative au modèle améliorerait probablement nos prédictions. Mais comment ajouter une nouvelle variable explicative au modèle ? Une équation définit la régression linéaire, il suffit donc d'ajouter une nouvelle variable explicative à l'équation :

ypred=β0+β1x1+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2

Où :

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – sont les paramètres du modèle ;
  • ypredy_{\text{pred}} – est la prédiction de la variable cible ;
  • x1x_1 – est la valeur de la première variable explicative ;
  • x2x_2 – est la valeur de la deuxième variable explicative.

Visualisation

Lorsque nous avons abordé le modèle de régression simple, nous avons construit un graphique 2D où un axe représente la variable explicative et l'autre la variable cible. Maintenant que nous avons deux variables explicatives, il nous faut deux axes pour les variables explicatives et un troisième pour la variable cible. Nous passons donc d'un espace 2D à un espace 3D, ce qui est beaucoup plus difficile à visualiser. La vidéo montre un nuage de points en 3D du jeu de données de notre exemple.

Mais maintenant, notre équation n'est plus une équation de droite. Il s'agit d'une équation de plan. Voici un nuage de points accompagné du plan prédit.

Vous avez peut-être remarqué que, mathématiquement, notre équation n'est pas devenue beaucoup plus complexe. Mais malheureusement, la visualisation l'est devenue.

question mark

Quelle affirmation décrit le mieux la régression linéaire multiple ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 5

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

bookRégression Linéaire Avec Deux Variables

Glissez pour afficher le menu

Jusqu'à présent, nous avons étudié la régression linéaire avec une seule variable explicative. Cela s'appelle la régression linéaire simple. Cependant, en pratique, la variable cible dépend le plus souvent de plusieurs variables explicatives. La régression linéaire avec plus d'une variable explicative est appelée régression linéaire multiple.

Équation de la régression linéaire à deux variables explicatives

Dans notre exemple avec les tailles, ajouter la taille de la mère comme variable explicative au modèle améliorerait probablement nos prédictions. Mais comment ajouter une nouvelle variable explicative au modèle ? Une équation définit la régression linéaire, il suffit donc d'ajouter une nouvelle variable explicative à l'équation :

ypred=β0+β1x1+β2x2y_{\text{pred}} = \beta_0 + \beta_1 x_1 + \beta_2 x_2

Où :

  • β0,β1,β2\beta_0, \beta_1, \beta_2 – sont les paramètres du modèle ;
  • ypredy_{\text{pred}} – est la prédiction de la variable cible ;
  • x1x_1 – est la valeur de la première variable explicative ;
  • x2x_2 – est la valeur de la deuxième variable explicative.

Visualisation

Lorsque nous avons abordé le modèle de régression simple, nous avons construit un graphique 2D où un axe représente la variable explicative et l'autre la variable cible. Maintenant que nous avons deux variables explicatives, il nous faut deux axes pour les variables explicatives et un troisième pour la variable cible. Nous passons donc d'un espace 2D à un espace 3D, ce qui est beaucoup plus difficile à visualiser. La vidéo montre un nuage de points en 3D du jeu de données de notre exemple.

Mais maintenant, notre équation n'est plus une équation de droite. Il s'agit d'une équation de plan. Voici un nuage de points accompagné du plan prédit.

Vous avez peut-être remarqué que, mathématiquement, notre équation n'est pas devenue beaucoup plus complexe. Mais malheureusement, la visualisation l'est devenue.

question mark

Quelle affirmation décrit le mieux la régression linéaire multiple ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 5
some-alt