Régression Linéaire Avec N Variables
Équation de la régression linéaire à N variables
Comme nous l'avons vu, ajouter une nouvelle variable au modèle de régression linéaire revient simplement à l'ajouter, ainsi que son nouveau paramètre, à l'équation du modèle. Il est possible d'ajouter bien plus que deux paramètres de cette manière.
Considérer n comme un nombre entier supérieur à deux.
Où :
- β0,β1,β2,…,βn – paramètres du modèle ;
- ypred – prédiction de la cible ;
- x1 – valeur de la première variable ;
- x2 – valeur de la deuxième variable ;
- …
- xn – valeur de la n-ième variable.
Équation normale
Le seul problème concerne la visualisation. Si le modèle comporte deux paramètres, il faut construire un graphique en 3D. Mais avec plus de deux paramètres, le graphique devient de dimension supérieure à trois. Or, nous vivons dans un monde à trois dimensions et il nous est impossible d'imaginer des graphiques de dimensions supérieures. Cependant, il n'est pas nécessaire de visualiser le résultat. Il suffit de déterminer les paramètres pour que le modèle fonctionne. Heureusement, il est relativement simple de les trouver. L'équation normale classique nous y aide :
β=β0β1…βn=(X~TX~)−1X~TytrueOù :
- β0,β1,…,βn – paramètres du modèle ;
- X~ – matrice contenant des 1 en première colonne, et X1−Xn dans les autres colonnes :
- Xk – tableau des valeurs de la k-ième variable dans l'ensemble d'entraînement ;
- ytrue – tableau des valeurs cibles dans l'ensemble d'entraînement.
Matrice X̃
Remarquez que seule la matrice X̃ a changé. Vous pouvez considérer les colonnes de cette matrice comme étant chacune responsable de son paramètre β. La vidéo suivante explique ce que cela signifie.
La première colonne de 1 est nécessaire pour déterminer le paramètre β₀.
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Génial!
Completion taux amélioré à 3.33
Régression Linéaire Avec N Variables
Glissez pour afficher le menu
Équation de la régression linéaire à N variables
Comme nous l'avons vu, ajouter une nouvelle variable au modèle de régression linéaire revient simplement à l'ajouter, ainsi que son nouveau paramètre, à l'équation du modèle. Il est possible d'ajouter bien plus que deux paramètres de cette manière.
Considérer n comme un nombre entier supérieur à deux.
Où :
- β0,β1,β2,…,βn – paramètres du modèle ;
- ypred – prédiction de la cible ;
- x1 – valeur de la première variable ;
- x2 – valeur de la deuxième variable ;
- …
- xn – valeur de la n-ième variable.
Équation normale
Le seul problème concerne la visualisation. Si le modèle comporte deux paramètres, il faut construire un graphique en 3D. Mais avec plus de deux paramètres, le graphique devient de dimension supérieure à trois. Or, nous vivons dans un monde à trois dimensions et il nous est impossible d'imaginer des graphiques de dimensions supérieures. Cependant, il n'est pas nécessaire de visualiser le résultat. Il suffit de déterminer les paramètres pour que le modèle fonctionne. Heureusement, il est relativement simple de les trouver. L'équation normale classique nous y aide :
β=β0β1…βn=(X~TX~)−1X~TytrueOù :
- β0,β1,…,βn – paramètres du modèle ;
- X~ – matrice contenant des 1 en première colonne, et X1−Xn dans les autres colonnes :
- Xk – tableau des valeurs de la k-ième variable dans l'ensemble d'entraînement ;
- ytrue – tableau des valeurs cibles dans l'ensemble d'entraînement.
Matrice X̃
Remarquez que seule la matrice X̃ a changé. Vous pouvez considérer les colonnes de cette matrice comme étant chacune responsable de son paramètre β. La vidéo suivante explique ce que cela signifie.
La première colonne de 1 est nécessaire pour déterminer le paramètre β₀.
Merci pour vos commentaires !