Construction d'une Régression Linéaire Multiple
La classe OLS permet de construire une régression linéaire multiple de la même manière qu'une régression linéaire simple. Cependant, la fonction np.polyfit() ne gère malheureusement pas le cas des multiples variables explicatives.
Nous allons donc utiliser la classe OLS.
Construction de la matrice X̃
Nous utilisons le même jeu de données que dans l'exemple de régression linéaire simple, mais il comporte désormais la taille de la mère comme seconde variable explicative. Nous allons le charger et examiner sa variable X :
123456789import pandas as pd import statsmodels.api as sm file_link='https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b22d1166-efda-45e8-979e-6c3ecfc566fc/heights_two_feature.csv' df = pd.read_csv(file_link) # Open the file # Assign the variables X = df[['Father', 'Mother']] y = df['Height'] print(X.head())
Rappel : il faut utiliser OLS(y, X_tilde) pour initialiser l'objet OLS. Comme vous pouvez le constater, la variable X contient déjà deux caractéristiques dans des colonnes séparées. Ainsi, pour obtenir X_tilde, il suffit d'ajouter une colonne de 1 en première position. La fonction sm.add_constant(X) réalise exactement cette opération !
123# Create X_tilde X_tilde = sm.add_constant(X) print(X_tilde.head())
Recherche des paramètres
Excellent ! Nous pouvons maintenant construire le modèle, trouver les paramètres et effectuer des prédictions de la même manière que dans la section précédente.
12345678910111213141516import numpy as np # Initialize an OLS object regression_model = sm.OLS(y, X_tilde) # Train the object regression_model = regression_model.fit() # Get the paramters beta_0, beta_1, beta_2 = regression_model.params print('beta_0 is: ', beta_0) print('beta_1 is: ', beta_1) print('beta_2 is: ', beta_2) # Predict new values X_new = np.array([[65, 62],[70, 65],[75, 70]]) # Feature values of new instances X_new_tilde = sm.add_constant(X_new) # Preprocess X_new y_pred = regression_model.predict(X_new_tilde) # Predict the target print('Predictions:', y_pred)
Maintenant que notre ensemble d'entraînement comporte 2 variables explicatives, il est nécessaire de fournir 2 caractéristiques pour chaque nouvelle instance à prédire. C'est pourquoi np.array([[65, 62],[70, 65],[75, 70]]) a été utilisé dans l'exemple ci-dessus. Cela permet de prédire y pour 3 nouvelles instances : [Father:65,Mother:62], [Father:70, Mother:65], [Father:75, Mother:70].
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 5.26
Construction d'une Régression Linéaire Multiple
Glissez pour afficher le menu
La classe OLS permet de construire une régression linéaire multiple de la même manière qu'une régression linéaire simple. Cependant, la fonction np.polyfit() ne gère malheureusement pas le cas des multiples variables explicatives.
Nous allons donc utiliser la classe OLS.
Construction de la matrice X̃
Nous utilisons le même jeu de données que dans l'exemple de régression linéaire simple, mais il comporte désormais la taille de la mère comme seconde variable explicative. Nous allons le charger et examiner sa variable X :
123456789import pandas as pd import statsmodels.api as sm file_link='https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b22d1166-efda-45e8-979e-6c3ecfc566fc/heights_two_feature.csv' df = pd.read_csv(file_link) # Open the file # Assign the variables X = df[['Father', 'Mother']] y = df['Height'] print(X.head())
Rappel : il faut utiliser OLS(y, X_tilde) pour initialiser l'objet OLS. Comme vous pouvez le constater, la variable X contient déjà deux caractéristiques dans des colonnes séparées. Ainsi, pour obtenir X_tilde, il suffit d'ajouter une colonne de 1 en première position. La fonction sm.add_constant(X) réalise exactement cette opération !
123# Create X_tilde X_tilde = sm.add_constant(X) print(X_tilde.head())
Recherche des paramètres
Excellent ! Nous pouvons maintenant construire le modèle, trouver les paramètres et effectuer des prédictions de la même manière que dans la section précédente.
12345678910111213141516import numpy as np # Initialize an OLS object regression_model = sm.OLS(y, X_tilde) # Train the object regression_model = regression_model.fit() # Get the paramters beta_0, beta_1, beta_2 = regression_model.params print('beta_0 is: ', beta_0) print('beta_1 is: ', beta_1) print('beta_2 is: ', beta_2) # Predict new values X_new = np.array([[65, 62],[70, 65],[75, 70]]) # Feature values of new instances X_new_tilde = sm.add_constant(X_new) # Preprocess X_new y_pred = regression_model.predict(X_new_tilde) # Predict the target print('Predictions:', y_pred)
Maintenant que notre ensemble d'entraînement comporte 2 variables explicatives, il est nécessaire de fournir 2 caractéristiques pour chaque nouvelle instance à prédire. C'est pourquoi np.array([[65, 62],[70, 65],[75, 70]]) a été utilisé dans l'exemple ci-dessus. Cela permet de prédire y pour 3 nouvelles instances : [Father:65,Mother:62], [Father:70, Mother:65], [Father:75, Mother:70].
Merci pour vos commentaires !