RechercheParGrilleCV
Pour améliorer les performances du modèle, il convient d'ajuster les hyperparamètres. Le principe est simple : tester différentes valeurs, calculer les scores de validation croisée, puis sélectionner celle ayant le score le plus élevé.
Ce processus peut être réalisé à l'aide de la classe GridSearchCV du module sklearn.model_selection.
GridSearchCV nécessite un modèle et une grille de paramètres (param_grid).
Exemple :
param_grid = {'n_neighbors': [1, 3, 5, 7]}
Après l'initialisation de GridSearchCV, utiliser .fit(X, y).
- Le meilleur modèle se trouve dans
.best_estimator_; - Son score de validation croisée est disponible dans
.best_score_.
12345678910111213import pandas as pd from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import GridSearchCV df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/a65bbc96-309e-4df9-a790-a1eb8c815a1c/penguins_pipelined.csv') X, y = df.drop('species', axis=1), df['species'] param_grid = {'n_neighbors': [1,3,5,7,9]} grid_search = GridSearchCV(KNeighborsClassifier(), param_grid) grid_search.fit(X, y) print(grid_search.best_estimator_) print(grid_search.best_score_)
Après l'ajustement, GridSearchCV réentraîne automatiquement le meilleur estimateur sur l'ensemble complet des données.
L'objet grid_search devient le modèle final entraîné et peut être utilisé directement avec .predict() et .score().
12grid_search.fit(X, y) print(grid_search.score(X, y)) # training accuracy (not reliable for real evaluation)
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 3.13
RechercheParGrilleCV
Glissez pour afficher le menu
Pour améliorer les performances du modèle, il convient d'ajuster les hyperparamètres. Le principe est simple : tester différentes valeurs, calculer les scores de validation croisée, puis sélectionner celle ayant le score le plus élevé.
Ce processus peut être réalisé à l'aide de la classe GridSearchCV du module sklearn.model_selection.
GridSearchCV nécessite un modèle et une grille de paramètres (param_grid).
Exemple :
param_grid = {'n_neighbors': [1, 3, 5, 7]}
Après l'initialisation de GridSearchCV, utiliser .fit(X, y).
- Le meilleur modèle se trouve dans
.best_estimator_; - Son score de validation croisée est disponible dans
.best_score_.
12345678910111213import pandas as pd from sklearn.neighbors import KNeighborsClassifier from sklearn.model_selection import GridSearchCV df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/a65bbc96-309e-4df9-a790-a1eb8c815a1c/penguins_pipelined.csv') X, y = df.drop('species', axis=1), df['species'] param_grid = {'n_neighbors': [1,3,5,7,9]} grid_search = GridSearchCV(KNeighborsClassifier(), param_grid) grid_search.fit(X, y) print(grid_search.best_estimator_) print(grid_search.best_score_)
Après l'ajustement, GridSearchCV réentraîne automatiquement le meilleur estimateur sur l'ensemble complet des données.
L'objet grid_search devient le modèle final entraîné et peut être utilisé directement avec .predict() et .score().
12grid_search.fit(X, y) print(grid_search.score(X, y)) # training accuracy (not reliable for real evaluation)
Merci pour vos commentaires !