Défi : Réglage des Hyperparamètres avec RandomizedSearchCV
RandomizedSearchCV fonctionne comme GridSearchCV, mais au lieu de tester toutes les combinaisons d'hyperparamètres, il évalue un sous-ensemble aléatoire.
Dans l'exemple ci-dessous, la grille contient 100 combinaisons. GridSearchCV les teste toutes, tandis que RandomizedSearchCV peut en échantillonner, par exemple, 20 — contrôlé par n_iter. Cela rend l'ajustement plus rapide, tout en trouvant généralement un score proche du meilleur.
Swipe to start coding
Vous disposez d'un jeu de données de manchots prétraité. Optimisez un KNeighborsClassifier en utilisant les deux méthodes de recherche :
- Créez un
param_gridavec des valeurs pourn_neighbors,weightsetp. - Initialisez
RandomizedSearchCV(..., n_iter=20). - Initialisez
GridSearchCVavec la même grille. - Entraînez les deux recherches sur
X, y. - Affichez le
.best_estimator_de la recherche par grille. - Affichez le
.best_score_de la recherche aléatoire.
Solution
Essayez d'exécuter le code plusieurs fois. RandomizedSearchCV peut atteindre le score de la recherche par grille lorsqu'il échantillonne aléatoirement les meilleurs hyperparamètres.
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain how to choose the value for `n_iter` in RandomizedSearchCV?
What are the main advantages and disadvantages of using RandomizedSearchCV compared to GridSearchCV?
Can you give an example of when RandomizedSearchCV would be preferred over GridSearchCV?
Génial!
Completion taux amélioré à 3.13
Défi : Réglage des Hyperparamètres avec RandomizedSearchCV
Glissez pour afficher le menu
RandomizedSearchCV fonctionne comme GridSearchCV, mais au lieu de tester toutes les combinaisons d'hyperparamètres, il évalue un sous-ensemble aléatoire.
Dans l'exemple ci-dessous, la grille contient 100 combinaisons. GridSearchCV les teste toutes, tandis que RandomizedSearchCV peut en échantillonner, par exemple, 20 — contrôlé par n_iter. Cela rend l'ajustement plus rapide, tout en trouvant généralement un score proche du meilleur.
Swipe to start coding
Vous disposez d'un jeu de données de manchots prétraité. Optimisez un KNeighborsClassifier en utilisant les deux méthodes de recherche :
- Créez un
param_gridavec des valeurs pourn_neighbors,weightsetp. - Initialisez
RandomizedSearchCV(..., n_iter=20). - Initialisez
GridSearchCVavec la même grille. - Entraînez les deux recherches sur
X, y. - Affichez le
.best_estimator_de la recherche par grille. - Affichez le
.best_score_de la recherche aléatoire.
Solution
Essayez d'exécuter le code plusieurs fois. RandomizedSearchCV peut atteindre le score de la recherche par grille lorsqu'il échantillonne aléatoirement les meilleurs hyperparamètres.
Merci pour vos commentaires !
single