Classification Multi-Classe
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Il suffit de choisir la classe qui prédomine dans le voisinage.
Le KNeighborsClassifier effectue automatiquement une classification multi-classes si y possède plus de deux caractéristiques, donc aucune modification n'est nécessaire. La seule chose qui change est la variable y transmise à la méthode .fit().
Vous allez maintenant réaliser une classification multi-classes avec k-NN. Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est identique à l'exemple du chapitre précédent, mais cette fois la cible peut prendre trois valeurs :
- 0 : « Détesté » (note inférieure à 3/5) ;
- 1 : « Bof » (note entre 3/5 et 4/5) ;
- 2 : « Aimé » (note de 4/5 ou plus).
Swipe to start coding
Vous disposez du jeu de données d'évaluations Star Wars stocké sous forme de DataFrame dans la variable df.
- Initialiser un scaler approprié et le stocker dans la variable
scaler. - Calculer les paramètres de mise à l'échelle sur les données d'entraînement, appliquer la mise à l'échelle et stocker le résultat dans la variable
X_train. - Appliquer la mise à l'échelle aux données de test et stocker le résultat dans la variable
X_test. - Créer une instance de k-NN avec
13voisins, l'entraîner sur l'ensemble d'entraînement et la stocker dans la variableknn. - Effectuer des prédictions sur l'ensemble de test et les stocker dans la variable
y_pred.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Génial!
Completion taux amélioré à 4.17
Classification Multi-Classe
Glissez pour afficher le menu
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Il suffit de choisir la classe qui prédomine dans le voisinage.
Le KNeighborsClassifier effectue automatiquement une classification multi-classes si y possède plus de deux caractéristiques, donc aucune modification n'est nécessaire. La seule chose qui change est la variable y transmise à la méthode .fit().
Vous allez maintenant réaliser une classification multi-classes avec k-NN. Considérez le jeu de données suivant :
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est identique à l'exemple du chapitre précédent, mais cette fois la cible peut prendre trois valeurs :
- 0 : « Détesté » (note inférieure à 3/5) ;
- 1 : « Bof » (note entre 3/5 et 4/5) ;
- 2 : « Aimé » (note de 4/5 ou plus).
Swipe to start coding
Vous disposez du jeu de données d'évaluations Star Wars stocké sous forme de DataFrame dans la variable df.
- Initialiser un scaler approprié et le stocker dans la variable
scaler. - Calculer les paramètres de mise à l'échelle sur les données d'entraînement, appliquer la mise à l'échelle et stocker le résultat dans la variable
X_train. - Appliquer la mise à l'échelle aux données de test et stocker le résultat dans la variable
X_test. - Créer une instance de k-NN avec
13voisins, l'entraîner sur l'ensemble d'entraînement et la stocker dans la variableknn. - Effectuer des prédictions sur l'ensemble de test et les stocker dans la variable
y_pred.
Solution
Merci pour vos commentaires !
single