Contenu du cours
Classification Avec Python
Classification Avec Python
Classification Multi-Classes
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Nous choisissons simplement la classe qui prévaut dans le voisinage.
Le KNeighborsClassifier
effectue automatiquement une classification multi-classes si y
a plus de deux caractéristiques, donc vous n'avez pas besoin de changer quoi que ce soit. La seule chose qui change est la variable y
fournie à la méthode .fit()
.
Maintenant, vous allez effectuer une classification multi-classes avec k-NN.
Considérez le jeu de données suivant :
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est la même chose que dans l'exemple du chapitre précédent, mais maintenant la cible peut prendre trois valeurs :
- 0 – "Détesté" (la note est inférieure à 3/5);
- 1 – "Bof" (la note est entre 3/5 et 4/5);
- 2 – "Aimé" (la note est de 4/5 ou plus).
Passons à la classification ! Eh bien, attendez, voici le rappel des classes que vous allez utiliser.
Et maintenant, passons à la classification !
Swipe to start coding
Effectuez une classification en utilisant le KNeighborsClassifier
avec n_neighbors
égal à 13
.
- Importez le
KNeighborsClassifier
. - Utilisez la classe appropriée pour mettre à l'échelle les données.
- Mettez à l'échelle les données en utilisant
.fit_transform()
pour les données d'entraînement et.transform()
pour les nouvelles instances. - Créez l'objet
KNeighborsClassifier
et fournissez-luiX_scaled
ety
. - Prédisez les classes pour les nouvelles instances (
X_new_scaled
)
Une fois que vous avez terminé cette tâche, cliquez sur le bouton sous le code pour vérifier votre solution.
Solution
Merci pour vos commentaires !
Classification Multi-Classes
La classification multi-classes avec k-NN est aussi simple que la classification binaire. Nous choisissons simplement la classe qui prévaut dans le voisinage.
Le KNeighborsClassifier
effectue automatiquement une classification multi-classes si y
a plus de deux caractéristiques, donc vous n'avez pas besoin de changer quoi que ce soit. La seule chose qui change est la variable y
fournie à la méthode .fit()
.
Maintenant, vous allez effectuer une classification multi-classes avec k-NN.
Considérez le jeu de données suivant :
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
C'est la même chose que dans l'exemple du chapitre précédent, mais maintenant la cible peut prendre trois valeurs :
- 0 – "Détesté" (la note est inférieure à 3/5);
- 1 – "Bof" (la note est entre 3/5 et 4/5);
- 2 – "Aimé" (la note est de 4/5 ou plus).
Passons à la classification ! Eh bien, attendez, voici le rappel des classes que vous allez utiliser.
Et maintenant, passons à la classification !
Swipe to start coding
Effectuez une classification en utilisant le KNeighborsClassifier
avec n_neighbors
égal à 13
.
- Importez le
KNeighborsClassifier
. - Utilisez la classe appropriée pour mettre à l'échelle les données.
- Mettez à l'échelle les données en utilisant
.fit_transform()
pour les données d'entraînement et.transform()
pour les nouvelles instances. - Créez l'objet
KNeighborsClassifier
et fournissez-luiX_scaled
ety
. - Prédisez les classes pour les nouvelles instances (
X_new_scaled
)
Une fois que vous avez terminé cette tâche, cliquez sur le bouton sous le code pour vérifier votre solution.
Solution
Merci pour vos commentaires !