Classificazione Multi-Classe
La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta selezionare la classe che prevale nel vicinato.
Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().
Ora, verrà eseguita una classificazione multi-classe con k-NN. Considera il seguente dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:
- 0: "Non è piaciuto" (valutazione inferiore a 3/5);
- 1: "Così così" (valutazione tra 3/5 e 4/5);
- 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Swipe to start coding
Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.
- Inizializza uno scaler appropriato e salvalo nella variabile
scaler. - Calcola i parametri di scaling sui dati di addestramento, scala questi dati e salva il risultato nella variabile
X_train. - Scala i dati di test e salva il risultato nella variabile
X_test. - Crea un'istanza di k-NN con
13vicini, addestrala sul set di addestramento e salvala nella variabileknn. - Effettua le predizioni sul set di test e salvale nella variabile
y_pred.
Soluzione
Grazie per i tuoi commenti!
single
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Can you explain how to use KNeighborsClassifier for this dataset?
What do the features in the dataset represent?
How do I interpret the output of the classifier?
Awesome!
Completion rate improved to 4.17
Classificazione Multi-Classe
Scorri per mostrare il menu
La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta selezionare la classe che prevale nel vicinato.
Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().
Ora, verrà eseguita una classificazione multi-classe con k-NN. Considera il seguente dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:
- 0: "Non è piaciuto" (valutazione inferiore a 3/5);
- 1: "Così così" (valutazione tra 3/5 e 4/5);
- 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Swipe to start coding
Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.
- Inizializza uno scaler appropriato e salvalo nella variabile
scaler. - Calcola i parametri di scaling sui dati di addestramento, scala questi dati e salva il risultato nella variabile
X_train. - Scala i dati di test e salva il risultato nella variabile
X_test. - Crea un'istanza di k-NN con
13vicini, addestrala sul set di addestramento e salvala nella variabileknn. - Effettua le predizioni sul set di test e salvale nella variabile
y_pred.
Soluzione
Grazie per i tuoi commenti!
single