Classificazione Multiclasse
La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta scegliere la classe che prevale nel vicinato.
Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().
Ora eseguirai una classificazione multi-classe con k-NN. Considera il seguente dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:
- 0: "Non è piaciuto" (valutazione inferiore a 3/5);
- 1: "Così così" (valutazione tra 3/5 e 4/5);
- 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Swipe to start coding
Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.
- Inizializzare uno scaler appropriato e salvarlo nella variabile
scaler. - Calcolare i parametri di scaling sui dati di addestramento, scalarli e salvare il risultato nella variabile
X_train. - Scalare i dati di test e salvare il risultato nella variabile
X_test. - Creare un'istanza di k-NN con
13vicini, addestrarla sul set di addestramento e salvarla nella variabileknn. - Effettuare previsioni sul set di test e salvarle nella variabile
y_pred.
Soluzione
Grazie per i tuoi commenti!
single
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Fantastico!
Completion tasso migliorato a 3.33
Classificazione Multiclasse
Scorri per mostrare il menu
La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta scegliere la classe che prevale nel vicinato.
Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().
Ora eseguirai una classificazione multi-classe con k-NN. Considera il seguente dataset:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:
- 0: "Non è piaciuto" (valutazione inferiore a 3/5);
- 1: "Così così" (valutazione tra 3/5 e 4/5);
- 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Swipe to start coding
Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.
- Inizializzare uno scaler appropriato e salvarlo nella variabile
scaler. - Calcolare i parametri di scaling sui dati di addestramento, scalarli e salvare il risultato nella variabile
X_train. - Scalare i dati di test e salvare il risultato nella variabile
X_test. - Creare un'istanza di k-NN con
13vicini, addestrarla sul set di addestramento e salvarla nella variabileknn. - Effettuare previsioni sul set di test e salvarle nella variabile
y_pred.
Soluzione
Grazie per i tuoi commenti!
single