Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Classificazione Multi-Classe | Classificatore K-Nn
Classificazione con Python

bookClassificazione Multi-Classe

La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta selezionare la classe che prevale nel vicinato.

Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().

Ora, verrà eseguita una classificazione multi-classe con k-NN. Considera il seguente dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:

  • 0: "Non è piaciuto" (valutazione inferiore a 3/5);
  • 1: "Così così" (valutazione tra 3/5 e 4/5);
  • 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Compito

Swipe to start coding

Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.

  • Inizializza uno scaler appropriato e salvalo nella variabile scaler.
  • Calcola i parametri di scaling sui dati di addestramento, scala questi dati e salva il risultato nella variabile X_train.
  • Scala i dati di test e salva il risultato nella variabile X_test.
  • Crea un'istanza di k-NN con 13 vicini, addestrala sul set di addestramento e salvala nella variabile knn.
  • Effettua le predizioni sul set di test e salvale nella variabile y_pred.

Soluzione

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 5
single

single

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Suggested prompts:

Can you explain how to use KNeighborsClassifier for this dataset?

What do the features in the dataset represent?

How do I interpret the output of the classifier?

close

Awesome!

Completion rate improved to 4.17

bookClassificazione Multi-Classe

Scorri per mostrare il menu

La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta selezionare la classe che prevale nel vicinato.

Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().

Ora, verrà eseguita una classificazione multi-classe con k-NN. Considera il seguente dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:

  • 0: "Non è piaciuto" (valutazione inferiore a 3/5);
  • 1: "Così così" (valutazione tra 3/5 e 4/5);
  • 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Compito

Swipe to start coding

Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.

  • Inizializza uno scaler appropriato e salvalo nella variabile scaler.
  • Calcola i parametri di scaling sui dati di addestramento, scala questi dati e salva il risultato nella variabile X_train.
  • Scala i dati di test e salva il risultato nella variabile X_test.
  • Crea un'istanza di k-NN con 13 vicini, addestrala sul set di addestramento e salvala nella variabile knn.
  • Effettua le predizioni sul set di test e salvale nella variabile y_pred.

Soluzione

Switch to desktopCambia al desktop per esercitarti nel mondo realeContinua da dove ti trovi utilizzando una delle opzioni seguenti
Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 5
single

single

some-alt