Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Classificazione Multiclasse | Sezione
Fondamenti di Apprendimento Supervisionato

bookClassificazione Multiclasse

La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta scegliere la classe che prevale nel vicinato.

Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().

Ora eseguirai una classificazione multi-classe con k-NN. Considera il seguente dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:

  • 0: "Non è piaciuto" (valutazione inferiore a 3/5);
  • 1: "Così così" (valutazione tra 3/5 e 4/5);
  • 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Compito

Swipe to start coding

Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.

  • Inizializzare uno scaler appropriato e salvarlo nella variabile scaler.
  • Calcolare i parametri di scaling sui dati di addestramento, scalarli e salvare il risultato nella variabile X_train.
  • Scalare i dati di test e salvare il risultato nella variabile X_test.
  • Creare un'istanza di k-NN con 13 vicini, addestrarla sul set di addestramento e salvarla nella variabile knn.
  • Effettuare previsioni sul set di test e salvarle nella variabile y_pred.

Soluzione

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 18
single

single

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

close

bookClassificazione Multiclasse

Scorri per mostrare il menu

La classificazione multi-classe con k-NN è semplice quanto la classificazione binaria. Basta scegliere la classe che prevale nel vicinato.

Il KNeighborsClassifier esegue automaticamente una classificazione multi-classe se y ha più di due caratteristiche, quindi non è necessario modificare nulla. L'unica cosa che cambia è la variabile y fornita al metodo .fit().

Ora eseguirai una classificazione multi-classe con k-NN. Considera il seguente dataset:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

È lo stesso dell'esempio del capitolo precedente, ma ora il target può assumere tre valori:

  • 0: "Non è piaciuto" (valutazione inferiore a 3/5);
  • 1: "Così così" (valutazione tra 3/5 e 4/5);
  • 2: "Piaciuto" (valutazione pari o superiore a 4/5).
Compito

Swipe to start coding

Ti viene fornito il dataset delle valutazioni di Star Wars memorizzato come DataFrame nella variabile df.

  • Inizializzare uno scaler appropriato e salvarlo nella variabile scaler.
  • Calcolare i parametri di scaling sui dati di addestramento, scalarli e salvare il risultato nella variabile X_train.
  • Scalare i dati di test e salvare il risultato nella variabile X_test.
  • Creare un'istanza di k-NN con 13 vicini, addestrarla sul set di addestramento e salvarla nella variabile knn.
  • Effettuare previsioni sul set di test e salvarle nella variabile y_pred.

Soluzione

Switch to desktopCambia al desktop per esercitarti nel mondo realeContinua da dove ti trovi utilizzando una delle opzioni seguenti
Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 1. Capitolo 18
single

single

some-alt