Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Clasificación Multiclase | Sección
Fundamentos del Aprendizaje Supervisado

bookClasificación Multiclase

La clasificación multiclase con k-NN es tan sencilla como la clasificación binaria. Simplemente se selecciona la clase que predomina en el vecindario.

El KNeighborsClassifier realiza automáticamente una clasificación multiclase si y tiene más de dos características, por lo que no es necesario modificar nada. Lo único que cambia es la variable y que se proporciona al método .fit().

Ahora, se realizará una clasificación multiclase con k-NN. Considere el siguiente conjunto de datos:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Es igual que en el ejemplo del capítulo anterior, pero ahora el objetivo puede tomar tres valores:

  • 0: "Lo odié" (calificación menor a 3/5);
  • 1: "Meh" (calificación entre 3/5 y 4/5);
  • 2: "Me gustó" (calificación de 4/5 o superior).
Tarea

Swipe to start coding

Se proporciona el conjunto de datos de calificaciones de Star Wars almacenado como un DataFrame en la variable df.

  • Inicializar un escalador apropiado y almacenarlo en la variable scaler.
  • Calcular los parámetros de escalado en los datos de entrenamiento, escalar dichos datos y guardar el resultado en la variable X_train.
  • Escalar los datos de prueba y guardar el resultado en la variable X_test.
  • Crear una instancia de k-NN con 13 vecinos, entrenarla con el conjunto de entrenamiento y almacenarla en la variable knn.
  • Realizar predicciones sobre el conjunto de prueba y almacenarlas en la variable y_pred.

Solución

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 18
single

single

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

close

bookClasificación Multiclase

Desliza para mostrar el menú

La clasificación multiclase con k-NN es tan sencilla como la clasificación binaria. Simplemente se selecciona la clase que predomina en el vecindario.

El KNeighborsClassifier realiza automáticamente una clasificación multiclase si y tiene más de dos características, por lo que no es necesario modificar nada. Lo único que cambia es la variable y que se proporciona al método .fit().

Ahora, se realizará una clasificación multiclase con k-NN. Considere el siguiente conjunto de datos:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Es igual que en el ejemplo del capítulo anterior, pero ahora el objetivo puede tomar tres valores:

  • 0: "Lo odié" (calificación menor a 3/5);
  • 1: "Meh" (calificación entre 3/5 y 4/5);
  • 2: "Me gustó" (calificación de 4/5 o superior).
Tarea

Swipe to start coding

Se proporciona el conjunto de datos de calificaciones de Star Wars almacenado como un DataFrame en la variable df.

  • Inicializar un escalador apropiado y almacenarlo en la variable scaler.
  • Calcular los parámetros de escalado en los datos de entrenamiento, escalar dichos datos y guardar el resultado en la variable X_train.
  • Escalar los datos de prueba y guardar el resultado en la variable X_test.
  • Crear una instancia de k-NN con 13 vecinos, entrenarla con el conjunto de entrenamiento y almacenarla en la variable knn.
  • Realizar predicciones sobre el conjunto de prueba y almacenarlas en la variable y_pred.

Solución

Switch to desktopCambia al escritorio para practicar en el mundo realContinúe desde donde se encuentra utilizando una de las siguientes opciones
¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 1. Capítulo 18
single

single

some-alt