Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Desafío: Evaluación del Perceptrón | Red Neuronal Desde Cero
Introducción a las Redes Neuronales

bookDesafío: Evaluación del Perceptrón

Para evaluar el perceptrón creado previamente, se utilizará un conjunto de datos que contiene dos características de entrada y dos clases distintas (0 y 1):

Este conjunto de datos está balanceado, con 500 muestras de la clase 1 y 500 muestras de la clase 0. Por lo tanto, la precisión es una métrica suficiente para la evaluación en este caso, la cual puede calcularse utilizando la función accuracy_score():

accuracy_score(y_true, y_pred)

y_true representa las etiquetas reales, mientras que y_pred representa las etiquetas predichas.

El conjunto de datos se almacena en perceptron.py como dos arreglos de NumPy: X (características de entrada) y y (etiquetas correspondientes), por lo que simplemente se importarán. Este archivo también contiene model, que es la instancia de la clase Perceptron creada previamente.

Tarea

Swipe to start coding

El objetivo es evaluar el desempeño del modelo perceptrón entrenado sobre datos no vistos. Siga los pasos a continuación para dividir el conjunto de datos, entrenar el modelo, generar predicciones y medir su precisión.

  1. Dividir el conjunto de datos en conjuntos de entrenamiento (80%) y prueba (20%) utilizando la función train_test_split().
  • Utilice test_size=0.2 y random_state=10 para garantizar la reproducibilidad.
  1. Entrenar el modelo perceptrón durante 10 épocas con una tasa de aprendizaje de 0.01 llamando al método fit().
  2. Obtener predicciones para todos los ejemplos en el conjunto de prueba llamando al método forward() del modelo para cada ejemplo de entrada.
  3. Redondear las predicciones usando np.round() para que las probabilidades mayores o iguales a 0.5 se consideren clase 1, y las menores a 0.5 como clase 0.
  4. Evaluar la precisión comparando las etiquetas predichas con las etiquetas reales de prueba utilizando la función accuracy_score() de sklearn.metrics.

Solución

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 12
single

single

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

close

Awesome!

Completion rate improved to 4

bookDesafío: Evaluación del Perceptrón

Desliza para mostrar el menú

Para evaluar el perceptrón creado previamente, se utilizará un conjunto de datos que contiene dos características de entrada y dos clases distintas (0 y 1):

Este conjunto de datos está balanceado, con 500 muestras de la clase 1 y 500 muestras de la clase 0. Por lo tanto, la precisión es una métrica suficiente para la evaluación en este caso, la cual puede calcularse utilizando la función accuracy_score():

accuracy_score(y_true, y_pred)

y_true representa las etiquetas reales, mientras que y_pred representa las etiquetas predichas.

El conjunto de datos se almacena en perceptron.py como dos arreglos de NumPy: X (características de entrada) y y (etiquetas correspondientes), por lo que simplemente se importarán. Este archivo también contiene model, que es la instancia de la clase Perceptron creada previamente.

Tarea

Swipe to start coding

El objetivo es evaluar el desempeño del modelo perceptrón entrenado sobre datos no vistos. Siga los pasos a continuación para dividir el conjunto de datos, entrenar el modelo, generar predicciones y medir su precisión.

  1. Dividir el conjunto de datos en conjuntos de entrenamiento (80%) y prueba (20%) utilizando la función train_test_split().
  • Utilice test_size=0.2 y random_state=10 para garantizar la reproducibilidad.
  1. Entrenar el modelo perceptrón durante 10 épocas con una tasa de aprendizaje de 0.01 llamando al método fit().
  2. Obtener predicciones para todos los ejemplos en el conjunto de prueba llamando al método forward() del modelo para cada ejemplo de entrada.
  3. Redondear las predicciones usando np.round() para que las probabilidades mayores o iguales a 0.5 se consideren clase 1, y las menores a 0.5 como clase 0.
  4. Evaluar la precisión comparando las etiquetas predichas con las etiquetas reales de prueba utilizando la función accuracy_score() de sklearn.metrics.

Solución

Switch to desktopCambia al escritorio para practicar en el mundo realContinúe desde donde se encuentra utilizando una de las siguientes opciones
¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 12
single

single

some-alt