Desafío: Evaluación del Perceptrón
Para evaluar el perceptrón creado previamente, se utilizará un conjunto de datos que contiene dos características de entrada y dos clases distintas (0 y 1):
Este conjunto de datos está balanceado, con 500 muestras de la clase 1 y 500 muestras de la clase 0. Por lo tanto, la precisión es una métrica suficiente para la evaluación en este caso, la cual puede calcularse utilizando la función accuracy_score():
accuracy_score(y_true, y_pred)
y_true representa las etiquetas reales, mientras que y_pred representa las etiquetas predichas.
El conjunto de datos se almacena en perceptron.py como dos arreglos de NumPy: X (características de entrada) y y (etiquetas correspondientes), por lo que simplemente se importarán. Este archivo también contiene model, que es la instancia de la clase Perceptron creada previamente.
Swipe to start coding
El objetivo es evaluar el desempeño del modelo perceptrón entrenado sobre datos no vistos. Siga los pasos a continuación para dividir el conjunto de datos, entrenar el modelo, generar predicciones y medir su precisión.
- Dividir el conjunto de datos en conjuntos de entrenamiento (80%) y prueba (20%) utilizando la función
train_test_split().
- Utilice
test_size=0.2yrandom_state=10para garantizar la reproducibilidad.
- Entrenar el modelo perceptrón durante 10 épocas con una tasa de aprendizaje de
0.01llamando al métodofit(). - Obtener predicciones para todos los ejemplos en el conjunto de prueba llamando al método
forward()del modelo para cada ejemplo de entrada. - Redondear las predicciones usando
np.round()para que las probabilidades mayores o iguales a0.5se consideren clase1, y las menores a0.5como clase0. - Evaluar la precisión comparando las etiquetas predichas con las etiquetas reales de prueba utilizando la función
accuracy_score()desklearn.metrics.
Solución
¡Gracias por tus comentarios!
single
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Awesome!
Completion rate improved to 4
Desafío: Evaluación del Perceptrón
Desliza para mostrar el menú
Para evaluar el perceptrón creado previamente, se utilizará un conjunto de datos que contiene dos características de entrada y dos clases distintas (0 y 1):
Este conjunto de datos está balanceado, con 500 muestras de la clase 1 y 500 muestras de la clase 0. Por lo tanto, la precisión es una métrica suficiente para la evaluación en este caso, la cual puede calcularse utilizando la función accuracy_score():
accuracy_score(y_true, y_pred)
y_true representa las etiquetas reales, mientras que y_pred representa las etiquetas predichas.
El conjunto de datos se almacena en perceptron.py como dos arreglos de NumPy: X (características de entrada) y y (etiquetas correspondientes), por lo que simplemente se importarán. Este archivo también contiene model, que es la instancia de la clase Perceptron creada previamente.
Swipe to start coding
El objetivo es evaluar el desempeño del modelo perceptrón entrenado sobre datos no vistos. Siga los pasos a continuación para dividir el conjunto de datos, entrenar el modelo, generar predicciones y medir su precisión.
- Dividir el conjunto de datos en conjuntos de entrenamiento (80%) y prueba (20%) utilizando la función
train_test_split().
- Utilice
test_size=0.2yrandom_state=10para garantizar la reproducibilidad.
- Entrenar el modelo perceptrón durante 10 épocas con una tasa de aprendizaje de
0.01llamando al métodofit(). - Obtener predicciones para todos los ejemplos en el conjunto de prueba llamando al método
forward()del modelo para cada ejemplo de entrada. - Redondear las predicciones usando
np.round()para que las probabilidades mayores o iguales a0.5se consideren clase1, y las menores a0.5como clase0. - Evaluar la precisión comparando las etiquetas predichas con las etiquetas reales de prueba utilizando la función
accuracy_score()desklearn.metrics.
Solución
¡Gracias por tus comentarios!
single