Desafío: Creación de un Perceptrón
Para construir un perceptrón multicapa (MLP), es útil definir una clase Perceptron. Esta almacena una lista de objetos Layer que conforman la red:
class Perceptron:
def __init__(self, layers):
self.layers = layers
El MLP utilizará tres valores:
input_size: número de características de entrada;hidden_size: número de neuronas en cada capa oculta;output_size: número de neuronas en la capa de salida.
Así, el modelo consta de:
- Una capa de entrada;
- Dos capas ocultas (igual cantidad de neuronas, ReLU);
- Una capa de salida (sigmoide).
Swipe to start coding
Tu tarea es implementar la estructura básica de este MLP.
1. Inicialización de los parámetros de la capa (__init__)
- Crear una matriz de pesos con forma
(n_neurons, n_inputs); - Crear un vector de sesgos con forma
(n_neurons, 1); - Rellenarlos con valores aleatorios en [-1, 1) usando
np.random.uniform().
2. Implementación de la propagación hacia adelante (forward)
- Calcular las salidas brutas de las neuronas:
np.dot(self.weights, self.inputs) + self.biases
- Aplicar la función de activación asignada y devolver la salida.
3. Definición de las capas del MLP
- Dos capas ocultas, cada una con
hidden_sizeneuronas y activación ReLU; - Una capa de salida con
output_sizeneuronas y activación sigmoide.
Solución
¡Gracias por tus comentarios!
single
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Can you explain how to implement the Layer class for this MLP?
What activation functions should I use for each layer?
How do I connect the layers together in the Perceptron class?
Awesome!
Completion rate improved to 4
Desafío: Creación de un Perceptrón
Desliza para mostrar el menú
Para construir un perceptrón multicapa (MLP), es útil definir una clase Perceptron. Esta almacena una lista de objetos Layer que conforman la red:
class Perceptron:
def __init__(self, layers):
self.layers = layers
El MLP utilizará tres valores:
input_size: número de características de entrada;hidden_size: número de neuronas en cada capa oculta;output_size: número de neuronas en la capa de salida.
Así, el modelo consta de:
- Una capa de entrada;
- Dos capas ocultas (igual cantidad de neuronas, ReLU);
- Una capa de salida (sigmoide).
Swipe to start coding
Tu tarea es implementar la estructura básica de este MLP.
1. Inicialización de los parámetros de la capa (__init__)
- Crear una matriz de pesos con forma
(n_neurons, n_inputs); - Crear un vector de sesgos con forma
(n_neurons, 1); - Rellenarlos con valores aleatorios en [-1, 1) usando
np.random.uniform().
2. Implementación de la propagación hacia adelante (forward)
- Calcular las salidas brutas de las neuronas:
np.dot(self.weights, self.inputs) + self.biases
- Aplicar la función de activación asignada y devolver la salida.
3. Definición de las capas del MLP
- Dos capas ocultas, cada una con
hidden_sizeneuronas y activación ReLU; - Una capa de salida con
output_sizeneuronas y activación sigmoide.
Solución
¡Gracias por tus comentarios!
single