Desafío: Creación de un Perceptrón
Dado que el objetivo es implementar un perceptrón multicapa, definir una clase Perceptron ayuda a organizar e inicializar el modelo de manera eficiente. La clase contendrá un único atributo, layers, que es una lista de objetos Layer que representan la estructura de la red:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Las variables utilizadas para inicializar las capas son:
input_size: el número de características de entrada;hidden_size: el número de neuronas en cada capa oculta (ambas capas ocultas tendrán el mismo número de neuronas en este caso);output_size: el número de neuronas en la capa de salida.
La estructura del perceptrón multicapa resultante incluirá:
- Capa de entrada → recibe los datos;
- Dos capas ocultas → procesan las entradas y extraen patrones;
- Capa de salida → produce la predicción final.
Swipe to start coding
El objetivo es establecer la estructura básica de un perceptrón multicapa (MLP) implementando el código para sus capas.
Siga estos pasos cuidadosamente:
- Inicializar los parámetros de la capa dentro del método
__init__():
- Crear la matriz de pesos con forma
(n_neurons, n_inputs); - Crear el vector de sesgos con forma
(n_neurons, 1);- Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [−1,1) utilizando
np.random.uniform().
- Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [−1,1) utilizando
- Implementar la propagación hacia adelante dentro del método
forward():
- Calcular la salida bruta de cada neurona usando el producto punto:
np.dot(self.weights, self.inputs) + self.biases
- Aplicar la función de activación asignada a este resultado y devolver la salida activada.
- Definir las capas del perceptrón:
- Crear dos capas ocultas, cada una con
hidden_sizeneuronas y utilizando la función de activación ReLU; - Crear una capa de salida con
output_sizeneurona(s) y la función de activación sigmoide.
Solución
¡Gracias por tus comentarios!
single
Pregunte a AI
Pregunte a AI
Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla
Can you explain how the `Layer` class should be defined?
What activation functions are typically used in the hidden and output layers?
How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?
Awesome!
Completion rate improved to 4
Desafío: Creación de un Perceptrón
Desliza para mostrar el menú
Dado que el objetivo es implementar un perceptrón multicapa, definir una clase Perceptron ayuda a organizar e inicializar el modelo de manera eficiente. La clase contendrá un único atributo, layers, que es una lista de objetos Layer que representan la estructura de la red:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Las variables utilizadas para inicializar las capas son:
input_size: el número de características de entrada;hidden_size: el número de neuronas en cada capa oculta (ambas capas ocultas tendrán el mismo número de neuronas en este caso);output_size: el número de neuronas en la capa de salida.
La estructura del perceptrón multicapa resultante incluirá:
- Capa de entrada → recibe los datos;
- Dos capas ocultas → procesan las entradas y extraen patrones;
- Capa de salida → produce la predicción final.
Swipe to start coding
El objetivo es establecer la estructura básica de un perceptrón multicapa (MLP) implementando el código para sus capas.
Siga estos pasos cuidadosamente:
- Inicializar los parámetros de la capa dentro del método
__init__():
- Crear la matriz de pesos con forma
(n_neurons, n_inputs); - Crear el vector de sesgos con forma
(n_neurons, 1);- Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [−1,1) utilizando
np.random.uniform().
- Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [−1,1) utilizando
- Implementar la propagación hacia adelante dentro del método
forward():
- Calcular la salida bruta de cada neurona usando el producto punto:
np.dot(self.weights, self.inputs) + self.biases
- Aplicar la función de activación asignada a este resultado y devolver la salida activada.
- Definir las capas del perceptrón:
- Crear dos capas ocultas, cada una con
hidden_sizeneuronas y utilizando la función de activación ReLU; - Crear una capa de salida con
output_sizeneurona(s) y la función de activación sigmoide.
Solución
¡Gracias por tus comentarios!
single