Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Desafío: Creación de un Perceptrón | Red Neuronal Desde Cero
Introducción a las Redes Neuronales

bookDesafío: Creación de un Perceptrón

Dado que el objetivo es implementar un perceptrón multicapa, definir una clase Perceptron ayuda a organizar e inicializar el modelo de manera eficiente. La clase contendrá un único atributo, layers, que es una lista de objetos Layer que representan la estructura de la red:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Las variables utilizadas para inicializar las capas son:

  • input_size: el número de características de entrada;
  • hidden_size: el número de neuronas en cada capa oculta (ambas capas ocultas tendrán el mismo número de neuronas en este caso);
  • output_size: el número de neuronas en la capa de salida.

La estructura del perceptrón multicapa resultante incluirá:

  1. Capa de entrada → recibe los datos;
  2. Dos capas ocultas → procesan las entradas y extraen patrones;
  3. Capa de salida → produce la predicción final.
Tarea

Swipe to start coding

El objetivo es establecer la estructura básica de un perceptrón multicapa (MLP) implementando el código para sus capas.

Siga estos pasos cuidadosamente:

  1. Inicializar los parámetros de la capa dentro del método __init__():
  • Crear la matriz de pesos con forma (n_neurons, n_inputs);
  • Crear el vector de sesgos con forma (n_neurons, 1);
    • Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [1,1)[-1, 1) utilizando np.random.uniform().
  1. Implementar la propagación hacia adelante dentro del método forward():
  • Calcular la salida bruta de cada neurona usando el producto punto:
np.dot(self.weights, self.inputs) + self.biases
  • Aplicar la función de activación asignada a este resultado y devolver la salida activada.
  1. Definir las capas del perceptrón:
  • Crear dos capas ocultas, cada una con hidden_size neuronas y utilizando la función de activación ReLU;
  • Crear una capa de salida con output_size neurona(s) y la función de activación sigmoide.

Solución

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 4
single

single

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Suggested prompts:

Can you explain how the `Layer` class should be defined?

What activation functions are typically used in the hidden and output layers?

How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?

close

Awesome!

Completion rate improved to 4

bookDesafío: Creación de un Perceptrón

Desliza para mostrar el menú

Dado que el objetivo es implementar un perceptrón multicapa, definir una clase Perceptron ayuda a organizar e inicializar el modelo de manera eficiente. La clase contendrá un único atributo, layers, que es una lista de objetos Layer que representan la estructura de la red:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Las variables utilizadas para inicializar las capas son:

  • input_size: el número de características de entrada;
  • hidden_size: el número de neuronas en cada capa oculta (ambas capas ocultas tendrán el mismo número de neuronas en este caso);
  • output_size: el número de neuronas en la capa de salida.

La estructura del perceptrón multicapa resultante incluirá:

  1. Capa de entrada → recibe los datos;
  2. Dos capas ocultas → procesan las entradas y extraen patrones;
  3. Capa de salida → produce la predicción final.
Tarea

Swipe to start coding

El objetivo es establecer la estructura básica de un perceptrón multicapa (MLP) implementando el código para sus capas.

Siga estos pasos cuidadosamente:

  1. Inicializar los parámetros de la capa dentro del método __init__():
  • Crear la matriz de pesos con forma (n_neurons, n_inputs);
  • Crear el vector de sesgos con forma (n_neurons, 1);
    • Rellenar ambos con valores aleatorios de una distribución uniforme en el rango [1,1)[-1, 1) utilizando np.random.uniform().
  1. Implementar la propagación hacia adelante dentro del método forward():
  • Calcular la salida bruta de cada neurona usando el producto punto:
np.dot(self.weights, self.inputs) + self.biases
  • Aplicar la función de activación asignada a este resultado y devolver la salida activada.
  1. Definir las capas del perceptrón:
  • Crear dos capas ocultas, cada una con hidden_size neuronas y utilizando la función de activación ReLU;
  • Crear una capa de salida con output_size neurona(s) y la función de activación sigmoide.

Solución

Switch to desktopCambia al escritorio para practicar en el mundo realContinúe desde donde se encuentra utilizando una de las siguientes opciones
¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 4
single

single

some-alt