Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Desafio: Criando um Perceptron | Rede Neural do Zero
Introdução às Redes Neurais

bookDesafio: Criando um Perceptron

Como o objetivo é implementar um perceptron multicamadas, definir uma classe Perceptron ajuda a organizar e inicializar o modelo de forma eficiente. A classe terá um único atributo, layers, que é uma lista de objetos Layer representando a estrutura da rede:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

As variáveis usadas para inicializar as camadas são:

  • input_size: o número de características de entrada;
  • hidden_size: o número de neurônios em cada camada oculta (ambas as camadas ocultas terão o mesmo número de neurônios neste caso);
  • output_size: o número de neurônios na camada de saída.

A estrutura do perceptron multicamadas resultante incluirá:

  1. Camada de entrada → recebe os dados;
  2. Duas camadas ocultas → processam as entradas e extraem padrões;
  3. Camada de saída → produz a previsão final.
Tarefa

Swipe to start coding

Seu objetivo é configurar a estrutura básica de um perceptron multicamadas (MLP) implementando o código para suas camadas.

Siga estes passos cuidadosamente:

  1. Inicialize os parâmetros da camada dentro do método __init__():
  • Crie a matriz de pesos com formato (n_neurons, n_inputs);
  • Crie o vetor de vieses com formato (n_neurons, 1);
    • Preencha ambos com valores aleatórios de uma distribuição uniforme no intervalo [1,1)[-1, 1) usando np.random.uniform().
  1. Implemente a propagação direta dentro do método forward():
  • Calcule a saída bruta de cada neurônio usando o produto escalar:
np.dot(self.weights, self.inputs) + self.biases
  • Aplique a função de ativação atribuída a este resultado e retorne a saída ativada.
  1. Defina as camadas do perceptron:
  • Crie duas camadas ocultas, cada uma contendo hidden_size neurônios e utilizando a função de ativação ReLU;
  • Crie uma camada de saída com output_size neurônio(s) e a função de ativação sigmoid.

Solução

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 2. Capítulo 4
single

single

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

close

Awesome!

Completion rate improved to 4

bookDesafio: Criando um Perceptron

Deslize para mostrar o menu

Como o objetivo é implementar um perceptron multicamadas, definir uma classe Perceptron ajuda a organizar e inicializar o modelo de forma eficiente. A classe terá um único atributo, layers, que é uma lista de objetos Layer representando a estrutura da rede:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

As variáveis usadas para inicializar as camadas são:

  • input_size: o número de características de entrada;
  • hidden_size: o número de neurônios em cada camada oculta (ambas as camadas ocultas terão o mesmo número de neurônios neste caso);
  • output_size: o número de neurônios na camada de saída.

A estrutura do perceptron multicamadas resultante incluirá:

  1. Camada de entrada → recebe os dados;
  2. Duas camadas ocultas → processam as entradas e extraem padrões;
  3. Camada de saída → produz a previsão final.
Tarefa

Swipe to start coding

Seu objetivo é configurar a estrutura básica de um perceptron multicamadas (MLP) implementando o código para suas camadas.

Siga estes passos cuidadosamente:

  1. Inicialize os parâmetros da camada dentro do método __init__():
  • Crie a matriz de pesos com formato (n_neurons, n_inputs);
  • Crie o vetor de vieses com formato (n_neurons, 1);
    • Preencha ambos com valores aleatórios de uma distribuição uniforme no intervalo [1,1)[-1, 1) usando np.random.uniform().
  1. Implemente a propagação direta dentro do método forward():
  • Calcule a saída bruta de cada neurônio usando o produto escalar:
np.dot(self.weights, self.inputs) + self.biases
  • Aplique a função de ativação atribuída a este resultado e retorne a saída ativada.
  1. Defina as camadas do perceptron:
  • Crie duas camadas ocultas, cada uma contendo hidden_size neurônios e utilizando a função de ativação ReLU;
  • Crie uma camada de saída com output_size neurônio(s) e a função de ativação sigmoid.

Solução

Switch to desktopMude para o desktop para praticar no mundo realContinue de onde você está usando uma das opções abaixo
Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 2. Capítulo 4
single

single

some-alt