Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Défi : Création d'un Perceptron | Réseau de Neurones à Partir de Zéro
Quizzes & Challenges
Quizzes
Challenges
/
Introduction aux Réseaux de Neurones avec Python

bookDéfi : Création d'un Perceptron

Pour construire un perceptron multicouche (MLP), il est utile de définir une classe Perceptron. Celle-ci stocke une liste d’objets Layer qui composent le réseau :

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Le MLP utilise trois valeurs :

  • input_size : nombre de caractéristiques d’entrée ;
  • hidden_size : nombre de neurones dans chaque couche cachée ;
  • output_size : nombre de neurones dans la couche de sortie.

Ainsi, le modèle se compose de :

  1. Une couche d’entrée ;
  2. Deux couches cachées (même nombre de neurones, ReLU) ;
  3. Une couche de sortie (sigmoïde).
Tâche

Swipe to start coding

Votre tâche consiste à implémenter la structure de base de ce MLP.

1. Initialisation des paramètres de couche (__init__)

  • Créer une matrice de poids de forme (n_neurons, n_inputs) ;
  • Créer un vecteur de biais de forme (n_neurons, 1) ;
  • Les remplir avec des valeurs aléatoires dans [-1, 1) en utilisant np.random.uniform().

2. Implémentation de la propagation avant (forward)

  • Calculer les sorties brutes des neurones :
np.dot(self.weights, self.inputs) + self.biases
  • Appliquer la fonction d'activation assignée et retourner la sortie.

3. Définition des couches du MLP

  • Deux couches cachées, chacune avec hidden_size neurones et l'activation ReLU ;
  • Une couche de sortie avec output_size neurones et l'activation sigmoïde.

Solution

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 4
single

single

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Suggested prompts:

Can you explain how to implement the Layer class for this MLP?

What activation functions should I use for each layer?

How do I connect the layers together in the Perceptron class?

close

bookDéfi : Création d'un Perceptron

Glissez pour afficher le menu

Pour construire un perceptron multicouche (MLP), il est utile de définir une classe Perceptron. Celle-ci stocke une liste d’objets Layer qui composent le réseau :

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Le MLP utilise trois valeurs :

  • input_size : nombre de caractéristiques d’entrée ;
  • hidden_size : nombre de neurones dans chaque couche cachée ;
  • output_size : nombre de neurones dans la couche de sortie.

Ainsi, le modèle se compose de :

  1. Une couche d’entrée ;
  2. Deux couches cachées (même nombre de neurones, ReLU) ;
  3. Une couche de sortie (sigmoïde).
Tâche

Swipe to start coding

Votre tâche consiste à implémenter la structure de base de ce MLP.

1. Initialisation des paramètres de couche (__init__)

  • Créer une matrice de poids de forme (n_neurons, n_inputs) ;
  • Créer un vecteur de biais de forme (n_neurons, 1) ;
  • Les remplir avec des valeurs aléatoires dans [-1, 1) en utilisant np.random.uniform().

2. Implémentation de la propagation avant (forward)

  • Calculer les sorties brutes des neurones :
np.dot(self.weights, self.inputs) + self.biases
  • Appliquer la fonction d'activation assignée et retourner la sortie.

3. Définition des couches du MLP

  • Deux couches cachées, chacune avec hidden_size neurones et l'activation ReLU ;
  • Une couche de sortie avec output_size neurones et l'activation sigmoïde.

Solution

Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 4
single

single

some-alt