Défi : Création d'un Perceptron
Pour construire un perceptron multicouche (MLP), il est utile de définir une classe Perceptron. Celle-ci stocke une liste d’objets Layer qui composent le réseau :
class Perceptron:
def __init__(self, layers):
self.layers = layers
Le MLP utilise trois valeurs :
input_size: nombre de caractéristiques d’entrée ;hidden_size: nombre de neurones dans chaque couche cachée ;output_size: nombre de neurones dans la couche de sortie.
Ainsi, le modèle se compose de :
- Une couche d’entrée ;
- Deux couches cachées (même nombre de neurones, ReLU) ;
- Une couche de sortie (sigmoïde).
Swipe to start coding
Votre tâche consiste à implémenter la structure de base de ce MLP.
1. Initialisation des paramètres de couche (__init__)
- Créer une matrice de poids de forme
(n_neurons, n_inputs); - Créer un vecteur de biais de forme
(n_neurons, 1); - Les remplir avec des valeurs aléatoires dans [-1, 1) en utilisant
np.random.uniform().
2. Implémentation de la propagation avant (forward)
- Calculer les sorties brutes des neurones :
np.dot(self.weights, self.inputs) + self.biases
- Appliquer la fonction d'activation assignée et retourner la sortie.
3. Définition des couches du MLP
- Deux couches cachées, chacune avec
hidden_sizeneurones et l'activation ReLU ; - Une couche de sortie avec
output_sizeneurones et l'activation sigmoïde.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain how to implement the Layer class for this MLP?
What activation functions should I use for each layer?
How do I connect the layers together in the Perceptron class?
Awesome!
Completion rate improved to 4
Défi : Création d'un Perceptron
Glissez pour afficher le menu
Pour construire un perceptron multicouche (MLP), il est utile de définir une classe Perceptron. Celle-ci stocke une liste d’objets Layer qui composent le réseau :
class Perceptron:
def __init__(self, layers):
self.layers = layers
Le MLP utilise trois valeurs :
input_size: nombre de caractéristiques d’entrée ;hidden_size: nombre de neurones dans chaque couche cachée ;output_size: nombre de neurones dans la couche de sortie.
Ainsi, le modèle se compose de :
- Une couche d’entrée ;
- Deux couches cachées (même nombre de neurones, ReLU) ;
- Une couche de sortie (sigmoïde).
Swipe to start coding
Votre tâche consiste à implémenter la structure de base de ce MLP.
1. Initialisation des paramètres de couche (__init__)
- Créer une matrice de poids de forme
(n_neurons, n_inputs); - Créer un vecteur de biais de forme
(n_neurons, 1); - Les remplir avec des valeurs aléatoires dans [-1, 1) en utilisant
np.random.uniform().
2. Implémentation de la propagation avant (forward)
- Calculer les sorties brutes des neurones :
np.dot(self.weights, self.inputs) + self.biases
- Appliquer la fonction d'activation assignée et retourner la sortie.
3. Définition des couches du MLP
- Deux couches cachées, chacune avec
hidden_sizeneurones et l'activation ReLU ; - Une couche de sortie avec
output_sizeneurones et l'activation sigmoïde.
Solution
Merci pour vos commentaires !
single