Uitdaging: Een Perceptron Maken
Aangezien het doel is om een multilayer perceptron te implementeren, helpt het definiëren van een Perceptron-klasse bij het efficiënt organiseren en initialiseren van het model. De klasse bevat één attribuut, layers, een lijst van Layer-objecten die de structuur van het netwerk weergeven:
class Perceptron:
def __init__(self, layers):
self.layers = layers
De variabelen die worden gebruikt om de lagen te initialiseren zijn:
input_size: het aantal invoerfeatures;hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);output_size: het aantal neuronen in de uitvoerlaag.
De structuur van de resulterende multilayer perceptron omvat:
- Invoerlaag → ontvangt de gegevens;
- Twee verborgen lagen → verwerken de invoer en extraheren patronen;
- Uitvoerlaag → levert de uiteindelijke voorspelling.
Swipe to start coding
Het doel is om de basisstructuur van een multilayer perceptron (MLP) op te zetten door de code voor de lagen te implementeren.
Volg deze stappen zorgvuldig:
- Initialiseer de parameters van de laag in de
__init__()-methode:
- Maak de gewichtenmatrix met vorm
(n_neurons, n_inputs); - Maak de biasvector met vorm
(n_neurons, 1);- Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1) met behulp van
np.random.uniform().
- Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1) met behulp van
- Implementeer forward propagatie in de
forward()-methode:
- Bereken de ruwe output van elke neuron met het inwendig product:
np.dot(self.weights, self.inputs) + self.biases
- Pas de toegewezen activatiefunctie toe op dit resultaat en retourneer de geactiveerde output.
- Definieer de perceptronlagen:
- Maak twee verborgen lagen, elk met
hidden_sizeneuronen en gebruik de ReLU-activatiefunctie; - Maak één outputlaag met
output_sizeneuron(en) en de sigmoid-activatiefunctie.
- Maak twee verborgen lagen, elk met
Oplossing
Bedankt voor je feedback!
single
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 4
Uitdaging: Een Perceptron Maken
Veeg om het menu te tonen
Aangezien het doel is om een multilayer perceptron te implementeren, helpt het definiëren van een Perceptron-klasse bij het efficiënt organiseren en initialiseren van het model. De klasse bevat één attribuut, layers, een lijst van Layer-objecten die de structuur van het netwerk weergeven:
class Perceptron:
def __init__(self, layers):
self.layers = layers
De variabelen die worden gebruikt om de lagen te initialiseren zijn:
input_size: het aantal invoerfeatures;hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);output_size: het aantal neuronen in de uitvoerlaag.
De structuur van de resulterende multilayer perceptron omvat:
- Invoerlaag → ontvangt de gegevens;
- Twee verborgen lagen → verwerken de invoer en extraheren patronen;
- Uitvoerlaag → levert de uiteindelijke voorspelling.
Swipe to start coding
Het doel is om de basisstructuur van een multilayer perceptron (MLP) op te zetten door de code voor de lagen te implementeren.
Volg deze stappen zorgvuldig:
- Initialiseer de parameters van de laag in de
__init__()-methode:
- Maak de gewichtenmatrix met vorm
(n_neurons, n_inputs); - Maak de biasvector met vorm
(n_neurons, 1);- Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1) met behulp van
np.random.uniform().
- Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [−1,1) met behulp van
- Implementeer forward propagatie in de
forward()-methode:
- Bereken de ruwe output van elke neuron met het inwendig product:
np.dot(self.weights, self.inputs) + self.biases
- Pas de toegewezen activatiefunctie toe op dit resultaat en retourneer de geactiveerde output.
- Definieer de perceptronlagen:
- Maak twee verborgen lagen, elk met
hidden_sizeneuronen en gebruik de ReLU-activatiefunctie; - Maak één outputlaag met
output_sizeneuron(en) en de sigmoid-activatiefunctie.
- Maak twee verborgen lagen, elk met
Oplossing
Bedankt voor je feedback!
single