Udfordring: Oprettelse af en Perceptron
For at opbygge en multilagsperceptron (MLP) er det nyttigt at definere en Perceptron-klasse. Den gemmer en liste af Layer-objekter, som udgør netværket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP'en anvender tre værdier:
input_size: antal inputfunktioner;hidden_size: antal neuroner i hvert skjult lag;output_size: antal neuroner i outputlaget.
Modellen består således af:
- Et inputlag;
- To skjulte lag (samme antal neuroner, ReLU);
- Et outputlag (sigmoid).
Swipe to start coding
Din opgave er at implementere den grundlæggende struktur for dette MLP.
1. Initialisering af lagparametre (__init__)
- Opret en vægtmatrix med formen
(n_neurons, n_inputs); - Opret en bias-vektor med formen
(n_neurons, 1); - Fyld dem med tilfældige værdier i [-1, 1) ved hjælp af
np.random.uniform().
2. Implementering af fremadpropagering (forward)
- Beregn rå neuronudgange:
np.dot(self.weights, self.inputs) + self.biases
- Anvend den tildelte aktiveringsfunktion og returnér outputtet.
3. Definition af MLP-lag
- To skjulte lag, hver med
hidden_sizeneuroner og ReLU-aktivering; - Ét outputlag med
output_sizeneuroner og sigmoid-aktivering.
Løsning
Tak for dine kommentarer!
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Awesome!
Completion rate improved to 4
Udfordring: Oprettelse af en Perceptron
Stryg for at vise menuen
For at opbygge en multilagsperceptron (MLP) er det nyttigt at definere en Perceptron-klasse. Den gemmer en liste af Layer-objekter, som udgør netværket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP'en anvender tre værdier:
input_size: antal inputfunktioner;hidden_size: antal neuroner i hvert skjult lag;output_size: antal neuroner i outputlaget.
Modellen består således af:
- Et inputlag;
- To skjulte lag (samme antal neuroner, ReLU);
- Et outputlag (sigmoid).
Swipe to start coding
Din opgave er at implementere den grundlæggende struktur for dette MLP.
1. Initialisering af lagparametre (__init__)
- Opret en vægtmatrix med formen
(n_neurons, n_inputs); - Opret en bias-vektor med formen
(n_neurons, 1); - Fyld dem med tilfældige værdier i [-1, 1) ved hjælp af
np.random.uniform().
2. Implementering af fremadpropagering (forward)
- Beregn rå neuronudgange:
np.dot(self.weights, self.inputs) + self.biases
- Anvend den tildelte aktiveringsfunktion og returnér outputtet.
3. Definition af MLP-lag
- To skjulte lag, hver med
hidden_sizeneuroner og ReLU-aktivering; - Ét outputlag med
output_sizeneuroner og sigmoid-aktivering.
Løsning
Tak for dine kommentarer!
single