Utmaning: Skapa en Perceptron
För att bygga en multilagerperceptron (MLP) är det användbart att definiera en Perceptron-klass. Den lagrar en lista av Layer-objekt som utgör nätverket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP:n kommer att använda tre värden:
input_size: antal indatafunktioner;hidden_size: antal neuroner i varje dolt lager;output_size: antal neuroner i utdata-lagret.
Modellen består alltså av:
- Ett indatalager;
- Två dolda lager (samma antal neuroner, ReLU);
- Ett utdatalager (sigmoid).
Swipe to start coding
Din uppgift är att implementera den grundläggande strukturen för detta MLP.
1. Initiera lagerparametrar (__init__)
- Skapa en viktsmatris med formen
(n_neurons, n_inputs); - Skapa en biasvektor med formen
(n_neurons, 1); - Fyll dem med slumpmässiga värden i [-1, 1) med hjälp av
np.random.uniform().
2. Implementera framåtriktad propagiering (forward)
- Beräkna neuroners råa utdata:
np.dot(self.weights, self.inputs) + self.biases
- Applicera den tilldelade aktiveringsfunktionen och returnera utdata.
3. Definiera MLP-lagren
- Två dolda lager, vardera med
hidden_sizeneuroner och ReLU-aktivering; - Ett utgångslager med
output_sizeneuroner och sigmoid-aktivering.
Lösning
Tack för dina kommentarer!
single
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
Can you explain how to implement the Layer class for this MLP?
What activation functions should I use for each layer?
How do I connect the layers together in the Perceptron class?
Awesome!
Completion rate improved to 4
Utmaning: Skapa en Perceptron
Svep för att visa menyn
För att bygga en multilagerperceptron (MLP) är det användbart att definiera en Perceptron-klass. Den lagrar en lista av Layer-objekt som utgör nätverket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP:n kommer att använda tre värden:
input_size: antal indatafunktioner;hidden_size: antal neuroner i varje dolt lager;output_size: antal neuroner i utdata-lagret.
Modellen består alltså av:
- Ett indatalager;
- Två dolda lager (samma antal neuroner, ReLU);
- Ett utdatalager (sigmoid).
Swipe to start coding
Din uppgift är att implementera den grundläggande strukturen för detta MLP.
1. Initiera lagerparametrar (__init__)
- Skapa en viktsmatris med formen
(n_neurons, n_inputs); - Skapa en biasvektor med formen
(n_neurons, 1); - Fyll dem med slumpmässiga värden i [-1, 1) med hjälp av
np.random.uniform().
2. Implementera framåtriktad propagiering (forward)
- Beräkna neuroners råa utdata:
np.dot(self.weights, self.inputs) + self.biases
- Applicera den tilldelade aktiveringsfunktionen och returnera utdata.
3. Definiera MLP-lagren
- Två dolda lager, vardera med
hidden_sizeneuroner och ReLU-aktivering; - Ett utgångslager med
output_sizeneuroner och sigmoid-aktivering.
Lösning
Tack för dina kommentarer!
single