Utmaning: Skapa en Perceptron
Eftersom målet är att implementera en multilagerperceptron hjälper det att definiera en Perceptron-klass för att organisera och initiera modellen effektivt. Klassen kommer att innehålla ett enda attribut, layers, vilket är en lista av Layer-objekt som representerar nätverkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerna som används för att initiera lagren är:
input_size: antalet inmatningsfunktioner;hidden_size: antalet neuroner i varje dolt lager (båda dolda lagren kommer i detta fall att ha samma antal neuroner);output_size: antalet neuroner i utmatningslagret.
Strukturen för den resulterande multilagerperceptronen kommer att inkludera:
- Inmatningslager → tar emot data;
- Två dolda lager → bearbetar indata och extraherar mönster;
- Utmatningslager → producerar den slutliga prediktionen.
Swipe to start coding
Målet är att skapa den grundläggande strukturen för en multilagerperceptron (MLP) genom att implementera koden för dess lager.
Följ dessa steg noggrant:
- Initiera lagerparametrar i
__init__()-metoden:
- Skapa viktsmatrisen med formen
(n_neurons, n_inputs); - Skapa biasvektorn med formen
(n_neurons, 1);- Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [−1,1) med hjälp av
np.random.uniform().
- Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [−1,1) med hjälp av
- Implementera framåtriktad propagiering i
forward()-metoden:
- Beräkna råutdata för varje neuron med skalärprodukt:
np.dot(self.weights, self.inputs) + self.biases
- Applicera den tilldelade aktiveringsfunktionen på detta resultat och returnera det aktiverade utdata.
- Definiera perceptronlager:
- Skapa två dolda lager, vardera med
hidden_sizeneuroner och använd ReLU som aktiveringsfunktion; - Skapa ett utgångslager med
output_sizeneuron(er) och sigmoid som aktiveringsfunktion.
Lösning
Tack för dina kommentarer!
single
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
Awesome!
Completion rate improved to 4
Utmaning: Skapa en Perceptron
Svep för att visa menyn
Eftersom målet är att implementera en multilagerperceptron hjälper det att definiera en Perceptron-klass för att organisera och initiera modellen effektivt. Klassen kommer att innehålla ett enda attribut, layers, vilket är en lista av Layer-objekt som representerar nätverkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerna som används för att initiera lagren är:
input_size: antalet inmatningsfunktioner;hidden_size: antalet neuroner i varje dolt lager (båda dolda lagren kommer i detta fall att ha samma antal neuroner);output_size: antalet neuroner i utmatningslagret.
Strukturen för den resulterande multilagerperceptronen kommer att inkludera:
- Inmatningslager → tar emot data;
- Två dolda lager → bearbetar indata och extraherar mönster;
- Utmatningslager → producerar den slutliga prediktionen.
Swipe to start coding
Målet är att skapa den grundläggande strukturen för en multilagerperceptron (MLP) genom att implementera koden för dess lager.
Följ dessa steg noggrant:
- Initiera lagerparametrar i
__init__()-metoden:
- Skapa viktsmatrisen med formen
(n_neurons, n_inputs); - Skapa biasvektorn med formen
(n_neurons, 1);- Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [−1,1) med hjälp av
np.random.uniform().
- Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [−1,1) med hjälp av
- Implementera framåtriktad propagiering i
forward()-metoden:
- Beräkna råutdata för varje neuron med skalärprodukt:
np.dot(self.weights, self.inputs) + self.biases
- Applicera den tilldelade aktiveringsfunktionen på detta resultat och returnera det aktiverade utdata.
- Definiera perceptronlager:
- Skapa två dolda lager, vardera med
hidden_sizeneuroner och använd ReLU som aktiveringsfunktion; - Skapa ett utgångslager med
output_sizeneuron(er) och sigmoid som aktiveringsfunktion.
Lösning
Tack för dina kommentarer!
single