Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Utmaning: Skapa en Perceptron | Neuronnätverk Från Grunden
Introduktion till neurala nätverk

bookUtmaning: Skapa en Perceptron

Eftersom målet är att implementera en multilagerperceptron hjälper det att definiera en Perceptron-klass för att organisera och initiera modellen effektivt. Klassen kommer att innehålla ett enda attribut, layers, vilket är en lista av Layer-objekt som representerar nätverkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerna som används för att initiera lagren är:

  • input_size: antalet inmatningsfunktioner;
  • hidden_size: antalet neuroner i varje dolt lager (båda dolda lagren kommer i detta fall att ha samma antal neuroner);
  • output_size: antalet neuroner i utmatningslagret.

Strukturen för den resulterande multilagerperceptronen kommer att inkludera:

  1. Inmatningslager → tar emot data;
  2. Två dolda lager → bearbetar indata och extraherar mönster;
  3. Utmatningslager → producerar den slutliga prediktionen.
Uppgift

Swipe to start coding

Målet är att skapa den grundläggande strukturen för en multilagerperceptron (MLP) genom att implementera koden för dess lager.

Följ dessa steg noggrant:

  1. Initiera lagerparametrar i __init__()-metoden:
  • Skapa viktsmatrisen med formen (n_neurons, n_inputs);
  • Skapa biasvektorn med formen (n_neurons, 1);
    • Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [1,1)[-1, 1) med hjälp av np.random.uniform().
  1. Implementera framåtriktad propagiering i forward()-metoden:
  • Beräkna råutdata för varje neuron med skalärprodukt:
np.dot(self.weights, self.inputs) + self.biases
  • Applicera den tilldelade aktiveringsfunktionen på detta resultat och returnera det aktiverade utdata.
  1. Definiera perceptronlager:
  • Skapa två dolda lager, vardera med hidden_size neuroner och använd ReLU som aktiveringsfunktion;
  • Skapa ett utgångslager med output_size neuron(er) och sigmoid som aktiveringsfunktion.

Lösning

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4
single

single

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

close

Awesome!

Completion rate improved to 4

bookUtmaning: Skapa en Perceptron

Svep för att visa menyn

Eftersom målet är att implementera en multilagerperceptron hjälper det att definiera en Perceptron-klass för att organisera och initiera modellen effektivt. Klassen kommer att innehålla ett enda attribut, layers, vilket är en lista av Layer-objekt som representerar nätverkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerna som används för att initiera lagren är:

  • input_size: antalet inmatningsfunktioner;
  • hidden_size: antalet neuroner i varje dolt lager (båda dolda lagren kommer i detta fall att ha samma antal neuroner);
  • output_size: antalet neuroner i utmatningslagret.

Strukturen för den resulterande multilagerperceptronen kommer att inkludera:

  1. Inmatningslager → tar emot data;
  2. Två dolda lager → bearbetar indata och extraherar mönster;
  3. Utmatningslager → producerar den slutliga prediktionen.
Uppgift

Swipe to start coding

Målet är att skapa den grundläggande strukturen för en multilagerperceptron (MLP) genom att implementera koden för dess lager.

Följ dessa steg noggrant:

  1. Initiera lagerparametrar i __init__()-metoden:
  • Skapa viktsmatrisen med formen (n_neurons, n_inputs);
  • Skapa biasvektorn med formen (n_neurons, 1);
    • Fyll båda med slumpmässiga värden från en likformig fördelning i intervallet [1,1)[-1, 1) med hjälp av np.random.uniform().
  1. Implementera framåtriktad propagiering i forward()-metoden:
  • Beräkna råutdata för varje neuron med skalärprodukt:
np.dot(self.weights, self.inputs) + self.biases
  • Applicera den tilldelade aktiveringsfunktionen på detta resultat och returnera det aktiverade utdata.
  1. Definiera perceptronlager:
  • Skapa två dolda lager, vardera med hidden_size neuroner och använd ReLU som aktiveringsfunktion;
  • Skapa ett utgångslager med output_size neuron(er) och sigmoid som aktiveringsfunktion.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4
single

single

some-alt