Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Utmaning: Skapa en Perceptron | Neuronnätverk Från Grunden
Introduktion till neurala nätverk med Python

bookUtmaning: Skapa en Perceptron

För att bygga en multilagerperceptron (MLP) är det användbart att definiera en Perceptron-klass. Den lagrar en lista av Layer-objekt som utgör nätverket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP:n kommer att använda tre värden:

  • input_size: antal indatafunktioner;
  • hidden_size: antal neuroner i varje dolt lager;
  • output_size: antal neuroner i utdata-lagret.

Modellen består alltså av:

  1. Ett indatalager;
  2. Två dolda lager (samma antal neuroner, ReLU);
  3. Ett utdatalager (sigmoid).
Uppgift

Swipe to start coding

Din uppgift är att implementera den grundläggande strukturen för detta MLP.

1. Initiera lagerparametrar (__init__)

  • Skapa en viktsmatris med formen (n_neurons, n_inputs);
  • Skapa en biasvektor med formen (n_neurons, 1);
  • Fyll dem med slumpmässiga värden i [-1, 1) med hjälp av np.random.uniform().

2. Implementera framåtriktad propagiering (forward)

  • Beräkna neuroners råa utdata:
np.dot(self.weights, self.inputs) + self.biases
  • Applicera den tilldelade aktiveringsfunktionen och returnera utdata.

3. Definiera MLP-lagren

  • Två dolda lager, vardera med hidden_size neuroner och ReLU-aktivering;
  • Ett utgångslager med output_size neuroner och sigmoid-aktivering.

Lösning

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4
single

single

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Suggested prompts:

Can you explain how to implement the Layer class for this MLP?

What activation functions should I use for each layer?

How do I connect the layers together in the Perceptron class?

close

bookUtmaning: Skapa en Perceptron

Svep för att visa menyn

För att bygga en multilagerperceptron (MLP) är det användbart att definiera en Perceptron-klass. Den lagrar en lista av Layer-objekt som utgör nätverket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP:n kommer att använda tre värden:

  • input_size: antal indatafunktioner;
  • hidden_size: antal neuroner i varje dolt lager;
  • output_size: antal neuroner i utdata-lagret.

Modellen består alltså av:

  1. Ett indatalager;
  2. Två dolda lager (samma antal neuroner, ReLU);
  3. Ett utdatalager (sigmoid).
Uppgift

Swipe to start coding

Din uppgift är att implementera den grundläggande strukturen för detta MLP.

1. Initiera lagerparametrar (__init__)

  • Skapa en viktsmatris med formen (n_neurons, n_inputs);
  • Skapa en biasvektor med formen (n_neurons, 1);
  • Fyll dem med slumpmässiga värden i [-1, 1) med hjälp av np.random.uniform().

2. Implementera framåtriktad propagiering (forward)

  • Beräkna neuroners råa utdata:
np.dot(self.weights, self.inputs) + self.biases
  • Applicera den tilldelade aktiveringsfunktionen och returnera utdata.

3. Definiera MLP-lagren

  • Två dolda lager, vardera med hidden_size neuroner och ReLU-aktivering;
  • Ett utgångslager med output_size neuroner och sigmoid-aktivering.

Lösning

Switch to desktopByt till skrivbordet för praktisk övningFortsätt där du är med ett av alternativen nedan
Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 4
single

single

some-alt