Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Oprettelse af en Perceptron | Neuralt Netværk fra Bunden
Introduktion til neurale netværk med Python

bookUdfordring: Oprettelse af en Perceptron

For at opbygge en multilagsperceptron (MLP) er det nyttigt at definere en Perceptron-klasse. Den gemmer en liste af Layer-objekter, som udgør netværket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP'en anvender tre værdier:

  • input_size: antal inputfunktioner;
  • hidden_size: antal neuroner i hvert skjult lag;
  • output_size: antal neuroner i outputlaget.

Modellen består således af:

  1. Et inputlag;
  2. To skjulte lag (samme antal neuroner, ReLU);
  3. Et outputlag (sigmoid).
Opgave

Swipe to start coding

Din opgave er at implementere den grundlæggende struktur for dette MLP.

1. Initialisering af lagparametre (__init__)

  • Opret en vægtmatrix med formen (n_neurons, n_inputs);
  • Opret en bias-vektor med formen (n_neurons, 1);
  • Fyld dem med tilfældige værdier i [-1, 1) ved hjælp af np.random.uniform().

2. Implementering af fremadpropagering (forward)

  • Beregn rå neuronudgange:
np.dot(self.weights, self.inputs) + self.biases
  • Anvend den tildelte aktiveringsfunktion og returnér outputtet.

3. Definition af MLP-lag

  • To skjulte lag, hver med hidden_size neuroner og ReLU-aktivering;
  • Ét outputlag med output_size neuroner og sigmoid-aktivering.

Løsning

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

close

bookUdfordring: Oprettelse af en Perceptron

Stryg for at vise menuen

For at opbygge en multilagsperceptron (MLP) er det nyttigt at definere en Perceptron-klasse. Den gemmer en liste af Layer-objekter, som udgør netværket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP'en anvender tre værdier:

  • input_size: antal inputfunktioner;
  • hidden_size: antal neuroner i hvert skjult lag;
  • output_size: antal neuroner i outputlaget.

Modellen består således af:

  1. Et inputlag;
  2. To skjulte lag (samme antal neuroner, ReLU);
  3. Et outputlag (sigmoid).
Opgave

Swipe to start coding

Din opgave er at implementere den grundlæggende struktur for dette MLP.

1. Initialisering af lagparametre (__init__)

  • Opret en vægtmatrix med formen (n_neurons, n_inputs);
  • Opret en bias-vektor med formen (n_neurons, 1);
  • Fyld dem med tilfældige værdier i [-1, 1) ved hjælp af np.random.uniform().

2. Implementering af fremadpropagering (forward)

  • Beregn rå neuronudgange:
np.dot(self.weights, self.inputs) + self.biases
  • Anvend den tildelte aktiveringsfunktion og returnér outputtet.

3. Definition af MLP-lag

  • To skjulte lag, hver med hidden_size neuroner og ReLU-aktivering;
  • Ét outputlag med output_size neuroner og sigmoid-aktivering.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

some-alt