Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Oprettelse af en Perceptron | Neuralt Netværk fra Bunden
Introduktion til neurale netværk

bookUdfordring: Oprettelse af en Perceptron

Da målet er at implementere en multilagsperceptron, hjælper det at definere en Perceptron-klasse med at organisere og initialisere modellen effektivt. Klassen vil indeholde et enkelt attribut, layers, som er en liste af Layer-objekter, der repræsenterer netværkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerne, der bruges til at initialisere lagene, er:

  • input_size: antallet af input-features;
  • hidden_size: antallet af neuroner i hvert skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);
  • output_size: antallet af neuroner i output-laget.

Strukturen af den resulterende multilagsperceptron vil inkludere:

  1. Inputlag → modtager dataene;
  2. To skjulte lag → behandler input og udtrækker mønstre;
  3. Outputlag → producerer den endelige forudsigelse.
Opgave

Swipe to start coding

Dit mål er at opstille den grundlæggende struktur for et multilags perceptron (MLP) ved at implementere koden for dets lag.

Følg disse trin nøje:

  1. Initialisér lagparametre i __init__()-metoden:
  • Opret vægtmatricen med formen (n_neurons, n_inputs);
  • Opret biasvektoren med formen (n_neurons, 1);
    • Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [1,1)[-1, 1) ved hjælp af np.random.uniform().
  1. Implementér fremadpropagering i forward()-metoden:
  • Beregn rå output for hver neuron ved hjælp af prikproduktet:
np.dot(self.weights, self.inputs) + self.biases
  • Anvend den tildelte aktiveringsfunktion på dette resultat og returnér det aktiverede output.
  1. Definér perceptronlagene:
  • Opret to skjulte lag, hver med hidden_size neuroner og brug ReLU aktiveringsfunktionen;
  • Opret ét outputlag med output_size neuron(er) og sigmoid aktiveringsfunktionen.

Løsning

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain how the `Layer` class should be defined?

What activation functions are typically used in the hidden and output layers?

How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?

close

Awesome!

Completion rate improved to 4

bookUdfordring: Oprettelse af en Perceptron

Stryg for at vise menuen

Da målet er at implementere en multilagsperceptron, hjælper det at definere en Perceptron-klasse med at organisere og initialisere modellen effektivt. Klassen vil indeholde et enkelt attribut, layers, som er en liste af Layer-objekter, der repræsenterer netværkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerne, der bruges til at initialisere lagene, er:

  • input_size: antallet af input-features;
  • hidden_size: antallet af neuroner i hvert skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);
  • output_size: antallet af neuroner i output-laget.

Strukturen af den resulterende multilagsperceptron vil inkludere:

  1. Inputlag → modtager dataene;
  2. To skjulte lag → behandler input og udtrækker mønstre;
  3. Outputlag → producerer den endelige forudsigelse.
Opgave

Swipe to start coding

Dit mål er at opstille den grundlæggende struktur for et multilags perceptron (MLP) ved at implementere koden for dets lag.

Følg disse trin nøje:

  1. Initialisér lagparametre i __init__()-metoden:
  • Opret vægtmatricen med formen (n_neurons, n_inputs);
  • Opret biasvektoren med formen (n_neurons, 1);
    • Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [1,1)[-1, 1) ved hjælp af np.random.uniform().
  1. Implementér fremadpropagering i forward()-metoden:
  • Beregn rå output for hver neuron ved hjælp af prikproduktet:
np.dot(self.weights, self.inputs) + self.biases
  • Anvend den tildelte aktiveringsfunktion på dette resultat og returnér det aktiverede output.
  1. Definér perceptronlagene:
  • Opret to skjulte lag, hver med hidden_size neuroner og brug ReLU aktiveringsfunktionen;
  • Opret ét outputlag med output_size neuron(er) og sigmoid aktiveringsfunktionen.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

some-alt