Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Utfordring: Lage en Perseptron | Nevralt Nettverk fra Bunnen Av
Quizzes & Challenges
Quizzes
Challenges
/
Introduksjon til nevrale nettverk med Python

bookUtfordring: Lage en Perseptron

For å bygge en multilags perseptron (MLP), er det hensiktsmessig å definere en Perceptron-klasse. Den lagrer en liste med Layer-objekter som utgjør nettverket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP-en vil bruke tre verdier:

  • input_size: antall input-funksjoner;
  • hidden_size: antall nevroner i hvert skjult lag;
  • output_size: antall nevroner i utgangslaget.

Modellen består dermed av:

  1. Et input-lag;
  2. To skjulte lag (samme antall nevroner, ReLU);
  3. Et utgangslag (sigmoid).
Oppgave

Swipe to start coding

Din oppgave er å implementere den grunnleggende strukturen til denne MLP-en.

1. Initialiser lagparametere (__init__)

  • Opprett en vektmatrise med form (n_neurons, n_inputs);
  • Opprett en bias-vektor med form (n_neurons, 1);
  • Fyll dem med tilfeldige verdier i [-1, 1) ved å bruke np.random.uniform().

2. Implementer fremoverpropagering (forward)

  • Beregn rå nevronutganger:
np.dot(self.weights, self.inputs) + self.biases
  • Bruk den tildelte aktiveringsfunksjonen og returner utdataene.

3. Definer MLP-lagene

  • To skjulte lag, hvert med hidden_size nevroner og ReLU-aktivering;
  • Ett utgangslag med output_size nevroner og sigmoid-aktivering.

Løsning

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 4
single

single

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

close

Awesome!

Completion rate improved to 4

bookUtfordring: Lage en Perseptron

Sveip for å vise menyen

For å bygge en multilags perseptron (MLP), er det hensiktsmessig å definere en Perceptron-klasse. Den lagrer en liste med Layer-objekter som utgjør nettverket:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

MLP-en vil bruke tre verdier:

  • input_size: antall input-funksjoner;
  • hidden_size: antall nevroner i hvert skjult lag;
  • output_size: antall nevroner i utgangslaget.

Modellen består dermed av:

  1. Et input-lag;
  2. To skjulte lag (samme antall nevroner, ReLU);
  3. Et utgangslag (sigmoid).
Oppgave

Swipe to start coding

Din oppgave er å implementere den grunnleggende strukturen til denne MLP-en.

1. Initialiser lagparametere (__init__)

  • Opprett en vektmatrise med form (n_neurons, n_inputs);
  • Opprett en bias-vektor med form (n_neurons, 1);
  • Fyll dem med tilfeldige verdier i [-1, 1) ved å bruke np.random.uniform().

2. Implementer fremoverpropagering (forward)

  • Beregn rå nevronutganger:
np.dot(self.weights, self.inputs) + self.biases
  • Bruk den tildelte aktiveringsfunksjonen og returner utdataene.

3. Definer MLP-lagene

  • To skjulte lag, hvert med hidden_size nevroner og ReLU-aktivering;
  • Ett utgangslag med output_size nevroner og sigmoid-aktivering.

Løsning

Switch to desktopBytt til skrivebordet for virkelighetspraksisFortsett der du er med et av alternativene nedenfor
Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 4
single

single

some-alt