Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Oprettelse af en Perceptron | Neuralt Netværk fra Bunden
Introduktion til neurale netværk

bookUdfordring: Oprettelse af en Perceptron

Da målet er at implementere en multilags perceptron, vil oprettelsen af en Perceptron-klasse forenkle initialiseringen af modellen. Dens eneste attribut, layers, er i bund og grund en liste af Layer-objekter, der definerer netværkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerne, der bruges til at initialisere lagene, er følgende:

  • input_size: antallet af input-features;
  • hidden_size: antallet af neuroner i hver skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);
  • output_size: antallet af neuroner i output-laget.

Strukturen af den resulterende perceptron bør være som følger:

Opgave

Swipe to start coding

Målet er at opstille den grundlæggende struktur for perceptronen ved at implementere dens lag:

  1. Initialiser vægtene (en matrix) og biaserne (en vektor) med tilfældige værdier fra en uniform fordeling i intervallet [1,1)[-1, 1) ved brug af NumPy.
  2. Beregn rå outputværdier for neuronerne i forward()-metoden i Layer-klassen.
  3. Anvend aktiveringsfunktionen på de rå output i forward()-metoden i Layer-klassen og returnér resultatet.
  4. Definér tre lag i Perceptron-klassen: to skjulte lag med samme antal neuroner og ét outputlag. Begge skjulte lag skal bruge relu-aktiveringsfunktionen, mens outputlaget skal bruge sigmoid.

Løsning

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

close

Awesome!

Completion rate improved to 4

bookUdfordring: Oprettelse af en Perceptron

Stryg for at vise menuen

Da målet er at implementere en multilags perceptron, vil oprettelsen af en Perceptron-klasse forenkle initialiseringen af modellen. Dens eneste attribut, layers, er i bund og grund en liste af Layer-objekter, der definerer netværkets struktur:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Variablerne, der bruges til at initialisere lagene, er følgende:

  • input_size: antallet af input-features;
  • hidden_size: antallet af neuroner i hver skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);
  • output_size: antallet af neuroner i output-laget.

Strukturen af den resulterende perceptron bør være som følger:

Opgave

Swipe to start coding

Målet er at opstille den grundlæggende struktur for perceptronen ved at implementere dens lag:

  1. Initialiser vægtene (en matrix) og biaserne (en vektor) med tilfældige værdier fra en uniform fordeling i intervallet [1,1)[-1, 1) ved brug af NumPy.
  2. Beregn rå outputværdier for neuronerne i forward()-metoden i Layer-klassen.
  3. Anvend aktiveringsfunktionen på de rå output i forward()-metoden i Layer-klassen og returnér resultatet.
  4. Definér tre lag i Perceptron-klassen: to skjulte lag med samme antal neuroner og ét outputlag. Begge skjulte lag skal bruge relu-aktiveringsfunktionen, mens outputlaget skal bruge sigmoid.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 4
single

single

some-alt