Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Uitdaging: Een Perceptron Maken | Neuraal Netwerk Vanaf Nul
Introductie tot Neurale Netwerken

bookUitdaging: Een Perceptron Maken

Aangezien het doel is om een multilayer perceptron te implementeren, helpt het definiëren van een Perceptron-klasse bij het efficiënt organiseren en initialiseren van het model. De klasse bevat één attribuut, layers, een lijst van Layer-objecten die de structuur van het netwerk weergeven:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

De variabelen die worden gebruikt om de lagen te initialiseren zijn:

  • input_size: het aantal invoerfeatures;
  • hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);
  • output_size: het aantal neuronen in de uitvoerlaag.

De structuur van de resulterende multilayer perceptron omvat:

  1. Invoerlaag → ontvangt de gegevens;
  2. Twee verborgen lagen → verwerken de invoer en extraheren patronen;
  3. Uitvoerlaag → levert de uiteindelijke voorspelling.
Taak

Swipe to start coding

Het doel is om de basisstructuur van een multilayer perceptron (MLP) op te zetten door de code voor de lagen te implementeren.

Volg deze stappen zorgvuldig:

  1. Initialiseer de parameters van de laag in de __init__()-methode:
  • Maak de gewichtenmatrix met vorm (n_neurons, n_inputs);
  • Maak de biasvector met vorm (n_neurons, 1);
    • Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [1,1)[-1, 1) met behulp van np.random.uniform().
  1. Implementeer forward propagatie in de forward()-methode:
  • Bereken de ruwe output van elke neuron met het inwendig product:
np.dot(self.weights, self.inputs) + self.biases
  • Pas de toegewezen activatiefunctie toe op dit resultaat en retourneer de geactiveerde output.
  1. Definieer de perceptronlagen:
    • Maak twee verborgen lagen, elk met hidden_size neuronen en gebruik de ReLU-activatiefunctie;
    • Maak één outputlaag met output_size neuron(en) en de sigmoid-activatiefunctie.

Oplossing

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 4
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

close

Awesome!

Completion rate improved to 4

bookUitdaging: Een Perceptron Maken

Veeg om het menu te tonen

Aangezien het doel is om een multilayer perceptron te implementeren, helpt het definiëren van een Perceptron-klasse bij het efficiënt organiseren en initialiseren van het model. De klasse bevat één attribuut, layers, een lijst van Layer-objecten die de structuur van het netwerk weergeven:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

De variabelen die worden gebruikt om de lagen te initialiseren zijn:

  • input_size: het aantal invoerfeatures;
  • hidden_size: het aantal neuronen in elke verborgen laag (beide verborgen lagen hebben in dit geval hetzelfde aantal neuronen);
  • output_size: het aantal neuronen in de uitvoerlaag.

De structuur van de resulterende multilayer perceptron omvat:

  1. Invoerlaag → ontvangt de gegevens;
  2. Twee verborgen lagen → verwerken de invoer en extraheren patronen;
  3. Uitvoerlaag → levert de uiteindelijke voorspelling.
Taak

Swipe to start coding

Het doel is om de basisstructuur van een multilayer perceptron (MLP) op te zetten door de code voor de lagen te implementeren.

Volg deze stappen zorgvuldig:

  1. Initialiseer de parameters van de laag in de __init__()-methode:
  • Maak de gewichtenmatrix met vorm (n_neurons, n_inputs);
  • Maak de biasvector met vorm (n_neurons, 1);
    • Vul beide met willekeurige waarden uit een uniforme verdeling in het bereik [1,1)[-1, 1) met behulp van np.random.uniform().
  1. Implementeer forward propagatie in de forward()-methode:
  • Bereken de ruwe output van elke neuron met het inwendig product:
np.dot(self.weights, self.inputs) + self.biases
  • Pas de toegewezen activatiefunctie toe op dit resultaat en retourneer de geactiveerde output.
  1. Definieer de perceptronlagen:
    • Maak twee verborgen lagen, elk met hidden_size neuronen en gebruik de ReLU-activatiefunctie;
    • Maak één outputlaag met output_size neuron(en) en de sigmoid-activatiefunctie.

Oplossing

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 2. Hoofdstuk 4
single

single

some-alt