Udfordring: Oprettelse af en Perceptron
Da målet er at implementere en multilagsperceptron, hjælper det at definere en Perceptron-klasse med at organisere og initialisere modellen effektivt. Klassen vil indeholde et enkelt attribut, layers, som er en liste af Layer-objekter, der repræsenterer netværkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerne, der bruges til at initialisere lagene, er:
input_size: antallet af input-features;hidden_size: antallet af neuroner i hvert skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);output_size: antallet af neuroner i output-laget.
Strukturen af den resulterende multilagsperceptron vil inkludere:
- Inputlag → modtager dataene;
- To skjulte lag → behandler input og udtrækker mønstre;
- Outputlag → producerer den endelige forudsigelse.
Swipe to start coding
Dit mål er at opstille den grundlæggende struktur for et multilags perceptron (MLP) ved at implementere koden for dets lag.
Følg disse trin nøje:
- Initialisér lagparametre i
__init__()-metoden:
- Opret vægtmatricen med formen
(n_neurons, n_inputs); - Opret biasvektoren med formen
(n_neurons, 1);- Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [−1,1) ved hjælp af
np.random.uniform().
- Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [−1,1) ved hjælp af
- Implementér fremadpropagering i
forward()-metoden:
- Beregn rå output for hver neuron ved hjælp af prikproduktet:
np.dot(self.weights, self.inputs) + self.biases
- Anvend den tildelte aktiveringsfunktion på dette resultat og returnér det aktiverede output.
- Definér perceptronlagene:
- Opret to skjulte lag, hver med
hidden_sizeneuroner og brug ReLU aktiveringsfunktionen; - Opret ét outputlag med
output_sizeneuron(er) og sigmoid aktiveringsfunktionen.
Løsning
Tak for dine kommentarer!
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Can you explain how the `Layer` class should be defined?
What activation functions are typically used in the hidden and output layers?
How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?
Awesome!
Completion rate improved to 4
Udfordring: Oprettelse af en Perceptron
Stryg for at vise menuen
Da målet er at implementere en multilagsperceptron, hjælper det at definere en Perceptron-klasse med at organisere og initialisere modellen effektivt. Klassen vil indeholde et enkelt attribut, layers, som er en liste af Layer-objekter, der repræsenterer netværkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerne, der bruges til at initialisere lagene, er:
input_size: antallet af input-features;hidden_size: antallet af neuroner i hvert skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);output_size: antallet af neuroner i output-laget.
Strukturen af den resulterende multilagsperceptron vil inkludere:
- Inputlag → modtager dataene;
- To skjulte lag → behandler input og udtrækker mønstre;
- Outputlag → producerer den endelige forudsigelse.
Swipe to start coding
Dit mål er at opstille den grundlæggende struktur for et multilags perceptron (MLP) ved at implementere koden for dets lag.
Følg disse trin nøje:
- Initialisér lagparametre i
__init__()-metoden:
- Opret vægtmatricen med formen
(n_neurons, n_inputs); - Opret biasvektoren med formen
(n_neurons, 1);- Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [−1,1) ved hjælp af
np.random.uniform().
- Fyld begge med tilfældige værdier fra en uniform fordeling i intervallet [−1,1) ved hjælp af
- Implementér fremadpropagering i
forward()-metoden:
- Beregn rå output for hver neuron ved hjælp af prikproduktet:
np.dot(self.weights, self.inputs) + self.biases
- Anvend den tildelte aktiveringsfunktion på dette resultat og returnér det aktiverede output.
- Definér perceptronlagene:
- Opret to skjulte lag, hver med
hidden_sizeneuroner og brug ReLU aktiveringsfunktionen; - Opret ét outputlag med
output_sizeneuron(er) og sigmoid aktiveringsfunktionen.
Løsning
Tak for dine kommentarer!
single