Utfordring: Lage en Perseptron
For å bygge en multilags perseptron (MLP), er det hensiktsmessig å definere en Perceptron-klasse. Den lagrer en liste med Layer-objekter som utgjør nettverket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP-en vil bruke tre verdier:
input_size: antall input-funksjoner;hidden_size: antall nevroner i hvert skjult lag;output_size: antall nevroner i utgangslaget.
Modellen består dermed av:
- Et input-lag;
- To skjulte lag (samme antall nevroner, ReLU);
- Et utgangslag (sigmoid).
Swipe to start coding
Din oppgave er å implementere den grunnleggende strukturen til denne MLP-en.
1. Initialiser lagparametere (__init__)
- Opprett en vektmatrise med form
(n_neurons, n_inputs); - Opprett en bias-vektor med form
(n_neurons, 1); - Fyll dem med tilfeldige verdier i [-1, 1) ved å bruke
np.random.uniform().
2. Implementer fremoverpropagering (forward)
- Beregn rå nevronutganger:
np.dot(self.weights, self.inputs) + self.biases
- Bruk den tildelte aktiveringsfunksjonen og returner utdataene.
3. Definer MLP-lagene
- To skjulte lag, hvert med
hidden_sizenevroner og ReLU-aktivering; - Ett utgangslag med
output_sizenevroner og sigmoid-aktivering.
Løsning
Takk for tilbakemeldingene dine!
single
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Awesome!
Completion rate improved to 4
Utfordring: Lage en Perseptron
Sveip for å vise menyen
For å bygge en multilags perseptron (MLP), er det hensiktsmessig å definere en Perceptron-klasse. Den lagrer en liste med Layer-objekter som utgjør nettverket:
class Perceptron:
def __init__(self, layers):
self.layers = layers
MLP-en vil bruke tre verdier:
input_size: antall input-funksjoner;hidden_size: antall nevroner i hvert skjult lag;output_size: antall nevroner i utgangslaget.
Modellen består dermed av:
- Et input-lag;
- To skjulte lag (samme antall nevroner, ReLU);
- Et utgangslag (sigmoid).
Swipe to start coding
Din oppgave er å implementere den grunnleggende strukturen til denne MLP-en.
1. Initialiser lagparametere (__init__)
- Opprett en vektmatrise med form
(n_neurons, n_inputs); - Opprett en bias-vektor med form
(n_neurons, 1); - Fyll dem med tilfeldige verdier i [-1, 1) ved å bruke
np.random.uniform().
2. Implementer fremoverpropagering (forward)
- Beregn rå nevronutganger:
np.dot(self.weights, self.inputs) + self.biases
- Bruk den tildelte aktiveringsfunksjonen og returner utdataene.
3. Definer MLP-lagene
- To skjulte lag, hvert med
hidden_sizenevroner og ReLU-aktivering; - Ett utgangslag med
output_sizenevroner og sigmoid-aktivering.
Løsning
Takk for tilbakemeldingene dine!
single