Utfordring: Lage en Perseptron
Siden målet er å implementere et multilags perceptron, bidrar det å definere en Perceptron-klasse til å organisere og initialisere modellen på en effektiv måte. Klassen vil inneholde ett attributt, layers, som er en liste med Layer-objekter som representerer nettverkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablene som brukes til å initialisere lagene er:
input_size: antall inndatafunksjoner;hidden_size: antall nevroner i hvert skjult lag (begge skjulte lag vil ha samme antall nevroner i dette tilfellet);output_size: antall nevroner i utgangslaget.
Strukturen til det resulterende multillags perceptronet vil inkludere:
- Inndatalag → mottar dataene;
- To skjulte lag → behandler inndataene og trekker ut mønstre;
- Utgangslag → produserer den endelige prediksjonen.
Swipe to start coding
Målet ditt er å sette opp den grunnleggende strukturen til et multilags perceptron (MLP) ved å implementere koden for dets lag.
Følg disse trinnene nøye:
- Initialiser lagparametere inne i
__init__()-metoden:
- Opprett vektmatrisen med form
(n_neurons, n_inputs);- Opprett bias-vektoren med form
(n_neurons, 1); - Fyll begge med tilfeldige verdier fra en uniform fordeling i området [−1,1) ved å bruke
np.random.uniform().
- Opprett bias-vektoren med form
- Implementer fremoverpropagering inne i
forward()-metoden:
- Beregn råutdata for hver nevron ved å bruke skalarproduktet:
np.dot(self.weights, self.inputs) + self.biases
- Bruk den tildelte aktiveringsfunksjonen på dette resultatet og returner det aktiverte utdataet.
- Definer perceptron-lagene:
- Opprett to skjulte lag, hvert med
hidden_sizenevroner og bruk ReLU aktiveringsfunksjon; - Opprett ett utgangslag med
output_sizenevron(er) og sigmoid aktiveringsfunksjon.
Løsning
Takk for tilbakemeldingene dine!
single
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Can you explain how the `Layer` class should be defined?
What activation functions are typically used in the hidden and output layers?
How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?
Awesome!
Completion rate improved to 4
Utfordring: Lage en Perseptron
Sveip for å vise menyen
Siden målet er å implementere et multilags perceptron, bidrar det å definere en Perceptron-klasse til å organisere og initialisere modellen på en effektiv måte. Klassen vil inneholde ett attributt, layers, som er en liste med Layer-objekter som representerer nettverkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablene som brukes til å initialisere lagene er:
input_size: antall inndatafunksjoner;hidden_size: antall nevroner i hvert skjult lag (begge skjulte lag vil ha samme antall nevroner i dette tilfellet);output_size: antall nevroner i utgangslaget.
Strukturen til det resulterende multillags perceptronet vil inkludere:
- Inndatalag → mottar dataene;
- To skjulte lag → behandler inndataene og trekker ut mønstre;
- Utgangslag → produserer den endelige prediksjonen.
Swipe to start coding
Målet ditt er å sette opp den grunnleggende strukturen til et multilags perceptron (MLP) ved å implementere koden for dets lag.
Følg disse trinnene nøye:
- Initialiser lagparametere inne i
__init__()-metoden:
- Opprett vektmatrisen med form
(n_neurons, n_inputs);- Opprett bias-vektoren med form
(n_neurons, 1); - Fyll begge med tilfeldige verdier fra en uniform fordeling i området [−1,1) ved å bruke
np.random.uniform().
- Opprett bias-vektoren med form
- Implementer fremoverpropagering inne i
forward()-metoden:
- Beregn råutdata for hver nevron ved å bruke skalarproduktet:
np.dot(self.weights, self.inputs) + self.biases
- Bruk den tildelte aktiveringsfunksjonen på dette resultatet og returner det aktiverte utdataet.
- Definer perceptron-lagene:
- Opprett to skjulte lag, hvert med
hidden_sizenevroner og bruk ReLU aktiveringsfunksjon; - Opprett ett utgangslag med
output_sizenevron(er) og sigmoid aktiveringsfunksjon.
Løsning
Takk for tilbakemeldingene dine!
single