Udfordring: Oprettelse af en Perceptron
Da vores mål er at implementere en multilagsperceptron, vil oprettelsen af en Perceptron-klasse forenkle initialiseringen af modellen. Dens eneste attribut, layers, er i bund og grund en liste af Layer-objekter, der definerer netværkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerne, der bruges til at initialisere lagene, er følgende:
input_size: antallet af inputfunktioner;hidden_size: antallet af neuroner i hver skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);output_size: antallet af neuroner i outputlaget.
Strukturen af den resulterende perceptron bør være som følger:
Swipe to start coding
Dit mål er at opstille den grundlæggende struktur for perceptronen ved at implementere dens lag:
-
Fuldfør lagets initialisering (
__init__()-metoden):- Initialiser vægtmatricen (formen er
(n_neurons, n_neurons)); - Initialiser biasvektoren (formen er
(n_neurons, 1)).
Udfyld dem med tilfældige værdier fra en uniform fordeling i intervallet [−1,1). Brug funktionen
np.random.uniform()til dette. - Initialiser vægtmatricen (formen er
-
Fuldfør lagets fremadrettede propagationsmetode (
forward()):- Beregn neurons rå outputværdier. Brug funktionen
np.dot()til prikproduktet; - Anvend aktiveringsfunktionen på de rå output og returnér resultatet.
- Beregn neurons rå outputværdier. Brug funktionen
-
Definér tre lag:
- To skjulte lag: hvert lag skal have
hidden_sizeneuroner og bruge aktiveringsfunktionenrelu; - Et outputlag: dette skal bruge aktiveringsfunktionen
sigmoid.
- To skjulte lag: hvert lag skal have
Løsning
Tak for dine kommentarer!
single
Spørg AI
Spørg AI
Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat
Awesome!
Completion rate improved to 4
Udfordring: Oprettelse af en Perceptron
Stryg for at vise menuen
Da vores mål er at implementere en multilagsperceptron, vil oprettelsen af en Perceptron-klasse forenkle initialiseringen af modellen. Dens eneste attribut, layers, er i bund og grund en liste af Layer-objekter, der definerer netværkets struktur:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Variablerne, der bruges til at initialisere lagene, er følgende:
input_size: antallet af inputfunktioner;hidden_size: antallet af neuroner i hver skjult lag (begge skjulte lag vil i dette tilfælde have samme antal neuroner);output_size: antallet af neuroner i outputlaget.
Strukturen af den resulterende perceptron bør være som følger:
Swipe to start coding
Dit mål er at opstille den grundlæggende struktur for perceptronen ved at implementere dens lag:
-
Fuldfør lagets initialisering (
__init__()-metoden):- Initialiser vægtmatricen (formen er
(n_neurons, n_neurons)); - Initialiser biasvektoren (formen er
(n_neurons, 1)).
Udfyld dem med tilfældige værdier fra en uniform fordeling i intervallet [−1,1). Brug funktionen
np.random.uniform()til dette. - Initialiser vægtmatricen (formen er
-
Fuldfør lagets fremadrettede propagationsmetode (
forward()):- Beregn neurons rå outputværdier. Brug funktionen
np.dot()til prikproduktet; - Anvend aktiveringsfunktionen på de rå output og returnér resultatet.
- Beregn neurons rå outputværdier. Brug funktionen
-
Definér tre lag:
- To skjulte lag: hvert lag skal have
hidden_sizeneuroner og bruge aktiveringsfunktionenrelu; - Et outputlag: dette skal bruge aktiveringsfunktionen
sigmoid.
- To skjulte lag: hvert lag skal have
Løsning
Tak for dine kommentarer!
single