Herausforderung: Erstellung Eines Perzeptrons
Da das Ziel die Implementierung eines Mehrschicht-Perzeptrons ist, trägt die Definition einer Perceptron-Klasse dazu bei, das Modell effizient zu organisieren und zu initialisieren. Die Klasse enthält ein einziges Attribut, layers, das eine Liste von Layer-Objekten ist und die Struktur des Netzwerks repräsentiert:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Die Variablen zur Initialisierung der Schichten sind:
input_size: die Anzahl der Eingabemerkmale;hidden_size: die Anzahl der Neuronen in jeder verdeckten Schicht (beide verdeckten Schichten haben in diesem Fall die gleiche Anzahl an Neuronen);output_size: die Anzahl der Neuronen in der Ausgabeschicht.
Die Struktur des resultierenden Mehrschicht-Perzeptrons umfasst:
- Eingabeschicht → empfängt die Daten;
- Zwei verdeckte Schichten → verarbeiten die Eingaben und extrahieren Muster;
- Ausgabeschicht → erzeugt die endgültige Vorhersage.
Swipe to start coding
Ihr Ziel ist es, die Grundstruktur eines Multilayer-Perzeptrons (MLP) aufzubauen, indem Sie den Code für dessen Schichten implementieren.
Befolgen Sie diese Schritte sorgfältig:
- Initialisierung der Schichtparameter innerhalb der Methode
__init__():
- Erstellen Sie die Gewichtsmatrix mit der Form
(n_neurons, n_inputs);- Erstellen Sie den Bias-Vektor mit der Form
(n_neurons, 1); - Füllen Sie beide mit Zufallswerten aus einer gleichverteilten Verteilung im Bereich [−1,1) mithilfe von
np.random.uniform().
- Erstellen Sie den Bias-Vektor mit der Form
- Implementierung der Vorwärtsausbreitung innerhalb der Methode
forward():
- Berechnen Sie den Rohoutput jedes Neurons mittels Skalarprodukt:
np.dot(self.weights, self.inputs) + self.biases
- Wenden Sie die zugewiesene Aktivierungsfunktion auf dieses Ergebnis an und geben Sie den aktivierten Output zurück.
- Definition der Perzeptron-Schichten:
- Erstellen Sie zwei versteckte Schichten, jeweils mit
hidden_sizeNeuronen und der ReLU-Aktivierungsfunktion; - Erstellen Sie eine Ausgabeschicht mit
output_sizeNeuron(en) und der Sigmoid-Aktivierungsfunktion.
- Erstellen Sie zwei versteckte Schichten, jeweils mit
Lösung
Danke für Ihr Feedback!
single
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen
Can you explain how the `Layer` class should be defined?
What activation functions are typically used in the hidden and output layers?
How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?
Awesome!
Completion rate improved to 4
Herausforderung: Erstellung Eines Perzeptrons
Swipe um das Menü anzuzeigen
Da das Ziel die Implementierung eines Mehrschicht-Perzeptrons ist, trägt die Definition einer Perceptron-Klasse dazu bei, das Modell effizient zu organisieren und zu initialisieren. Die Klasse enthält ein einziges Attribut, layers, das eine Liste von Layer-Objekten ist und die Struktur des Netzwerks repräsentiert:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Die Variablen zur Initialisierung der Schichten sind:
input_size: die Anzahl der Eingabemerkmale;hidden_size: die Anzahl der Neuronen in jeder verdeckten Schicht (beide verdeckten Schichten haben in diesem Fall die gleiche Anzahl an Neuronen);output_size: die Anzahl der Neuronen in der Ausgabeschicht.
Die Struktur des resultierenden Mehrschicht-Perzeptrons umfasst:
- Eingabeschicht → empfängt die Daten;
- Zwei verdeckte Schichten → verarbeiten die Eingaben und extrahieren Muster;
- Ausgabeschicht → erzeugt die endgültige Vorhersage.
Swipe to start coding
Ihr Ziel ist es, die Grundstruktur eines Multilayer-Perzeptrons (MLP) aufzubauen, indem Sie den Code für dessen Schichten implementieren.
Befolgen Sie diese Schritte sorgfältig:
- Initialisierung der Schichtparameter innerhalb der Methode
__init__():
- Erstellen Sie die Gewichtsmatrix mit der Form
(n_neurons, n_inputs);- Erstellen Sie den Bias-Vektor mit der Form
(n_neurons, 1); - Füllen Sie beide mit Zufallswerten aus einer gleichverteilten Verteilung im Bereich [−1,1) mithilfe von
np.random.uniform().
- Erstellen Sie den Bias-Vektor mit der Form
- Implementierung der Vorwärtsausbreitung innerhalb der Methode
forward():
- Berechnen Sie den Rohoutput jedes Neurons mittels Skalarprodukt:
np.dot(self.weights, self.inputs) + self.biases
- Wenden Sie die zugewiesene Aktivierungsfunktion auf dieses Ergebnis an und geben Sie den aktivierten Output zurück.
- Definition der Perzeptron-Schichten:
- Erstellen Sie zwei versteckte Schichten, jeweils mit
hidden_sizeNeuronen und der ReLU-Aktivierungsfunktion; - Erstellen Sie eine Ausgabeschicht mit
output_sizeNeuron(en) und der Sigmoid-Aktivierungsfunktion.
- Erstellen Sie zwei versteckte Schichten, jeweils mit
Lösung
Danke für Ihr Feedback!
single