Herausforderung: Erstellung eines Perzeptrons
Um ein Multilayer-Perzeptron (MLP) zu erstellen, ist es hilfreich, eine Perceptron-Klasse zu definieren. Diese speichert eine Liste von Layer-Objekten, aus denen das Netzwerk besteht:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Das MLP verwendet drei Werte:
input_size: Anzahl der Eingabemerkmale;hidden_size: Anzahl der Neuronen in jeder versteckten Schicht;output_size: Anzahl der Neuronen in der Ausgabeschicht.
Das Modell besteht somit aus:
- Einer Eingabeschicht;
- Zwei versteckten Schichten (gleiche Neuronenanzahl, ReLU);
- Einer Ausgabeschicht (Sigmoid).
Swipe to start coding
Ihre Aufgabe ist es, die Grundstruktur dieses MLP zu implementieren.
1. Initialisierung der Schichtparameter (__init__)
- Erstellen Sie eine Gewichtsmatrix mit der Form
(n_neurons, n_inputs); - Erstellen Sie einen Bias-Vektor mit der Form
(n_neurons, 1); - Füllen Sie beide mit Zufallswerten im Bereich [-1, 1) mittels
np.random.uniform().
2. Implementierung der Vorwärtspropagation (forward)
- Berechnen Sie die Roh-Ausgaben der Neuronen:
np.dot(self.weights, self.inputs) + self.biases
- Wenden Sie die zugewiesene Aktivierungsfunktion an und geben Sie das Ergebnis zurück.
3. Definition der MLP-Schichten
- Zwei versteckte Schichten, jeweils mit
hidden_sizeNeuronen und ReLU-Aktivierung; - Eine Ausgabeschicht mit
output_sizeNeuronen und Sigmoid-Aktivierung.
Lösung
Danke für Ihr Feedback!
single
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen
Can you explain how to implement the Layer class for this MLP?
What activation functions should I use for each layer?
How do I connect the layers together in the Perceptron class?
Awesome!
Completion rate improved to 4
Herausforderung: Erstellung eines Perzeptrons
Swipe um das Menü anzuzeigen
Um ein Multilayer-Perzeptron (MLP) zu erstellen, ist es hilfreich, eine Perceptron-Klasse zu definieren. Diese speichert eine Liste von Layer-Objekten, aus denen das Netzwerk besteht:
class Perceptron:
def __init__(self, layers):
self.layers = layers
Das MLP verwendet drei Werte:
input_size: Anzahl der Eingabemerkmale;hidden_size: Anzahl der Neuronen in jeder versteckten Schicht;output_size: Anzahl der Neuronen in der Ausgabeschicht.
Das Modell besteht somit aus:
- Einer Eingabeschicht;
- Zwei versteckten Schichten (gleiche Neuronenanzahl, ReLU);
- Einer Ausgabeschicht (Sigmoid).
Swipe to start coding
Ihre Aufgabe ist es, die Grundstruktur dieses MLP zu implementieren.
1. Initialisierung der Schichtparameter (__init__)
- Erstellen Sie eine Gewichtsmatrix mit der Form
(n_neurons, n_inputs); - Erstellen Sie einen Bias-Vektor mit der Form
(n_neurons, 1); - Füllen Sie beide mit Zufallswerten im Bereich [-1, 1) mittels
np.random.uniform().
2. Implementierung der Vorwärtspropagation (forward)
- Berechnen Sie die Roh-Ausgaben der Neuronen:
np.dot(self.weights, self.inputs) + self.biases
- Wenden Sie die zugewiesene Aktivierungsfunktion an und geben Sie das Ergebnis zurück.
3. Definition der MLP-Schichten
- Zwei versteckte Schichten, jeweils mit
hidden_sizeNeuronen und ReLU-Aktivierung; - Eine Ausgabeschicht mit
output_sizeNeuronen und Sigmoid-Aktivierung.
Lösung
Danke für Ihr Feedback!
single