Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Erstellung Eines Perzeptrons | Neural Network von Grund Auf
Einführung in Neuronale Netze

bookHerausforderung: Erstellung Eines Perzeptrons

Da das Ziel die Implementierung eines Mehrschicht-Perzeptrons ist, trägt die Definition einer Perceptron-Klasse dazu bei, das Modell effizient zu organisieren und zu initialisieren. Die Klasse enthält ein einziges Attribut, layers, das eine Liste von Layer-Objekten ist und die Struktur des Netzwerks repräsentiert:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Die Variablen zur Initialisierung der Schichten sind:

  • input_size: die Anzahl der Eingabemerkmale;
  • hidden_size: die Anzahl der Neuronen in jeder verdeckten Schicht (beide verdeckten Schichten haben in diesem Fall die gleiche Anzahl an Neuronen);
  • output_size: die Anzahl der Neuronen in der Ausgabeschicht.

Die Struktur des resultierenden Mehrschicht-Perzeptrons umfasst:

  1. Eingabeschicht → empfängt die Daten;
  2. Zwei verdeckte Schichten → verarbeiten die Eingaben und extrahieren Muster;
  3. Ausgabeschicht → erzeugt die endgültige Vorhersage.
Aufgabe

Swipe to start coding

Ihr Ziel ist es, die Grundstruktur eines Multilayer-Perzeptrons (MLP) aufzubauen, indem Sie den Code für dessen Schichten implementieren.

Befolgen Sie diese Schritte sorgfältig:

  1. Initialisierung der Schichtparameter innerhalb der Methode __init__():
  • Erstellen Sie die Gewichtsmatrix mit der Form (n_neurons, n_inputs);
    • Erstellen Sie den Bias-Vektor mit der Form (n_neurons, 1);
    • Füllen Sie beide mit Zufallswerten aus einer gleichverteilten Verteilung im Bereich [1,1)[-1, 1) mithilfe von np.random.uniform().
  1. Implementierung der Vorwärtsausbreitung innerhalb der Methode forward():
  • Berechnen Sie den Rohoutput jedes Neurons mittels Skalarprodukt:
np.dot(self.weights, self.inputs) + self.biases
  • Wenden Sie die zugewiesene Aktivierungsfunktion auf dieses Ergebnis an und geben Sie den aktivierten Output zurück.
  1. Definition der Perzeptron-Schichten:
    • Erstellen Sie zwei versteckte Schichten, jeweils mit hidden_size Neuronen und der ReLU-Aktivierungsfunktion;
    • Erstellen Sie eine Ausgabeschicht mit output_size Neuron(en) und der Sigmoid-Aktivierungsfunktion.

Lösung

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
single

single

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

Can you explain how the `Layer` class should be defined?

What activation functions are typically used in the hidden and output layers?

How do I initialize the layers using `input_size`, `hidden_size`, and `output_size`?

close

Awesome!

Completion rate improved to 4

bookHerausforderung: Erstellung Eines Perzeptrons

Swipe um das Menü anzuzeigen

Da das Ziel die Implementierung eines Mehrschicht-Perzeptrons ist, trägt die Definition einer Perceptron-Klasse dazu bei, das Modell effizient zu organisieren und zu initialisieren. Die Klasse enthält ein einziges Attribut, layers, das eine Liste von Layer-Objekten ist und die Struktur des Netzwerks repräsentiert:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Die Variablen zur Initialisierung der Schichten sind:

  • input_size: die Anzahl der Eingabemerkmale;
  • hidden_size: die Anzahl der Neuronen in jeder verdeckten Schicht (beide verdeckten Schichten haben in diesem Fall die gleiche Anzahl an Neuronen);
  • output_size: die Anzahl der Neuronen in der Ausgabeschicht.

Die Struktur des resultierenden Mehrschicht-Perzeptrons umfasst:

  1. Eingabeschicht → empfängt die Daten;
  2. Zwei verdeckte Schichten → verarbeiten die Eingaben und extrahieren Muster;
  3. Ausgabeschicht → erzeugt die endgültige Vorhersage.
Aufgabe

Swipe to start coding

Ihr Ziel ist es, die Grundstruktur eines Multilayer-Perzeptrons (MLP) aufzubauen, indem Sie den Code für dessen Schichten implementieren.

Befolgen Sie diese Schritte sorgfältig:

  1. Initialisierung der Schichtparameter innerhalb der Methode __init__():
  • Erstellen Sie die Gewichtsmatrix mit der Form (n_neurons, n_inputs);
    • Erstellen Sie den Bias-Vektor mit der Form (n_neurons, 1);
    • Füllen Sie beide mit Zufallswerten aus einer gleichverteilten Verteilung im Bereich [1,1)[-1, 1) mithilfe von np.random.uniform().
  1. Implementierung der Vorwärtsausbreitung innerhalb der Methode forward():
  • Berechnen Sie den Rohoutput jedes Neurons mittels Skalarprodukt:
np.dot(self.weights, self.inputs) + self.biases
  • Wenden Sie die zugewiesene Aktivierungsfunktion auf dieses Ergebnis an und geben Sie den aktivierten Output zurück.
  1. Definition der Perzeptron-Schichten:
    • Erstellen Sie zwei versteckte Schichten, jeweils mit hidden_size Neuronen und der ReLU-Aktivierungsfunktion;
    • Erstellen Sie eine Ausgabeschicht mit output_size Neuron(en) und der Sigmoid-Aktivierungsfunktion.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
single

single

some-alt