Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Erstellung eines Perzeptrons | Neural Network von Grund Auf
Einführung in Neuronale Netze mit Python

bookHerausforderung: Erstellung eines Perzeptrons

Um ein Multilayer-Perzeptron (MLP) zu erstellen, ist es hilfreich, eine Perceptron-Klasse zu definieren. Diese speichert eine Liste von Layer-Objekten, aus denen das Netzwerk besteht:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Das MLP verwendet drei Werte:

  • input_size: Anzahl der Eingabemerkmale;
  • hidden_size: Anzahl der Neuronen in jeder versteckten Schicht;
  • output_size: Anzahl der Neuronen in der Ausgabeschicht.

Das Modell besteht somit aus:

  1. Einer Eingabeschicht;
  2. Zwei versteckten Schichten (gleiche Neuronenanzahl, ReLU);
  3. Einer Ausgabeschicht (Sigmoid).
Aufgabe

Swipe to start coding

Ihre Aufgabe ist es, die Grundstruktur dieses MLP zu implementieren.

1. Initialisierung der Schichtparameter (__init__)

  • Erstellen Sie eine Gewichtsmatrix mit der Form (n_neurons, n_inputs);
  • Erstellen Sie einen Bias-Vektor mit der Form (n_neurons, 1);
  • Füllen Sie beide mit Zufallswerten im Bereich [-1, 1) mittels np.random.uniform().

2. Implementierung der Vorwärtspropagation (forward)

  • Berechnen Sie die Roh-Ausgaben der Neuronen:
np.dot(self.weights, self.inputs) + self.biases
  • Wenden Sie die zugewiesene Aktivierungsfunktion an und geben Sie das Ergebnis zurück.

3. Definition der MLP-Schichten

  • Zwei versteckte Schichten, jeweils mit hidden_size Neuronen und ReLU-Aktivierung;
  • Eine Ausgabeschicht mit output_size Neuronen und Sigmoid-Aktivierung.

Lösung

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
single

single

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

Can you explain how to implement the Layer class for this MLP?

What activation functions should I use for each layer?

How do I connect the layers together in the Perceptron class?

close

Awesome!

Completion rate improved to 4

bookHerausforderung: Erstellung eines Perzeptrons

Swipe um das Menü anzuzeigen

Um ein Multilayer-Perzeptron (MLP) zu erstellen, ist es hilfreich, eine Perceptron-Klasse zu definieren. Diese speichert eine Liste von Layer-Objekten, aus denen das Netzwerk besteht:

class Perceptron:
    def __init__(self, layers):
        self.layers = layers

Das MLP verwendet drei Werte:

  • input_size: Anzahl der Eingabemerkmale;
  • hidden_size: Anzahl der Neuronen in jeder versteckten Schicht;
  • output_size: Anzahl der Neuronen in der Ausgabeschicht.

Das Modell besteht somit aus:

  1. Einer Eingabeschicht;
  2. Zwei versteckten Schichten (gleiche Neuronenanzahl, ReLU);
  3. Einer Ausgabeschicht (Sigmoid).
Aufgabe

Swipe to start coding

Ihre Aufgabe ist es, die Grundstruktur dieses MLP zu implementieren.

1. Initialisierung der Schichtparameter (__init__)

  • Erstellen Sie eine Gewichtsmatrix mit der Form (n_neurons, n_inputs);
  • Erstellen Sie einen Bias-Vektor mit der Form (n_neurons, 1);
  • Füllen Sie beide mit Zufallswerten im Bereich [-1, 1) mittels np.random.uniform().

2. Implementierung der Vorwärtspropagation (forward)

  • Berechnen Sie die Roh-Ausgaben der Neuronen:
np.dot(self.weights, self.inputs) + self.biases
  • Wenden Sie die zugewiesene Aktivierungsfunktion an und geben Sie das Ergebnis zurück.

3. Definition der MLP-Schichten

  • Zwei versteckte Schichten, jeweils mit hidden_size Neuronen und ReLU-Aktivierung;
  • Eine Ausgabeschicht mit output_size Neuronen und Sigmoid-Aktivierung.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 4
single

single

some-alt