Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Aktivierungsfunktionen | Abschnitt
Practice
Projects
Quizzes & Challenges
Quizze
Challenges
/
Grundlagen Neuronaler Netze

bookAktivierungsfunktionen

Swipe um das Menü anzuzeigen

"Chef" eines Neurons

Note
Definition

Aktivierungsfunktionen sind mathematische Funktionen, die den gewichteten Input eines Neurons in einen Ausgabewert umwandeln. Dieser Ausgabewert bestimmt, wie stark das Neuron aktiviert wird, und ermöglicht es neuronalen Netzen, nichtlineare Zusammenhänge zu erlernen.

Stellen Sie sich eine Abteilung in einem Büro vor. Die Mitarbeitenden verarbeiten eingehende Informationen – diese Mitarbeitenden stehen für die Gewichte eines Neurons, und die Informationen, die sie erhalten, sind der Input. Nachdem die Mitarbeitenden ihre Arbeit erledigt haben, entscheidet der Abteilungsleiter, was als Nächstes zu tun ist. In dieser Analogie ist der Abteilungsleiter die Aktivierungsfunktion.

Jedes Gewicht (Mitarbeiter) verarbeitet Informationen unterschiedlich, aber die endgültige Entscheidung trifft die Aktivierungsfunktion — der interne „Chef“ des Neurons. Sie bewertet den verarbeiteten Wert und entscheidet, ob dieses Signal weitergeleitet oder unterdrückt wird. Dies hilft dem Netzwerk, nur die relevantesten Informationen weiterzugeben.

Note
Hinweis

Die Arbeiter in diesem Beispiel agieren als Neuronenverbindungen. Sie nehmen ihre Eingaben auf und transformieren sie entsprechend den ihnen bekannten Gewichten.

Mathematisch führt eine Aktivierungsfunktion eine Nichtlinearität ein, wodurch Neuronen komplexe Muster erkennen können, die lineare Funktionen nicht erfassen. Ohne nichtlineare Aktivierungsfunktionen würde ein neuronales Netzwerk wie ein einfaches lineares Modell agieren, unabhängig von der Anzahl der Schichten.

Optionen für Aktivierungsfunktionen

Neuronale Netzwerke verwenden häufig die folgenden Aktivierungsfunktionen:

  • Sigmoid: ordnet jede reelle Zahl einem Wert im Bereich 0 bis 1 zu. Nützlich, wenn die Ausgabe eine Wahrscheinlichkeit oder einen Grad an Sicherheit darstellt;
  • ReLU (Rectified Linear Unit): gibt 0 für negative Werte aus und lässt positive Werte unverändert. ReLU ist einfach, effizient und unterstützt Netzwerke beim Erlernen komplexer Muster, ohne das bei Sigmoid/Tanh häufig auftretende Vanishing-Gradient-Problem;
  • Tanh (Hyperbolische Tangensfunktion): ähnlich wie Sigmoid, gibt jedoch Werte zwischen –1 und 1 aus. Dadurch entsteht ein stärkerer Gradient für negative Eingaben, was sie in versteckten Schichten oft effektiver als Sigmoid macht;

Unterschiede bei Aktivierungsfunktionen

Verschiedene Aktivierungsfunktionen werden in unterschiedlichen Fällen verwendet, abhängig davon, welche Aufgabe das neuronale Netzwerk lösen soll.

Wird die ReLU-Aktivierungsfunktion verwendet, arbeitet das Neuron nach einer einfachen Regel — es behält alle wichtigen (positiven) Werte und verwirft alle unwichtigen (negativen) Werte.

Verwendet ein Neuron eine Sigmoid-Aktivierung, liegt seine Ausgabe zwischen 0 und 1 und kann als Wahrscheinlichkeits- oder Wichtigkeitswert interpretiert werden. Dies unterstützt das Netzwerk dabei, zu bestimmen, wie stark das Neuron die nächste Schicht beeinflussen soll.

Insgesamt ist die Aktivierungsfunktion die Regel, die bestimmt, wie ein Neuron auf eingehende Informationen reagiert. Sie verleiht Flexibilität, beeinflusst den Signalfluss durch das Netzwerk und ermöglicht es dem Modell, komplexe, mehrschichtige Muster zu erlernen — wodurch neuronale Netze letztlich zu präzisen und anpassungsfähigen Vorhersagen fähig werden.

1. Was ist eine Aktivierungsfunktion in einem neuronalen Netzwerk?

2. Was macht die Sigmoid-Aktivierungsfunktion?

3. Welche Rolle spielt die Aktivierungsfunktion in einem neuronalen Netzwerk?

question mark

Was ist eine Aktivierungsfunktion in einem neuronalen Netzwerk?

Select the correct answer

question mark

Was macht die Sigmoid-Aktivierungsfunktion?

Select the correct answer

question mark

Welche Rolle spielt die Aktivierungsfunktion in einem neuronalen Netzwerk?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 6

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 1. Kapitel 6
some-alt