Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Aktivierungsfunktionen Zusammenfassung | Abschnitt
Angewandtes Computer Vision

bookAktivierungsfunktionen Zusammenfassung

Swipe um das Menü anzuzeigen

Warum Aktivierungsfunktionen in CNNs entscheidend sind

Aktivierungsfunktionen führen Nichtlinearität in CNNs ein und ermöglichen es ihnen, komplexe Muster zu erlernen, die über die Fähigkeiten eines einfachen linearen Modells hinausgehen. Ohne Aktivierungsfunktionen wären CNNs nicht in der Lage, komplexe Zusammenhänge in Daten zu erkennen, was ihre Effektivität bei der Bildklassifikation und -erkennung einschränken würde. Die Wahl der richtigen Aktivierungsfunktion beeinflusst Trainingsgeschwindigkeit, Stabilität und Gesamtleistung.

Gängige Aktivierungsfunktionen

  • ReLU (Rectified Linear Unit): Die am häufigsten verwendete Aktivierungsfunktion in CNNs. Sie gibt nur positive Werte weiter und setzt alle negativen Eingaben auf Null, was sie recheneffizient macht und das Verschwinden von Gradienten verhindert. Allerdings können einige Neuronen durch das "Dying ReLU"-Problem inaktiv werden;
f(x)=max(0,x)f(x) = \max(0, x)
ReLU
  • Leaky ReLU: eine Variante von ReLU, die kleine negative Werte zulässt, anstatt sie auf Null zu setzen, wodurch inaktive Neuronen vermieden und der Gradientenfluss verbessert werden;
f(x)={x,x>0αx,x0f(x) = \begin{cases} x,\quad x > 0\\ \alpha x,\quad x \le 0 \end{cases}
Leaky ReLU
  • Sigmoid: komprimiert Eingabewerte in einen Bereich zwischen 0 und 1, wodurch sie für binäre Klassifikation geeignet ist. Allerdings tritt bei tiefen Netzwerken das Problem verschwindender Gradienten auf;
f(x)=11+exf(x) = \frac{1}{1+e^{-x}}
Sigmoid
  • Tanh: ähnlich wie Sigmoid, gibt jedoch Werte zwischen -1 und 1 aus und zentriert die Aktivierungen um Null;
f(x)=exexex+exf(x) = \frac{e^x - e^{-x}}{e^x + e^{-x}}
Tanh
  • Softmax: Wird typischerweise in der letzten Schicht für Mehrklassenklassifikation verwendet. Softmax wandelt rohe Netzwerkausgaben in Wahrscheinlichkeiten um und stellt sicher, dass diese sich zu Eins summieren, um eine bessere Interpretierbarkeit zu gewährleisten.
f(xi)=exijexjf(x_i) = \frac{e^{x_i}}{\sum_j{e^{x_j}}}
Softmax

Auswahl der richtigen Aktivierungsfunktion

ReLU ist die Standardwahl für versteckte Schichten aufgrund ihrer Effizienz und starken Leistung, während Leaky ReLU eine bessere Option ist, wenn das Problem der Inaktivität von Neuronen auftritt. Sigmoid und Tanh werden in tiefen CNNs im Allgemeinen vermieden, können aber in bestimmten Anwendungen dennoch nützlich sein. Softmax bleibt für Aufgaben der Mehrklassenklassifikation unerlässlich und sorgt für klare, auf Wahrscheinlichkeiten basierende Vorhersagen.

Die Auswahl der richtigen Aktivierungsfunktion ist entscheidend für die Optimierung der CNN-Leistung, das Gleichgewicht zwischen Effizienz und die Vermeidung von Problemen wie verschwindenden oder explodierenden Gradienten. Jede Funktion trägt auf einzigartige Weise dazu bei, wie ein Netzwerk visuelle Daten verarbeitet und daraus lernt.

1. Warum wird ReLU in tiefen CNNs gegenüber Sigmoid bevorzugt?

2. Welche Aktivierungsfunktion wird üblicherweise in der letzten Schicht eines Multi-Klassen-Klassifikations-CNN verwendet?

3. Was ist der Hauptvorteil von Leaky ReLU gegenüber dem Standard-ReLU?

question mark

Warum wird ReLU in tiefen CNNs gegenüber Sigmoid bevorzugt?

Select the correct answer

question mark

Welche Aktivierungsfunktion wird üblicherweise in der letzten Schicht eines Multi-Klassen-Klassifikations-CNN verwendet?

Select the correct answer

question mark

Was ist der Hauptvorteil von Leaky ReLU gegenüber dem Standard-ReLU?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 16

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 1. Kapitel 16
some-alt