Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Automatische Hyperparameter-Optimierung | Fazit
Einführung in Neuronale Netze

bookHerausforderung: Automatische Hyperparameter-Optimierung

Anstatt die Hyperparameter unseres Modells manuell auszuwählen, bietet die Randomized Search (RandomizedSearchCV) eine effizientere Methode zur Bestimmung einer optimalen Konfiguration. Im Gegensatz zur Grid Search (GridSearchCV), die systematisch alle möglichen Kombinationen von Hyperparametern prüft, wählt die Randomized Search eine zufällige Teilmenge dieser Kombinationen aus. Dieser Ansatz reduziert die Rechenkosten erheblich und liefert dennoch überzeugende Ergebnisse.

Gerade bei neuronalen Netzen, bei denen die Anzahl möglicher Hyperparameter-Kombinationen enorm sein kann, ist das vollständige Testen aller Optionen oft unpraktikabel. Die Randomized Search umgeht dieses Problem, indem sie eine festgelegte Anzahl zufällig ausgewählter Hyperparametersätze testet und so eine Balance zwischen Exploration und Effizienz schafft.

RandomizedSearchCV(
    estimator=model, 
    param_distributions=randomized_parameters, 
    n_iter=number_of_models_to_test,  # Number of random combinations to evaluate
    scoring='accuracy',  # Evaluation metric
    random_state=42,  # Ensures reproducibility
)
  • estimator: Das zu optimierende Modell (z. B. MLPClassifier);
  • param_distributions: Ein Dictionary, in dem die Schlüssel die Namen der Hyperparameter und die Werte Listen mit möglichen Ausprägungen sind;
  • n_iter: Gibt an, wie viele zufällige Kombinationen getestet werden sollen. Ein höherer Wert erhöht die Wahrscheinlichkeit, eine optimale Kombination zu finden, erfordert jedoch mehr Rechenleistung;
  • scoring: Definiert die Bewertungsmetrik (z. B. 'accuracy' für Klassifikationsaufgaben).
Aufgabe

Swipe to start coding

  1. In param_distributions Werte für zwei versteckte Schichten generieren, wobei jede Schicht die gleiche Anzahl an Neuronen hat, im Bereich von 20 bis 30 (einschließlich) mit einer Schrittweite von 2.
  2. In param_distributions die Lernratenwerte auf 0.02, 0.01 und 0.005 festlegen.
  3. In param_distributions 10 Zufallswerte für die Anzahl der Trainingsepochen generieren, wobei diese im Bereich von 10 bis 50 (exklusiv) liegen.
  4. Randomized Search mit 4 Iterationen anwenden (Anzahl der zu bewertenden Hyperparameter-Kombinationen) und accuracy als Bewertungsmetrik verwenden.

Lösung

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 3
single

single

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

close

Awesome!

Completion rate improved to 4

bookHerausforderung: Automatische Hyperparameter-Optimierung

Swipe um das Menü anzuzeigen

Anstatt die Hyperparameter unseres Modells manuell auszuwählen, bietet die Randomized Search (RandomizedSearchCV) eine effizientere Methode zur Bestimmung einer optimalen Konfiguration. Im Gegensatz zur Grid Search (GridSearchCV), die systematisch alle möglichen Kombinationen von Hyperparametern prüft, wählt die Randomized Search eine zufällige Teilmenge dieser Kombinationen aus. Dieser Ansatz reduziert die Rechenkosten erheblich und liefert dennoch überzeugende Ergebnisse.

Gerade bei neuronalen Netzen, bei denen die Anzahl möglicher Hyperparameter-Kombinationen enorm sein kann, ist das vollständige Testen aller Optionen oft unpraktikabel. Die Randomized Search umgeht dieses Problem, indem sie eine festgelegte Anzahl zufällig ausgewählter Hyperparametersätze testet und so eine Balance zwischen Exploration und Effizienz schafft.

RandomizedSearchCV(
    estimator=model, 
    param_distributions=randomized_parameters, 
    n_iter=number_of_models_to_test,  # Number of random combinations to evaluate
    scoring='accuracy',  # Evaluation metric
    random_state=42,  # Ensures reproducibility
)
  • estimator: Das zu optimierende Modell (z. B. MLPClassifier);
  • param_distributions: Ein Dictionary, in dem die Schlüssel die Namen der Hyperparameter und die Werte Listen mit möglichen Ausprägungen sind;
  • n_iter: Gibt an, wie viele zufällige Kombinationen getestet werden sollen. Ein höherer Wert erhöht die Wahrscheinlichkeit, eine optimale Kombination zu finden, erfordert jedoch mehr Rechenleistung;
  • scoring: Definiert die Bewertungsmetrik (z. B. 'accuracy' für Klassifikationsaufgaben).
Aufgabe

Swipe to start coding

  1. In param_distributions Werte für zwei versteckte Schichten generieren, wobei jede Schicht die gleiche Anzahl an Neuronen hat, im Bereich von 20 bis 30 (einschließlich) mit einer Schrittweite von 2.
  2. In param_distributions die Lernratenwerte auf 0.02, 0.01 und 0.005 festlegen.
  3. In param_distributions 10 Zufallswerte für die Anzahl der Trainingsepochen generieren, wobei diese im Bereich von 10 bis 50 (exklusiv) liegen.
  4. Randomized Search mit 4 Iterationen anwenden (Anzahl der zu bewertenden Hyperparameter-Kombinationen) und accuracy als Bewertungsmetrik verwenden.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 3
single

single

some-alt