Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Herausforderung: Anpassung Einer Geraden Mit Gradientenabstieg | Mathematische Analysis
Mathematik für Data Science

bookHerausforderung: Anpassung Einer Geraden Mit Gradientenabstieg

Aufgabe

Swipe to start coding

Ein Student möchte den Gradientenabstieg verwenden, um eine Gerade an einen Datensatz anzupassen, der den Zusammenhang zwischen Jahren an Berufserfahrung und Gehalt (in Tausend) zeigt. Das Ziel ist es, die bestmögliche Gerade zu finden, indem Steigung (mm) und Achsenabschnitt (bb) iterativ angepasst werden.

Die zu minimierende Verlustfunktion lautet:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Die Update-Regeln für den Gradientenabstieg sind:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Dabei gilt:

  • α\alpha ist die Lernrate (Schrittweite);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} ist die partielle Ableitung der Verlustfunktion nach mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} ist die partielle Ableitung der Verlustfunktion nach bb.

Deine Aufgabe:

  1. Vervollständige den untenstehenden Python-Code, um die Schritte des Gradientenabstiegs zu implementieren.
  2. Ergänze fehlende Ausdrücke mit grundlegenden Python-Operationen.
  3. Verfolge, wie sich m und b während der Ausführung des Algorithmus verändern.

Lösung

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 11
single

single

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

Can you explain this in simpler terms?

What are the main points I should remember?

Can you give me an example?

close

Awesome!

Completion rate improved to 1.96

bookHerausforderung: Anpassung Einer Geraden Mit Gradientenabstieg

Swipe um das Menü anzuzeigen

Aufgabe

Swipe to start coding

Ein Student möchte den Gradientenabstieg verwenden, um eine Gerade an einen Datensatz anzupassen, der den Zusammenhang zwischen Jahren an Berufserfahrung und Gehalt (in Tausend) zeigt. Das Ziel ist es, die bestmögliche Gerade zu finden, indem Steigung (mm) und Achsenabschnitt (bb) iterativ angepasst werden.

Die zu minimierende Verlustfunktion lautet:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Die Update-Regeln für den Gradientenabstieg sind:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Dabei gilt:

  • α\alpha ist die Lernrate (Schrittweite);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} ist die partielle Ableitung der Verlustfunktion nach mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} ist die partielle Ableitung der Verlustfunktion nach bb.

Deine Aufgabe:

  1. Vervollständige den untenstehenden Python-Code, um die Schritte des Gradientenabstiegs zu implementieren.
  2. Ergänze fehlende Ausdrücke mit grundlegenden Python-Operationen.
  3. Verfolge, wie sich m und b während der Ausführung des Algorithmus verändern.

Lösung

Switch to desktopWechseln Sie zum Desktop, um in der realen Welt zu übenFahren Sie dort fort, wo Sie sind, indem Sie eine der folgenden Optionen verwenden
War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 11
single

single

some-alt