Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Uitdaging: Een Lijn Passen Met Gradient Descent | Wiskundige Analyse
Wiskunde voor Data Science

bookUitdaging: Een Lijn Passen Met Gradient Descent

Taak

Swipe to start coding

Een student wil gradient descent gebruiken om een rechte lijn te passen op een dataset met jaren ervaring tegenover salaris (in duizenden). Het doel is om de best passende lijn te vinden door de helling (mm) en intercept (bb) iteratief aan te passen.

Je moet de verliesfunctie minimaliseren:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

De update-regels voor gradient descent zijn:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Waarbij:

  • α\alpha de leersnelheid (stapgrootte) is;
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} de partiële afgeleide van de verliesfunctie naar mm is;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} de partiële afgeleide van de verliesfunctie naar bb is.

Jouw opdracht:

  1. Maak de onderstaande Python-code af om de gradient descent-stappen te implementeren.
  2. Vul de ontbrekende expressies in met behulp van basis Python-bewerkingen.
  3. Houd bij hoe m en b veranderen terwijl het algoritme draait.

Oplossing

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 3. Hoofdstuk 11
single

single

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

close

Awesome!

Completion rate improved to 1.96

bookUitdaging: Een Lijn Passen Met Gradient Descent

Veeg om het menu te tonen

Taak

Swipe to start coding

Een student wil gradient descent gebruiken om een rechte lijn te passen op een dataset met jaren ervaring tegenover salaris (in duizenden). Het doel is om de best passende lijn te vinden door de helling (mm) en intercept (bb) iteratief aan te passen.

Je moet de verliesfunctie minimaliseren:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

De update-regels voor gradient descent zijn:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Waarbij:

  • α\alpha de leersnelheid (stapgrootte) is;
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} de partiële afgeleide van de verliesfunctie naar mm is;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} de partiële afgeleide van de verliesfunctie naar bb is.

Jouw opdracht:

  1. Maak de onderstaande Python-code af om de gradient descent-stappen te implementeren.
  2. Vul de ontbrekende expressies in met behulp van basis Python-bewerkingen.
  3. Houd bij hoe m en b veranderen terwijl het algoritme draait.

Oplossing

Switch to desktopSchakel over naar desktop voor praktijkervaringGa verder vanaf waar je bent met een van de onderstaande opties
Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 3. Hoofdstuk 11
single

single

some-alt