Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udfordring: Tilpasning af en Linje med Gradientnedstigning | Matematisk Analyse
Matematik for Datavidenskab

bookUdfordring: Tilpasning af en Linje med Gradientnedstigning

Opgave

Swipe to start coding

En studerende ønsker at bruge gradient descent til at tilpasse en ret linje til et datasæt, der viser erfaring i år versus løn (i tusinder). Målet er at finde den bedst tilpassede linje ved at justere hældningen (mm) og skæringen (bb) gennem iterative opdateringer.

Du skal minimere tabfunktionen:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Opdateringsreglerne for gradient descent er:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Hvor:

  • α\alpha er læringsraten (skridtlængden);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} er den partielle afledte af tabfunktionen med hensyn til mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} er den partielle afledte af tabfunktionen med hensyn til bb.

Din opgave:

  1. Udfyld Python-koden nedenfor for at implementere gradient descent-trinene.
  2. Udfyld de manglende udtryk ved hjælp af grundlæggende Python-operationer.
  3. Følg, hvordan m og b ændrer sig, mens algoritmen kører.

Løsning

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 11
single

single

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

close

Awesome!

Completion rate improved to 1.96

bookUdfordring: Tilpasning af en Linje med Gradientnedstigning

Stryg for at vise menuen

Opgave

Swipe to start coding

En studerende ønsker at bruge gradient descent til at tilpasse en ret linje til et datasæt, der viser erfaring i år versus løn (i tusinder). Målet er at finde den bedst tilpassede linje ved at justere hældningen (mm) og skæringen (bb) gennem iterative opdateringer.

Du skal minimere tabfunktionen:

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Opdateringsreglerne for gradient descent er:

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Hvor:

  • α\alpha er læringsraten (skridtlængden);
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} er den partielle afledte af tabfunktionen med hensyn til mm;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} er den partielle afledte af tabfunktionen med hensyn til bb.

Din opgave:

  1. Udfyld Python-koden nedenfor for at implementere gradient descent-trinene.
  2. Udfyld de manglende udtryk ved hjælp af grundlæggende Python-operationer.
  3. Følg, hvordan m og b ændrer sig, mens algoritmen kører.

Løsning

Switch to desktopSkift til skrivebord for at øve i den virkelige verdenFortsæt der, hvor du er, med en af nedenstående muligheder
Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 3. Kapitel 11
single

single

some-alt