Utmaning: Anpassa en Linje med Gradientnedstigning
Swipe to start coding
En student vill använda gradientnedstigning för att anpassa en rät linje till en datamängd som visar antal år av erfarenhet mot lön (i tusental). Målet är att hitta den bäst anpassade linjen genom att justera lutningen (m) och skärningen (b) med hjälp av iterativa uppdateringar.
Du behöver minimera förlustfunktionen:
n1i=1∑n(yi−(mxi+b))2Uppdateringsreglerna för gradientnedstigning är:
m←m−α∂m∂Jb←b−α∂b∂JDär:
- α är inlärningshastigheten (stegstorlek);
- ∂m∂J är den partiella derivatan av förlustfunktionen med avseende på m;
- ∂b∂J är den partiella derivatan av förlustfunktionen med avseende på b.
Din uppgift:
- Fyll i Python-koden nedan för att implementera gradientnedstigningsstegen.
- Fyll i de saknade uttrycken med grundläggande Python-operationer.
- Följ hur
mochbförändras när algoritmen körs.
Lösning
Tack för dina kommentarer!
single
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
Awesome!
Completion rate improved to 1.96
Utmaning: Anpassa en Linje med Gradientnedstigning
Svep för att visa menyn
Swipe to start coding
En student vill använda gradientnedstigning för att anpassa en rät linje till en datamängd som visar antal år av erfarenhet mot lön (i tusental). Målet är att hitta den bäst anpassade linjen genom att justera lutningen (m) och skärningen (b) med hjälp av iterativa uppdateringar.
Du behöver minimera förlustfunktionen:
n1i=1∑n(yi−(mxi+b))2Uppdateringsreglerna för gradientnedstigning är:
m←m−α∂m∂Jb←b−α∂b∂JDär:
- α är inlärningshastigheten (stegstorlek);
- ∂m∂J är den partiella derivatan av förlustfunktionen med avseende på m;
- ∂b∂J är den partiella derivatan av förlustfunktionen med avseende på b.
Din uppgift:
- Fyll i Python-koden nedan för att implementera gradientnedstigningsstegen.
- Fyll i de saknade uttrycken med grundläggande Python-operationer.
- Följ hur
mochbförändras när algoritmen körs.
Lösning
Tack för dina kommentarer!
single