Défi : Ajustement d'une Droite par Descente de Gradient
Swipe to start coding
Un étudiant souhaite utiliser la descente de gradient pour ajuster une droite à un ensemble de données représentant les années d'expérience par rapport au salaire (en milliers). L'objectif est de trouver la droite la mieux ajustée en modifiant la pente (m) et l'ordonnée à l'origine (b) à l'aide de mises à jour itératives.
Vous devez minimiser la fonction de perte :
n1i=1∑n(yi−(mxi+b))2Les règles de mise à jour de la descente de gradient sont :
m←m−α∂m∂Jb←b−α∂b∂JOù :
- α est le taux d'apprentissage (taille du pas) ;
- ∂m∂J est la dérivée partielle de la fonction de perte par rapport à m ;
- ∂b∂J est la dérivée partielle de la fonction de perte par rapport à b.
Votre tâche :
- Complétez le code Python ci-dessous pour implémenter les étapes de la descente de gradient.
- Complétez les expressions manquantes en utilisant des opérations Python de base.
- Suivez l'évolution de
m
etb
au fur et à mesure de l'exécution de l'algorithme.
Solution
Merci pour vos commentaires !
single
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Awesome!
Completion rate improved to 1.96
Défi : Ajustement d'une Droite par Descente de Gradient
Glissez pour afficher le menu
Swipe to start coding
Un étudiant souhaite utiliser la descente de gradient pour ajuster une droite à un ensemble de données représentant les années d'expérience par rapport au salaire (en milliers). L'objectif est de trouver la droite la mieux ajustée en modifiant la pente (m) et l'ordonnée à l'origine (b) à l'aide de mises à jour itératives.
Vous devez minimiser la fonction de perte :
n1i=1∑n(yi−(mxi+b))2Les règles de mise à jour de la descente de gradient sont :
m←m−α∂m∂Jb←b−α∂b∂JOù :
- α est le taux d'apprentissage (taille du pas) ;
- ∂m∂J est la dérivée partielle de la fonction de perte par rapport à m ;
- ∂b∂J est la dérivée partielle de la fonction de perte par rapport à b.
Votre tâche :
- Complétez le code Python ci-dessous pour implémenter les étapes de la descente de gradient.
- Complétez les expressions manquantes en utilisant des opérations Python de base.
- Suivez l'évolution de
m
etb
au fur et à mesure de l'exécution de l'algorithme.
Solution
Merci pour vos commentaires !
single