Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Défi : Ajustement d'une Droite par Descente de Gradient | Analyse Mathématique
Mathématiques pour la Science des Données

bookDéfi : Ajustement d'une Droite par Descente de Gradient

Tâche

Swipe to start coding

Un étudiant souhaite utiliser la descente de gradient pour ajuster une droite à un ensemble de données représentant les années d'expérience par rapport au salaire (en milliers). L'objectif est de trouver la droite la mieux ajustée en modifiant la pente (mm) et l'ordonnée à l'origine (bb) à l'aide de mises à jour itératives.

Vous devez minimiser la fonction de perte :

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Les règles de mise à jour de la descente de gradient sont :

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Où :

  • α\alpha est le taux d'apprentissage (taille du pas) ;
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} est la dérivée partielle de la fonction de perte par rapport à mm ;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} est la dérivée partielle de la fonction de perte par rapport à bb.

Votre tâche :

  1. Complétez le code Python ci-dessous pour implémenter les étapes de la descente de gradient.
  2. Complétez les expressions manquantes en utilisant des opérations Python de base.
  3. Suivez l'évolution de m et b au fur et à mesure de l'exécution de l'algorithme.

Solution

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 11
single

single

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

close

Awesome!

Completion rate improved to 1.96

bookDéfi : Ajustement d'une Droite par Descente de Gradient

Glissez pour afficher le menu

Tâche

Swipe to start coding

Un étudiant souhaite utiliser la descente de gradient pour ajuster une droite à un ensemble de données représentant les années d'expérience par rapport au salaire (en milliers). L'objectif est de trouver la droite la mieux ajustée en modifiant la pente (mm) et l'ordonnée à l'origine (bb) à l'aide de mises à jour itératives.

Vous devez minimiser la fonction de perte :

1ni=1n(yi(mxi+b))2\frac{1}{n}\sum^n_{i=1}(y_i - (mx_i + b))^2

Les règles de mise à jour de la descente de gradient sont :

mmαJmbbαJbm \larr m - \alpha \frac{\partial J}{\partial m} \\[6 pt] b \larr b - \alpha \frac{\partial J}{\partial b}

Où :

  • α\alpha est le taux d'apprentissage (taille du pas) ;
  • Jm\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial m$}} est la dérivée partielle de la fonction de perte par rapport à mm ;
  • Jb\frac{\raisebox{1pt}{$\partial J$}}{\raisebox{-1pt}{$\partial b$}} est la dérivée partielle de la fonction de perte par rapport à bb.

Votre tâche :

  1. Complétez le code Python ci-dessous pour implémenter les étapes de la descente de gradient.
  2. Complétez les expressions manquantes en utilisant des opérations Python de base.
  3. Suivez l'évolution de m et b au fur et à mesure de l'exécution de l'algorithme.

Solution

Switch to desktopPassez à un bureau pour une pratique réelleContinuez d'où vous êtes en utilisant l'une des options ci-dessous
Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 11
single

single

some-alt