Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Détermination des Paramètres | Régression Linéaire Simple
Régression Linéaire Avec Python

bookDétermination des Paramètres

Nous savons maintenant que la régression linéaire consiste simplement en une droite qui s'ajuste au mieux aux données. Mais comment déterminer laquelle est la bonne ?

Il est possible de calculer la différence entre la valeur prédite et la valeur cible réelle pour chaque point de données dans l'ensemble d'entraînement.
Ces différences sont appelées résidus (ou erreurs). L'objectif est de rendre les résidus aussi petits que possible.

Moindres carrés ordinaires

L'approche par défaut est la méthode des moindres carrés ordinaires (OLS) :
Prendre chaque résidu, l'élever au carré (principalement pour éliminer le signe du résidu), puis les additionner tous.
Ceci est appelé SSR (somme des résidus au carré). La tâche consiste à trouver les paramètres qui minimisent la SSR.

Équation normale

Heureusement, il n'est pas nécessaire d'essayer toutes les droites et de calculer la SSR pour chacune d'elles. La tâche de minimiser la SSR possède une solution mathématique qui n'est pas très coûteuse en calcul.
Cette solution s'appelle l'équation normale.

Cette équation nous donne les paramètres d'une droite avec la SSR minimale.
Vous n'avez pas compris comment cela fonctionne ? Pas d'inquiétude ! Les mathématiques sont assez complexes. Mais il n'est pas nécessaire de calculer les paramètres à la main. De nombreuses bibliothèques ont déjà implémenté la régression linéaire.

Quiz

1. Considérez l'image ci-dessus. Quelle droite de régression est la meilleure ?

2. y_true - y_predicted est appelé

question mark

Considérez l'image ci-dessus. Quelle droite de régression est la meilleure ?

Select the correct answer

question mark

y_true - y_predicted est appelé

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Awesome!

Completion rate improved to 5.26

bookDétermination des Paramètres

Glissez pour afficher le menu

Nous savons maintenant que la régression linéaire consiste simplement en une droite qui s'ajuste au mieux aux données. Mais comment déterminer laquelle est la bonne ?

Il est possible de calculer la différence entre la valeur prédite et la valeur cible réelle pour chaque point de données dans l'ensemble d'entraînement.
Ces différences sont appelées résidus (ou erreurs). L'objectif est de rendre les résidus aussi petits que possible.

Moindres carrés ordinaires

L'approche par défaut est la méthode des moindres carrés ordinaires (OLS) :
Prendre chaque résidu, l'élever au carré (principalement pour éliminer le signe du résidu), puis les additionner tous.
Ceci est appelé SSR (somme des résidus au carré). La tâche consiste à trouver les paramètres qui minimisent la SSR.

Équation normale

Heureusement, il n'est pas nécessaire d'essayer toutes les droites et de calculer la SSR pour chacune d'elles. La tâche de minimiser la SSR possède une solution mathématique qui n'est pas très coûteuse en calcul.
Cette solution s'appelle l'équation normale.

Cette équation nous donne les paramètres d'une droite avec la SSR minimale.
Vous n'avez pas compris comment cela fonctionne ? Pas d'inquiétude ! Les mathématiques sont assez complexes. Mais il n'est pas nécessaire de calculer les paramètres à la main. De nombreuses bibliothèques ont déjà implémenté la régression linéaire.

Quiz

1. Considérez l'image ci-dessus. Quelle droite de régression est la meilleure ?

2. y_true - y_predicted est appelé

question mark

Considérez l'image ci-dessus. Quelle droite de régression est la meilleure ?

Select the correct answer

question mark

y_true - y_predicted est appelé

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 1. Chapitre 2
some-alt