Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Valeurs Propres et Vecteurs Propres | Fondements Mathématiques de l'ACP
Réduction de Dimensionnalité avec l'ACP

bookValeurs Propres et Vecteurs Propres

Note
Définition

Un vecteur propre d'une matrice est un vecteur non nul dont la direction reste inchangée lorsqu'une transformation linéaire (représentée par la matrice) lui est appliquée ; seule sa longueur est modifiée. Le facteur d'échelle correspondant est donné par la valeur propre associée.

Pour la matrice de covariance Σ\Sigma, les vecteurs propres indiquent les directions de variance maximale, et les valeurs propres indiquent la quantité de variance dans ces directions.

Mathématiquement, pour la matrice AA, le vecteur propre vv et la valeur propre λλ :

Av=λvA v = \lambda v

En ACP, les vecteurs propres de la matrice de covariance sont les axes principaux, et les valeurs propres sont les variances le long de ces axes.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Remarque

Le vecteur propre associé à la plus grande valeur propre indique la direction de la plus grande variance dans les données. Il s'agit du premier composant principal.

question mark

Quel est le rôle des valeurs propres et des vecteurs propres de la matrice de covariance en ACP ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Suggested prompts:

Can you explain what the eigenvectors and eigenvalues mean in this context?

How do I interpret the output of the code?

What is the next step after finding the eigenvalues and eigenvectors in PCA?

Awesome!

Completion rate improved to 8.33

bookValeurs Propres et Vecteurs Propres

Glissez pour afficher le menu

Note
Définition

Un vecteur propre d'une matrice est un vecteur non nul dont la direction reste inchangée lorsqu'une transformation linéaire (représentée par la matrice) lui est appliquée ; seule sa longueur est modifiée. Le facteur d'échelle correspondant est donné par la valeur propre associée.

Pour la matrice de covariance Σ\Sigma, les vecteurs propres indiquent les directions de variance maximale, et les valeurs propres indiquent la quantité de variance dans ces directions.

Mathématiquement, pour la matrice AA, le vecteur propre vv et la valeur propre λλ :

Av=λvA v = \lambda v

En ACP, les vecteurs propres de la matrice de covariance sont les axes principaux, et les valeurs propres sont les variances le long de ces axes.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Remarque

Le vecteur propre associé à la plus grande valeur propre indique la direction de la plus grande variance dans les données. Il s'agit du premier composant principal.

question mark

Quel est le rôle des valeurs propres et des vecteurs propres de la matrice de covariance en ACP ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 2
some-alt