Dérivation de l'ACP à l'aide de l'algèbre linéaire
L'ACP recherche un nouvel ensemble d'axes, appelés composantes principales, de sorte que les données projetées présentent une variance maximale. La première composante principale, notée w1, est choisie pour maximiser la variance des données projetées :
Var(Xw1)Sous la contrainte ∥w1∥=1. La solution à ce problème de maximisation est le vecteur propre de la matrice de covariance correspondant à la plus grande valeur propre.
Le problème d'optimisation est :
wmax wTΣwsubject to∥w∥=1La solution est tout vecteur w qui satisfait Σw=λw, où λ est la valeur propre correspondante. En d'autres termes, w est un vecteur propre de la matrice de covariance Σ associé à la valeur propre λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Cette composante principale est la direction selon laquelle les données présentent la plus grande variance. La projection des données sur cette direction fournit la représentation unidimensionnelle la plus informative de l'ensemble de données d'origine.
Merci pour vos commentaires !
Demandez à l'IA
Demandez à l'IA
Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion
Can you explain why the principal component is important in PCA?
How do I interpret the values of the principal component?
What does projecting data onto the principal component mean?
Awesome!
Completion rate improved to 8.33
Dérivation de l'ACP à l'aide de l'algèbre linéaire
Glissez pour afficher le menu
L'ACP recherche un nouvel ensemble d'axes, appelés composantes principales, de sorte que les données projetées présentent une variance maximale. La première composante principale, notée w1, est choisie pour maximiser la variance des données projetées :
Var(Xw1)Sous la contrainte ∥w1∥=1. La solution à ce problème de maximisation est le vecteur propre de la matrice de covariance correspondant à la plus grande valeur propre.
Le problème d'optimisation est :
wmax wTΣwsubject to∥w∥=1La solution est tout vecteur w qui satisfait Σw=λw, où λ est la valeur propre correspondante. En d'autres termes, w est un vecteur propre de la matrice de covariance Σ associé à la valeur propre λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Cette composante principale est la direction selon laquelle les données présentent la plus grande variance. La projection des données sur cette direction fournit la représentation unidimensionnelle la plus informative de l'ensemble de données d'origine.
Merci pour vos commentaires !