Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Dérivation de l'ACP à l'aide de l'algèbre linéaire | Fondements Mathématiques de l'ACP
Réduction de Dimensionnalité avec l'ACP

bookDérivation de l'ACP à l'aide de l'algèbre linéaire

L'ACP recherche un nouvel ensemble d'axes, appelés composantes principales, de sorte que les données projetées présentent une variance maximale. La première composante principale, notée w1w_{\raisebox{-0.5pt}{$1$}}, est choisie pour maximiser la variance des données projetées :

Var(Xw1)\mathrm{Var}(X w_1)

Sous la contrainte w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La solution à ce problème de maximisation est le vecteur propre de la matrice de covariance correspondant à la plus grande valeur propre.

Le problème d'optimisation est :

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La solution est tout vecteur ww qui satisfait Σw=λw\Sigma w = \lambda w, où λ\lambda est la valeur propre correspondante. En d'autres termes, ww est un vecteur propre de la matrice de covariance Σ\Sigma associé à la valeur propre λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Cette composante principale est la direction selon laquelle les données présentent la plus grande variance. La projection des données sur cette direction fournit la représentation unidimensionnelle la plus informative de l'ensemble de données d'origine.

question mark

Quelle affirmation décrit le mieux le rôle de la matrice de covariance dans la dérivation de l'ACP à l'aide de l'algèbre linéaire

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 3

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookDérivation de l'ACP à l'aide de l'algèbre linéaire

Glissez pour afficher le menu

L'ACP recherche un nouvel ensemble d'axes, appelés composantes principales, de sorte que les données projetées présentent une variance maximale. La première composante principale, notée w1w_{\raisebox{-0.5pt}{$1$}}, est choisie pour maximiser la variance des données projetées :

Var(Xw1)\mathrm{Var}(X w_1)

Sous la contrainte w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La solution à ce problème de maximisation est le vecteur propre de la matrice de covariance correspondant à la plus grande valeur propre.

Le problème d'optimisation est :

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La solution est tout vecteur ww qui satisfait Σw=λw\Sigma w = \lambda w, où λ\lambda est la valeur propre correspondante. En d'autres termes, ww est un vecteur propre de la matrice de covariance Σ\Sigma associé à la valeur propre λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Cette composante principale est la direction selon laquelle les données présentent la plus grande variance. La projection des données sur cette direction fournit la représentation unidimensionnelle la plus informative de l'ensemble de données d'origine.

question mark

Quelle affirmation décrit le mieux le rôle de la matrice de covariance dans la dérivation de l'ACP à l'aide de l'algèbre linéaire

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 2. Chapitre 3
some-alt