Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Apprendre Visualisation de la Variance Expliquée et des Charges des Composantes | Implémentation de l'ACP en Python
Réduction de Dimensionnalité avec l'ACP

bookVisualisation de la Variance Expliquée et des Charges des Composantes

Après avoir ajusté la PCA, il est important de comprendre la quantité d'information (variance) capturée par chaque composante principale. Le rapport de variance expliquée fournit cette information. Vous pouvez également examiner les coefficients de composantes pour voir comment les caractéristiques originales contribuent à chaque composante principale.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Le diagramme en barres montre la proportion de variance expliquée par chaque composante principale. La carte thermique affiche les coefficients, qui indiquent dans quelle mesure chaque caractéristique originale contribue à chaque composante principale. Des valeurs absolues élevées signifient qu'une caractéristique est importante pour cette composante.

question mark

Que signifie une grande valeur absolue dans une matrice de coefficients de chargement concernant la relation d'une caractéristique avec une composante principale en ACP ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 2

Demandez à l'IA

expand

Demandez à l'IA

ChatGPT

Posez n'importe quelle question ou essayez l'une des questions suggérées pour commencer notre discussion

Awesome!

Completion rate improved to 8.33

bookVisualisation de la Variance Expliquée et des Charges des Composantes

Glissez pour afficher le menu

Après avoir ajusté la PCA, il est important de comprendre la quantité d'information (variance) capturée par chaque composante principale. Le rapport de variance expliquée fournit cette information. Vous pouvez également examiner les coefficients de composantes pour voir comment les caractéristiques originales contribuent à chaque composante principale.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Le diagramme en barres montre la proportion de variance expliquée par chaque composante principale. La carte thermique affiche les coefficients, qui indiquent dans quelle mesure chaque caractéristique originale contribue à chaque composante principale. Des valeurs absolues élevées signifient qu'une caractéristique est importante pour cette composante.

question mark

Que signifie une grande valeur absolue dans une matrice de coefficients de chargement concernant la relation d'une caractéristique avec une composante principale en ACP ?

Select the correct answer

Tout était clair ?

Comment pouvons-nous l'améliorer ?

Merci pour vos commentaires !

Section 3. Chapitre 2
some-alt