Візуалізація Поясненої Дисперсії та Навантажень Компонент
Після підгонки PCA важливо зрозуміти, яку частину інформації (дисперсії) захоплює кожен головний компонент. Відношення поясненої дисперсії показує це. Також можна переглянути навантаження компонентів, щоб побачити, як вихідні ознаки впливають на кожен головний компонент.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Стовпчаста діаграма показує частку дисперсії, яку пояснює кожен головний компонент. Теплова карта відображає навантаження, які вказують, наскільки кожна вихідна ознака впливає на кожен головний компонент. Великі абсолютні значення означають, що ознака є важливою для цього компонента.
Дякуємо за ваш відгук!
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Can you explain how to interpret the explained variance ratio in PCA?
What do the component loadings tell us about the original features?
How can I decide how many principal components to keep?
Awesome!
Completion rate improved to 8.33
Візуалізація Поясненої Дисперсії та Навантажень Компонент
Свайпніть щоб показати меню
Після підгонки PCA важливо зрозуміти, яку частину інформації (дисперсії) захоплює кожен головний компонент. Відношення поясненої дисперсії показує це. Також можна переглянути навантаження компонентів, щоб побачити, як вихідні ознаки впливають на кожен головний компонент.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Стовпчаста діаграма показує частку дисперсії, яку пояснює кожен головний компонент. Теплова карта відображає навантаження, які вказують, наскільки кожна вихідна ознака впливає на кожен головний компонент. Великі абсолютні значення означають, що ознака є важливою для цього компонента.
Дякуємо за ваш відгук!