Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Візуалізація Поясненої Дисперсії та Навантажень Компонент | Реалізація PCA в Python
Зменшення Розмірності за Допомогою PCA

bookВізуалізація Поясненої Дисперсії та Навантажень Компонент

Після підгонки PCA важливо зрозуміти, яку частину інформації (дисперсії) захоплює кожен головний компонент. Відношення поясненої дисперсії показує це. Також можна переглянути навантаження компонентів, щоб побачити, як вихідні ознаки впливають на кожен головний компонент.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Стовпчаста діаграма показує частку дисперсії, яку пояснює кожен головний компонент. Теплова карта відображає навантаження, які вказують, наскільки кожна вихідна ознака впливає на кожен головний компонент. Великі абсолютні значення означають, що ознака є важливою для цього компонента.

question mark

Що означає велике абсолютне значення у матриці завантажень компонентів щодо зв’язку ознаки з головним компонентом у PCA

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 3. Розділ 2

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Suggested prompts:

Can you explain how to interpret the explained variance ratio in PCA?

What do the component loadings tell us about the original features?

How can I decide how many principal components to keep?

Awesome!

Completion rate improved to 8.33

bookВізуалізація Поясненої Дисперсії та Навантажень Компонент

Свайпніть щоб показати меню

Після підгонки PCA важливо зрозуміти, яку частину інформації (дисперсії) захоплює кожен головний компонент. Відношення поясненої дисперсії показує це. Також можна переглянути навантаження компонентів, щоб побачити, як вихідні ознаки впливають на кожен головний компонент.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Стовпчаста діаграма показує частку дисперсії, яку пояснює кожен головний компонент. Теплова карта відображає навантаження, які вказують, наскільки кожна вихідна ознака впливає на кожен головний компонент. Великі абсолютні значення означають, що ознака є важливою для цього компонента.

question mark

Що означає велике абсолютне значення у матриці завантажень компонентів щодо зв’язку ознаки з головним компонентом у PCA

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 3. Розділ 2
some-alt