Selitetyn Varianssin ja Komponenttikuormien Visualisointi
Kun PCA-malli on sovitettu, on tärkeää ymmärtää, kuinka paljon informaatiota (varianssia) kukin pääkomponentti kattaa. Selitetyn varianssin suhde kertoo tämän. Voit myös tarkastella komponenttikuormia nähdäksesi, miten alkuperäiset piirteet vaikuttavat kuhunkin pääkomponenttiin.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Pylväsdiagrammi näyttää, kuinka suuri osa varianssista selittyy kullakin pääkomponentilla. Lämpökartta esittää kuormat, jotka osoittavat, kuinka paljon kukin alkuperäinen piirre vaikuttaa kuhunkin pääkomponenttiin. Suuret itseisarvot tarkoittavat, että piirre on tärkeä kyseiselle komponentille.
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
Awesome!
Completion rate improved to 8.33
Selitetyn Varianssin ja Komponenttikuormien Visualisointi
Pyyhkäise näyttääksesi valikon
Kun PCA-malli on sovitettu, on tärkeää ymmärtää, kuinka paljon informaatiota (varianssia) kukin pääkomponentti kattaa. Selitetyn varianssin suhde kertoo tämän. Voit myös tarkastella komponenttikuormia nähdäksesi, miten alkuperäiset piirteet vaikuttavat kuhunkin pääkomponenttiin.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Pylväsdiagrammi näyttää, kuinka suuri osa varianssista selittyy kullakin pääkomponentilla. Lämpökartta esittää kuormat, jotka osoittavat, kuinka paljon kukin alkuperäinen piirre vaikuttaa kuhunkin pääkomponenttiin. Suuret itseisarvot tarkoittavat, että piirre on tärkeä kyseiselle komponentille.
Kiitos palautteestasi!