Visualisering av Forklart Varians og Komponentlaster
Etter å ha tilpasset PCA, er det viktig å forstå hvor mye informasjon (varians) hver hovedkomponent fanger opp. Forklart varians-forhold viser dette. Du kan også undersøke komponentlaster for å se hvordan de opprinnelige egenskapene bidrar til hver hovedkomponent.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Søylediagrammet viser andelen varians som forklares av hver hovedkomponent. Varmekartet viser laster, som indikerer hvor mye hver opprinnelig egenskap bidrar til hver hovedkomponent. Store absolutte verdier betyr at en egenskap er viktig for den komponenten.
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Can you explain how to interpret the explained variance ratio in PCA?
What do the component loadings tell us about the original features?
How can I decide how many principal components to keep?
Awesome!
Completion rate improved to 8.33
Visualisering av Forklart Varians og Komponentlaster
Sveip for å vise menyen
Etter å ha tilpasset PCA, er det viktig å forstå hvor mye informasjon (varians) hver hovedkomponent fanger opp. Forklart varians-forhold viser dette. Du kan også undersøke komponentlaster for å se hvordan de opprinnelige egenskapene bidrar til hver hovedkomponent.
1234567891011121314151617181920212223242526272829303132333435import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
Søylediagrammet viser andelen varians som forklares av hver hovedkomponent. Varmekartet viser laster, som indikerer hvor mye hver opprinnelig egenskap bidrar til hver hovedkomponent. Store absolutte verdier betyr at en egenskap er viktig for den komponenten.
Takk for tilbakemeldingene dine!