Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Visualisierung der Erklärten Varianz und Komponentenladungen | Implementierung von PCA in Python
Dimensionsreduktion mit PCA

bookVisualisierung der Erklärten Varianz und Komponentenladungen

Nach der Anpassung von PCA ist es wichtig zu verstehen, wie viel Information (Varianz) jede Hauptkomponente erfasst. Das erklärte Varianzverhältnis gibt darüber Auskunft. Sie können außerdem die Komponentenladungen untersuchen, um zu sehen, wie die ursprünglichen Merkmale zu jeder Hauptkomponente beitragen.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Das Balkendiagramm zeigt den Anteil der Varianz, der durch jede Hauptkomponente erklärt wird. Die Heatmap stellt die Ladungen dar, die angeben, wie stark jedes ursprüngliche Merkmal zu jeder Hauptkomponente beiträgt. Große Beträge bedeuten, dass ein Merkmal für diese Komponente wichtig ist.

question mark

Was zeigt ein großer Absolutwert in einer Komponentenladungsmatrix über die Beziehung eines Merkmals zu einer Hauptkomponente in der PCA an

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Suggested prompts:

Can you explain how to interpret the explained variance ratio in PCA?

What do the component loadings tell us about the original features?

How can I decide how many principal components to keep?

Awesome!

Completion rate improved to 8.33

bookVisualisierung der Erklärten Varianz und Komponentenladungen

Swipe um das Menü anzuzeigen

Nach der Anpassung von PCA ist es wichtig zu verstehen, wie viel Information (Varianz) jede Hauptkomponente erfasst. Das erklärte Varianzverhältnis gibt darüber Auskunft. Sie können außerdem die Komponentenladungen untersuchen, um zu sehen, wie die ursprünglichen Merkmale zu jeder Hauptkomponente beitragen.

1234567891011121314151617181920212223242526272829303132333435
import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.preprocessing import StandardScaler from sklearn.decomposition import PCA import matplotlib.pyplot as plt import seaborn as sns # Load the Iris dataset data = load_iris() X = data.data feature_names = data.feature_names # Standardize features (important for PCA) scaler = StandardScaler() X_scaled = scaler.fit_transform(X) # Apply PCA to reduce to 2 components pca = PCA(n_components=2) X_pca = pca.fit_transform(X_scaled) # Plot explained variance ratio plt.figure(figsize=(6,4)) plt.bar(range(1, len(pca.explained_variance_ratio_)+1), pca.explained_variance_ratio_, alpha=0.7) plt.ylabel('Explained Variance Ratio') plt.xlabel('Principal Component') plt.title('Explained Variance by Principal Components') plt.show() # Display component loadings as a heatmap loadings = pd.DataFrame(pca.components_.T, columns=['PC1', 'PC2'], index=feature_names) plt.figure(figsize=(6,4)) sns.heatmap(loadings, annot=True, cmap='coolwarm') plt.title('Principal Component Loadings') plt.show()
copy

Das Balkendiagramm zeigt den Anteil der Varianz, der durch jede Hauptkomponente erklärt wird. Die Heatmap stellt die Ladungen dar, die angeben, wie stark jedes ursprüngliche Merkmal zu jeder Hauptkomponente beiträgt. Große Beträge bedeuten, dass ein Merkmal für diese Komponente wichtig ist.

question mark

Was zeigt ein großer Absolutwert in einer Komponentenladungsmatrix über die Beziehung eines Merkmals zu einer Hauptkomponente in der PCA an

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 2
some-alt