Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Eigenwerte und Eigenvektoren | Mathematische Grundlagen der PCA
Dimensionsreduktion mit PCA

bookEigenwerte und Eigenvektoren

Note
Definition

Ein Eigenvektor einer Matrix ist ein von Null verschiedener Vektor, dessen Richtung bei Anwendung einer linearen Transformation (repräsentiert durch die Matrix) unverändert bleibt; nur seine Länge wird skaliert. Der Skalierungsfaktor wird durch den zugehörigen Eigenwert angegeben.

Für die Kovarianzmatrix Σ\Sigma zeigen Eigenvektoren in die Richtungen maximaler Varianz, und Eigenwerte geben an, wie viel Varianz in diesen Richtungen vorhanden ist.

Mathematisch gilt für Matrix AA, Eigenvektor vv und Eigenwert λλ:

Av=λvA v = \lambda v

In der PCA sind die Eigenvektoren der Kovarianzmatrix die Hauptachsen, und die Eigenwerte sind die Varianzen entlang dieser Achsen.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Hinweis

Der Eigenvektor mit dem größten Eigenwert zeigt in die Richtung der größten Varianz in den Daten. Dies ist die erste Hauptkomponente.

question mark

Welche Rolle spielen Eigenwerte und Eigenvektoren der Kovarianzmatrix im PCA?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Awesome!

Completion rate improved to 8.33

bookEigenwerte und Eigenvektoren

Swipe um das Menü anzuzeigen

Note
Definition

Ein Eigenvektor einer Matrix ist ein von Null verschiedener Vektor, dessen Richtung bei Anwendung einer linearen Transformation (repräsentiert durch die Matrix) unverändert bleibt; nur seine Länge wird skaliert. Der Skalierungsfaktor wird durch den zugehörigen Eigenwert angegeben.

Für die Kovarianzmatrix Σ\Sigma zeigen Eigenvektoren in die Richtungen maximaler Varianz, und Eigenwerte geben an, wie viel Varianz in diesen Richtungen vorhanden ist.

Mathematisch gilt für Matrix AA, Eigenvektor vv und Eigenwert λλ:

Av=λvA v = \lambda v

In der PCA sind die Eigenvektoren der Kovarianzmatrix die Hauptachsen, und die Eigenwerte sind die Varianzen entlang dieser Achsen.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Hinweis

Der Eigenvektor mit dem größten Eigenwert zeigt in die Richtung der größten Varianz in den Daten. Dies ist die erste Hauptkomponente.

question mark

Welche Rolle spielen Eigenwerte und Eigenvektoren der Kovarianzmatrix im PCA?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 2. Kapitel 2
some-alt