Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Egenvärden och Egenvektorer | Matematiska Grunder för PCA
Dimensionsreduktion med PCA

bookEgenvärden och Egenvektorer

Svep för att visa menyn

Note
Definition

En egenvektor till en matris är en icke-noll vektor vars riktning förblir oförändrad när en linjär transformation (representerad av matrisen) appliceras på den; endast dess längd skalas. Skalningsfaktorn ges av det motsvarande egenvärdet.

För kovariansmatrisen Σ\Sigma pekar egenvektorer i riktningarna med maximal varians, och egenvärden anger hur mycket varians som finns i dessa riktningar.

Matematiskt, för matrisen AA, egenvektor vv och egenvärde λλ:

Av=λvA v = \lambda v

I PCA är egenvektorerna till kovariansmatrisen huvudaxlar, och egenvärdena är varianserna längs dessa axlar.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Notering

Den egenvektor med det största egenvärdet pekar i riktningen med störst varians i datan. Detta är den första huvudkomponenten.

question mark

Vad är rollen för egenvärden och egenvektorer för kovariansmatrisen i PCA

Select the correct answer

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 2. Kapitel 2

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Avsnitt 2. Kapitel 2
some-alt