Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Egenværdier og Egenvektorer | Matematiske Grundlag for PCA
Dimensionsreduktion med PCA

bookEgenværdier og Egenvektorer

Stryg for at vise menuen

Note
Definition

En egenvektor for en matrix er en ikke-nul vektor, hvis retning forbliver uændret, når en lineær transformation (repræsenteret ved matricen) anvendes på den; kun dens længde skaleres. Mængden af skalering angives af den tilsvarende egenværdi.

For kovariansmatrix Σ\Sigma peger egenvektorer i retningerne med størst varians, og egenværdier angiver, hvor meget varians der er i disse retninger.

Matematisk, for matrix AA, egenvektor vv og egenværdi λλ:

Av=λvA v = \lambda v

I PCA er egenvektorerne for kovariansmatricen hovedakserne, og egenværdierne er varianserne langs disse akser.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Bemærk

Egenvektoren med den største egenværdi peger i retningen af den største varians i dataene. Dette er den første hovedkomponent.

question mark

Hvad er rollen for egenværdier og egenvektorer for kovariansmatricen i PCA

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 2

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Sektion 2. Kapitel 2
some-alt