Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Egenverdier og Egenvektorer | Matematisk Grunnlag for PCA
Dimensjonsreduksjon med PCA

bookEgenverdier og Egenvektorer

Note
Definisjon

En egenvektor til en matrise er en ikke-null vektor hvis retning forblir uendret når en lineær transformasjon (representert ved matrisen) anvendes på den; kun lengden skaleres. Skaleringsfaktoren angis av den tilhørende egenverdien.

For kovariansmatrisen Σ\Sigma peker egenvektorer i retningene med størst variasjon, og egenverdier angir hvor mye variasjon som finnes i disse retningene.

Matematisk, for matrise AA, egenvektor vv og egenverdi λλ:

Av=λvA v = \lambda v

I PCA er egenvektorene til kovariansmatrisen hovedakser, og egenverdiene er varianser langs disse aksene.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Merk

Egenvektoren med den største egenverdien peker i retningen med størst variasjon i datasettet. Dette er første hovedkomponent.

question mark

Hva er rollen til egenverdier og egenvektorer til kovariansmatrisen i PCA

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Awesome!

Completion rate improved to 8.33

bookEgenverdier og Egenvektorer

Sveip for å vise menyen

Note
Definisjon

En egenvektor til en matrise er en ikke-null vektor hvis retning forblir uendret når en lineær transformasjon (representert ved matrisen) anvendes på den; kun lengden skaleres. Skaleringsfaktoren angis av den tilhørende egenverdien.

For kovariansmatrisen Σ\Sigma peker egenvektorer i retningene med størst variasjon, og egenverdier angir hvor mye variasjon som finnes i disse retningene.

Matematisk, for matrise AA, egenvektor vv og egenverdi λλ:

Av=λvA v = \lambda v

I PCA er egenvektorene til kovariansmatrisen hovedakser, og egenverdiene er varianser langs disse aksene.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Merk

Egenvektoren med den største egenverdien peker i retningen med størst variasjon i datasettet. Dette er første hovedkomponent.

question mark

Hva er rollen til egenverdier og egenvektorer til kovariansmatrisen i PCA

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 2
some-alt