Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Utledning av PCA ved Bruk av Lineær Algebra | Matematisk Grunnlag for PCA
Dimensjonsreduksjon med PCA

bookUtledning av PCA ved Bruk av Lineær Algebra

PCA søker et nytt sett med akser, kalt hovedkomponenter, slik at de projiserte dataene har maksimal varians. Den første hovedkomponenten, betegnet som w1w_{\raisebox{-0.5pt}{$1$}}, velges for å maksimere variansen til de projiserte dataene:

Var(Xw1)\mathrm{Var}(X w_1)

Med betingelsen at w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Løsningen på dette maksimeringsproblemet er egenvektoren til kovariansmatrisen som tilsvarer den største egenverdien.

Optimeringsproblemet er:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Løsningen er enhver vektor ww som tilfredsstiller Σw=λw\Sigma w = \lambda w, hvor λ\lambda er den tilhørende egenverdien. Med andre ord, ww er en egenvektor til kovariansmatrisen Σ\Sigma assosiert med egenverdien λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Denne hovedkomponenten er retningen der dataene har størst varians. Å projisere dataene på denne retningen gir den mest informative endimensjonale representasjonen av det opprinnelige datasettet.

question mark

Hvilket utsagn beskriver best rollen til kovariansmatrisen i utledningen av PCA ved bruk av lineær algebra

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 3

Spør AI

expand

Spør AI

ChatGPT

Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookUtledning av PCA ved Bruk av Lineær Algebra

Sveip for å vise menyen

PCA søker et nytt sett med akser, kalt hovedkomponenter, slik at de projiserte dataene har maksimal varians. Den første hovedkomponenten, betegnet som w1w_{\raisebox{-0.5pt}{$1$}}, velges for å maksimere variansen til de projiserte dataene:

Var(Xw1)\mathrm{Var}(X w_1)

Med betingelsen at w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Løsningen på dette maksimeringsproblemet er egenvektoren til kovariansmatrisen som tilsvarer den største egenverdien.

Optimeringsproblemet er:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Løsningen er enhver vektor ww som tilfredsstiller Σw=λw\Sigma w = \lambda w, hvor λ\lambda er den tilhørende egenverdien. Med andre ord, ww er en egenvektor til kovariansmatrisen Σ\Sigma assosiert med egenverdien λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Denne hovedkomponenten er retningen der dataene har størst varians. Å projisere dataene på denne retningen gir den mest informative endimensjonale representasjonen av det opprinnelige datasettet.

question mark

Hvilket utsagn beskriver best rollen til kovariansmatrisen i utledningen av PCA ved bruk av lineær algebra

Select the correct answer

Alt var klart?

Hvordan kan vi forbedre det?

Takk for tilbakemeldingene dine!

Seksjon 2. Kapittel 3
some-alt