Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele PCA:n Johtaminen Lineaarialgebran Avulla | PCA:n Matemaattiset Perusteet
Ulottuvuuksien Vähentäminen PCA:lla

bookPCA:n Johtaminen Lineaarialgebran Avulla

PCA etsii uuden akselistoston, jota kutsutaan pääkomponenteiksi (principal components), siten että projisoidulla datalla on maksimaalinen varianssi. Ensimmäinen pääkomponentti, merkittynä w1w_{\raisebox{-0.5pt}{$1$}}, valitaan maksimoimaan projisoidun datan varianssi:

Var(Xw1)\mathrm{Var}(X w_1)

Ehdolla, että w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Tämän maksimointiongelman ratkaisu on kovarianssimatriisin ominaisvektori, joka vastaa suurinta ominaisarvoa.

Optimointiongelma on:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Ratkaisu on mikä tahansa vektori ww, joka toteuttaa ehdon Σw=λw\Sigma w = \lambda w, missä λ\lambda on vastaava ominaisarvo. Toisin sanoen, ww on kovarianssimatriisin Σ\Sigma ominaisvektori, joka liittyy ominaisarvoon λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Tämä pääkomponentti on suunta, jossa datalla on suurin varianssi. Datan projisointi tähän suuntaan antaa informatiivisimman yksiulotteisen esityksen alkuperäisestä aineistosta.

question mark

Mikä väite kuvaa parhaiten kovarianssimatriisin roolia PCA:n johdannossa lineaarialgebran avulla

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 3

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Awesome!

Completion rate improved to 8.33

bookPCA:n Johtaminen Lineaarialgebran Avulla

Pyyhkäise näyttääksesi valikon

PCA etsii uuden akselistoston, jota kutsutaan pääkomponenteiksi (principal components), siten että projisoidulla datalla on maksimaalinen varianssi. Ensimmäinen pääkomponentti, merkittynä w1w_{\raisebox{-0.5pt}{$1$}}, valitaan maksimoimaan projisoidun datan varianssi:

Var(Xw1)\mathrm{Var}(X w_1)

Ehdolla, että w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Tämän maksimointiongelman ratkaisu on kovarianssimatriisin ominaisvektori, joka vastaa suurinta ominaisarvoa.

Optimointiongelma on:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Ratkaisu on mikä tahansa vektori ww, joka toteuttaa ehdon Σw=λw\Sigma w = \lambda w, missä λ\lambda on vastaava ominaisarvo. Toisin sanoen, ww on kovarianssimatriisin Σ\Sigma ominaisvektori, joka liittyy ominaisarvoon λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Tämä pääkomponentti on suunta, jossa datalla on suurin varianssi. Datan projisointi tähän suuntaan antaa informatiivisimman yksiulotteisen esityksen alkuperäisestä aineistosta.

question mark

Mikä väite kuvaa parhaiten kovarianssimatriisin roolia PCA:n johdannossa lineaarialgebran avulla

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 2. Luku 3
some-alt