Utledning av PCA ved Bruk av Lineær Algebra
PCA søker et nytt sett med akser, kalt hovedkomponenter, slik at de projiserte dataene har maksimal varians. Den første hovedkomponenten, betegnet som w1, velges for å maksimere variansen til de projiserte dataene:
Var(Xw1)Med betingelsen at ∥w1∥=1. Løsningen på dette maksimeringsproblemet er egenvektoren til kovariansmatrisen som tilsvarer den største egenverdien.
Optimeringsproblemet er:
wmax wTΣwsubject to∥w∥=1Løsningen er enhver vektor w som tilfredsstiller Σw=λw, hvor λ er den tilhørende egenverdien. Med andre ord, w er en egenvektor til kovariansmatrisen Σ assosiert med egenverdien λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Denne hovedkomponenten er retningen der dataene har størst varians. Å projisere dataene på denne retningen gir den mest informative endimensjonale representasjonen av det opprinnelige datasettet.
Takk for tilbakemeldingene dine!
Spør AI
Spør AI
Spør om hva du vil, eller prøv ett av de foreslåtte spørsmålene for å starte chatten vår
Can you explain why the principal component is important in PCA?
How do I interpret the values of the principal component?
What does projecting data onto the principal component mean?
Awesome!
Completion rate improved to 8.33
Utledning av PCA ved Bruk av Lineær Algebra
Sveip for å vise menyen
PCA søker et nytt sett med akser, kalt hovedkomponenter, slik at de projiserte dataene har maksimal varians. Den første hovedkomponenten, betegnet som w1, velges for å maksimere variansen til de projiserte dataene:
Var(Xw1)Med betingelsen at ∥w1∥=1. Løsningen på dette maksimeringsproblemet er egenvektoren til kovariansmatrisen som tilsvarer den største egenverdien.
Optimeringsproblemet er:
wmax wTΣwsubject to∥w∥=1Løsningen er enhver vektor w som tilfredsstiller Σw=λw, hvor λ er den tilhørende egenverdien. Med andre ord, w er en egenvektor til kovariansmatrisen Σ assosiert med egenverdien λ.
12345678910111213import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
Denne hovedkomponenten er retningen der dataene har størst varians. Å projisere dataene på denne retningen gir den mest informative endimensjonale representasjonen av det opprinnelige datasettet.
Takk for tilbakemeldingene dine!