Egenvärden och Egenvektorer
En egenvektor till en matris är en icke-noll vektor vars riktning förblir oförändrad när en linjär transformation (representerad av matrisen) appliceras på den; endast dess längd skalas. Skalningsfaktorn ges av det motsvarande egenvärdet.
För kovariansmatrisen Σ pekar egenvektorer i riktningarna med maximal varians, och egenvärden anger hur mycket varians som finns i dessa riktningar.
Matematiskt, för matrisen A, egenvektor v och egenvärde λ:
Av=λvI PCA är egenvektorerna till kovariansmatrisen huvudaxlar, och egenvärdena är varianserna längs dessa axlar.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Den egenvektor med det största egenvärdet pekar i riktningen med störst varians i datan. Detta är den första huvudkomponenten.
Tack för dina kommentarer!
Fråga AI
Fråga AI
Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal
Can you explain what the eigenvectors and eigenvalues mean in this context?
How do I interpret the output of the code?
What is the next step after finding the eigenvalues and eigenvectors in PCA?
Awesome!
Completion rate improved to 8.33
Egenvärden och Egenvektorer
Svep för att visa menyn
En egenvektor till en matris är en icke-noll vektor vars riktning förblir oförändrad när en linjär transformation (representerad av matrisen) appliceras på den; endast dess längd skalas. Skalningsfaktorn ges av det motsvarande egenvärdet.
För kovariansmatrisen Σ pekar egenvektorer i riktningarna med maximal varians, och egenvärden anger hur mycket varians som finns i dessa riktningar.
Matematiskt, för matrisen A, egenvektor v och egenvärde λ:
Av=λvI PCA är egenvektorerna till kovariansmatrisen huvudaxlar, och egenvärdena är varianserna längs dessa axlar.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Den egenvektor med det största egenvärdet pekar i riktningen med störst varians i datan. Detta är den första huvudkomponenten.
Tack för dina kommentarer!