Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Valores Propios y Vectores Propios | Fundamentos Matemáticos de PCA
Reducción de Dimensionalidad con PCA

bookValores Propios y Vectores Propios

Note
Definición

Un vector propio de una matriz es un vector no nulo cuya dirección permanece inalterada cuando se le aplica una transformación lineal (representada por la matriz); solo su longitud se escala. La cantidad de escalado está dada por el valor propio correspondiente.

Para la matriz de covarianza Σ\Sigma, los vectores propios apuntan en las direcciones de máxima varianza, y los valores propios indican cuánta varianza hay en esas direcciones.

Matemáticamente, para la matriz AA, el vector propio vv y el valor propio λλ:

Av=λvA v = \lambda v

En PCA, los vectores propios de la matriz de covarianza son los ejes principales, y los valores propios son las varianzas a lo largo de esos ejes.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Nota

El vector propio con el mayor valor propio apunta en la dirección de mayor varianza en los datos. Este es el primer componente principal.

question mark

¿Cuál es el papel de los valores y vectores propios de la matriz de covarianza en PCA?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 2

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Awesome!

Completion rate improved to 8.33

bookValores Propios y Vectores Propios

Desliza para mostrar el menú

Note
Definición

Un vector propio de una matriz es un vector no nulo cuya dirección permanece inalterada cuando se le aplica una transformación lineal (representada por la matriz); solo su longitud se escala. La cantidad de escalado está dada por el valor propio correspondiente.

Para la matriz de covarianza Σ\Sigma, los vectores propios apuntan en las direcciones de máxima varianza, y los valores propios indican cuánta varianza hay en esas direcciones.

Matemáticamente, para la matriz AA, el vector propio vv y el valor propio λλ:

Av=λvA v = \lambda v

En PCA, los vectores propios de la matriz de covarianza son los ejes principales, y los valores propios son las varianzas a lo largo de esos ejes.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Nota

El vector propio con el mayor valor propio apunta en la dirección de mayor varianza en los datos. Este es el primer componente principal.

question mark

¿Cuál es el papel de los valores y vectores propios de la matriz de covarianza en PCA?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 2
some-alt