Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprende Derivación de PCA Utilizando Álgebra Lineal | Fundamentos Matemáticos de PCA
Reducción de Dimensionalidad con PCA

bookDerivación de PCA Utilizando Álgebra Lineal

PCA busca un nuevo conjunto de ejes, llamados componentes principales, de modo que los datos proyectados tengan varianza máxima. El primer componente principal, denotado como w1w_{\raisebox{-0.5pt}{$1$}}, se elige para maximizar la varianza de los datos proyectados:

Var(Xw1)\mathrm{Var}(X w_1)

Sujeto a la restricción de que w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La solución a este problema de maximización es el vector propio de la matriz de covarianza correspondiente al mayor valor propio.

El problema de optimización es:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La solución es cualquier vector ww que satisface Σw=λw\Sigma w = \lambda w, donde λ\lambda es el valor propio correspondiente. En otras palabras, ww es un vector propio de la matriz de covarianza Σ\Sigma asociado con el valor propio λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Este componente principal es la dirección a lo largo de la cual los datos presentan la mayor varianza. Proyectar los datos sobre esta dirección proporciona la representación unidimensional más informativa del conjunto de datos original.

question mark

¿Cuál afirmación describe mejor el papel de la matriz de covarianza en la derivación de PCA usando álgebra lineal?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 3

Pregunte a AI

expand

Pregunte a AI

ChatGPT

Pregunte lo que quiera o pruebe una de las preguntas sugeridas para comenzar nuestra charla

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookDerivación de PCA Utilizando Álgebra Lineal

Desliza para mostrar el menú

PCA busca un nuevo conjunto de ejes, llamados componentes principales, de modo que los datos proyectados tengan varianza máxima. El primer componente principal, denotado como w1w_{\raisebox{-0.5pt}{$1$}}, se elige para maximizar la varianza de los datos proyectados:

Var(Xw1)\mathrm{Var}(X w_1)

Sujeto a la restricción de que w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La solución a este problema de maximización es el vector propio de la matriz de covarianza correspondiente al mayor valor propio.

El problema de optimización es:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La solución es cualquier vector ww que satisface Σw=λw\Sigma w = \lambda w, donde λ\lambda es el valor propio correspondiente. En otras palabras, ww es un vector propio de la matriz de covarianza Σ\Sigma asociado con el valor propio λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Este componente principal es la dirección a lo largo de la cual los datos presentan la mayor varianza. Proyectar los datos sobre esta dirección proporciona la representación unidimensional más informativa del conjunto de datos original.

question mark

¿Cuál afirmación describe mejor el papel de la matriz de covarianza en la derivación de PCA usando álgebra lineal?

Select the correct answer

¿Todo estuvo claro?

¿Cómo podemos mejorarlo?

¡Gracias por tus comentarios!

Sección 2. Capítulo 3
some-alt