Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Aprenda Derivação da PCA Usando Álgebra Linear | Fundamentos Matemáticos do PCA
Redução de Dimensionalidade com PCA

bookDerivação da PCA Usando Álgebra Linear

A ACP busca um novo conjunto de eixos, chamados de componentes principais, de modo que os dados projetados apresentem variância máxima. O primeiro componente principal, denotado como w1w_{\raisebox{-0.5pt}{$1$}}, é escolhido para maximizar a variância dos dados projetados:

Var(Xw1)\mathrm{Var}(X w_1)

Sujeito à restrição de que w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. A solução para este problema de maximização é o autovetor da matriz de covariância correspondente ao maior autovalor.

O problema de otimização é:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

A solução é qualquer vetor ww que satisfaça Σw=λw\Sigma w = \lambda w, onde λ\lambda é o autovalor correspondente. Em outras palavras, ww é um autovetor da matriz de covariância Σ\Sigma associado ao autovalor λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Este componente principal é a direção ao longo da qual os dados apresentam a maior variância. Projetar os dados nesta direção fornece a representação unidimensional mais informativa do conjunto de dados original.

question mark

Qual afirmação melhor descreve o papel da matriz de covariância na derivação da PCA usando álgebra linear

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 2. Capítulo 3

Pergunte à IA

expand

Pergunte à IA

ChatGPT

Pergunte o que quiser ou experimente uma das perguntas sugeridas para iniciar nosso bate-papo

Awesome!

Completion rate improved to 8.33

bookDerivação da PCA Usando Álgebra Linear

Deslize para mostrar o menu

A ACP busca um novo conjunto de eixos, chamados de componentes principais, de modo que os dados projetados apresentem variância máxima. O primeiro componente principal, denotado como w1w_{\raisebox{-0.5pt}{$1$}}, é escolhido para maximizar a variância dos dados projetados:

Var(Xw1)\mathrm{Var}(X w_1)

Sujeito à restrição de que w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. A solução para este problema de maximização é o autovetor da matriz de covariância correspondente ao maior autovalor.

O problema de otimização é:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

A solução é qualquer vetor ww que satisfaça Σw=λw\Sigma w = \lambda w, onde λ\lambda é o autovalor correspondente. Em outras palavras, ww é um autovetor da matriz de covariância Σ\Sigma associado ao autovalor λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Este componente principal é a direção ao longo da qual os dados apresentam a maior variância. Projetar os dados nesta direção fornece a representação unidimensional mais informativa do conjunto de dados original.

question mark

Qual afirmação melhor descreve o papel da matriz de covariância na derivação da PCA usando álgebra linear

Select the correct answer

Tudo estava claro?

Como podemos melhorá-lo?

Obrigado pelo seu feedback!

Seção 2. Capítulo 3
some-alt