Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Impara Derivazione della PCA Tramite Algebra Lineare | Fondamenti Matematici della PCA
Riduzione della Dimensionalità con PCA

bookDerivazione della PCA Tramite Algebra Lineare

La PCA cerca un nuovo insieme di assi, chiamati componenti principali, tali che i dati proiettati abbiano varianza massima. Il primo componente principale, indicato come w1w_{\raisebox{-0.5pt}{$1$}}, viene scelto per massimizzare la varianza dei dati proiettati:

Var(Xw1)\mathrm{Var}(X w_1)

Soggetto al vincolo che w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La soluzione a questo problema di massimizzazione è il vettore proprio della matrice di covarianza corrispondente al più grande autovalore.

Il problema di ottimizzazione è:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La soluzione è qualsiasi vettore ww che soddisfa Σw=λw\Sigma w = \lambda w, dove λ\lambda è il corrispondente autovalore. In altre parole, ww è un vettore proprio della matrice di covarianza Σ\Sigma associato all'autovalore λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Questo componente principale è la direzione lungo la quale i dati presentano la massima varianza. Proiettare i dati su questa direzione fornisce la rappresentazione monodimensionale più informativa del dataset originale.

question mark

Quale affermazione descrive meglio il ruolo della matrice di covarianza nella derivazione della PCA utilizzando l'algebra lineare

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 2. Capitolo 3

Chieda ad AI

expand

Chieda ad AI

ChatGPT

Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookDerivazione della PCA Tramite Algebra Lineare

Scorri per mostrare il menu

La PCA cerca un nuovo insieme di assi, chiamati componenti principali, tali che i dati proiettati abbiano varianza massima. Il primo componente principale, indicato come w1w_{\raisebox{-0.5pt}{$1$}}, viene scelto per massimizzare la varianza dei dati proiettati:

Var(Xw1)\mathrm{Var}(X w_1)

Soggetto al vincolo che w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. La soluzione a questo problema di massimizzazione è il vettore proprio della matrice di covarianza corrispondente al più grande autovalore.

Il problema di ottimizzazione è:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

La soluzione è qualsiasi vettore ww che soddisfa Σw=λw\Sigma w = \lambda w, dove λ\lambda è il corrispondente autovalore. In altre parole, ww è un vettore proprio della matrice di covarianza Σ\Sigma associato all'autovalore λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Questo componente principale è la direzione lungo la quale i dati presentano la massima varianza. Proiettare i dati su questa direzione fornisce la rappresentazione monodimensionale più informativa del dataset originale.

question mark

Quale affermazione descrive meglio il ruolo della matrice di covarianza nella derivazione della PCA utilizzando l'algebra lineare

Select the correct answer

Tutto è chiaro?

Come possiamo migliorarlo?

Grazie per i tuoi commenti!

Sezione 2. Capitolo 3
some-alt