Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Виведення PCA за допомогою лінійної алгебри | Математичні Основи PCA
Зменшення Розмірності за Допомогою PCA

bookВиведення PCA за допомогою лінійної алгебри

PCA шукає новий набір осей, які називаються головними компонентами, так щоб проєктовані дані мали максимальну дисперсію. Перша головна компонента, що позначається як w1w_{\raisebox{-0.5pt}{$1$}}, обирається для максимізації дисперсії проєктованих даних:

Var(Xw1)\mathrm{Var}(X w_1)

За умови, що w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Розв'язком цієї задачі максимізації є власний вектор матриці коваріації, що відповідає найбільшому власному значенню.

Задача оптимізації має вигляд:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Розв'язком є будь-який вектор ww, що задовольняє Σw=λw\Sigma w = \lambda w, де λ\lambda — відповідне власне значення. Іншими словами, ww є власним вектором матриці коваріації Σ\Sigma, що відповідає власному значенню λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Цей головний компонент — це напрямок, уздовж якого дані мають найбільшу дисперсію. Проєкція даних на цей напрямок забезпечує найбільш інформативне одновимірне представлення початкового набору даних.

question mark

Яке твердження найкраще описує роль матриці коваріації у виведенні PCA за допомогою лінійної алгебри

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 3

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookВиведення PCA за допомогою лінійної алгебри

Свайпніть щоб показати меню

PCA шукає новий набір осей, які називаються головними компонентами, так щоб проєктовані дані мали максимальну дисперсію. Перша головна компонента, що позначається як w1w_{\raisebox{-0.5pt}{$1$}}, обирається для максимізації дисперсії проєктованих даних:

Var(Xw1)\mathrm{Var}(X w_1)

За умови, що w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Розв'язком цієї задачі максимізації є власний вектор матриці коваріації, що відповідає найбільшому власному значенню.

Задача оптимізації має вигляд:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Розв'язком є будь-який вектор ww, що задовольняє Σw=λw\Sigma w = \lambda w, де λ\lambda — відповідне власне значення. Іншими словами, ww є власним вектором матриці коваріації Σ\Sigma, що відповідає власному значенню λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Цей головний компонент — це напрямок, уздовж якого дані мають найбільшу дисперсію. Проєкція даних на цей напрямок забезпечує найбільш інформативне одновимірне представлення початкового набору даних.

question mark

Яке твердження найкраще описує роль матриці коваріації у виведенні PCA за допомогою лінійної алгебри

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 3
some-alt