Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Власні Значення та Власні Вектори | Математичні Основи PCA
Зменшення Розмірності за Допомогою PCA

bookВласні Значення та Власні Вектори

Note
Визначення

Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.

Для матриці коваріації Σ\Sigma, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.

Математично, для матриці AA, власного вектора vv та власного значення λλ:

Av=λvA v = \lambda v

У PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Примітка

Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.

question mark

Яка роль власних значень і власних векторів матриці коваріації у PCA

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Awesome!

Completion rate improved to 8.33

bookВласні Значення та Власні Вектори

Свайпніть щоб показати меню

Note
Визначення

Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.

Для матриці коваріації Σ\Sigma, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.

Математично, для матриці AA, власного вектора vv та власного значення λλ:

Av=λvA v = \lambda v

У PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Примітка

Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.

question mark

Яка роль власних значень і власних векторів матриці коваріації у PCA

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2
some-alt