Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Власні Значення та Власні Вектори | Математичні Основи PCA
Practice
Projects
Quizzes & Challenges
Вікторини
Challenges
/
Зменшення Розмірності за Допомогою PCA

bookВласні Значення та Власні Вектори

Свайпніть щоб показати меню

Note
Визначення

Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.

Для матриці коваріації Σ\Sigma, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.

Математично, для матриці AA, власного вектора vv та власного значення λλ:

Av=λvA v = \lambda v

У PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.

12345678910111213
import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
copy
Note
Примітка

Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.

question mark

Яка роль власних значень і власних векторів матриці коваріації у PCA

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 2. Розділ 2

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Секція 2. Розділ 2
some-alt