Власні Значення та Власні Вектори
Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.
Для матриці коваріації Σ, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.
Математично, для матриці A, власного вектора v та власного значення λ:
Av=λvУ PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.
Дякуємо за ваш відгук!
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат
Awesome!
Completion rate improved to 8.33
Власні Значення та Власні Вектори
Свайпніть щоб показати меню
Власний вектор матриці — це ненульовий вектор, напрямок якого не змінюється при застосуванні до нього лінійного перетворення (яке задається матрицею); змінюється лише його довжина. Величина масштабування визначається відповідним власним значенням.
Для матриці коваріації Σ, власні вектори вказують напрямки максимальної дисперсії, а власні значення показують, яка дисперсія знаходиться в цих напрямках.
Математично, для матриці A, власного вектора v та власного значення λ:
Av=λvУ PCA власні вектори матриці коваріації є головними осями, а власні значення — це дисперсії вздовж цих осей.
12345678910111213import numpy as np # Using the covariance matrix from the previous code X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Compute eigenvalues and eigenvectors values, vectors = np.linalg.eig(cov_matrix) print("Eigenvalues:", values) print("Eigenvectors:\n", vectors)
Власний вектор з найбільшим власним значенням вказує у напрямку найбільшої дисперсії у даних. Це є першою головною компонентою.
Дякуємо за ваш відгук!