Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Udledning af PCA ved Hjælp af Lineær Algebra | Matematiske Grundlag for PCA
Dimensionsreduktion med PCA

bookUdledning af PCA ved Hjælp af Lineær Algebra

PCA søger et nyt sæt akser, kaldet hovedkomponenter, således at de projicerede data har maksimal varians. Den første hovedkomponent, betegnet som w1w_{\raisebox{-0.5pt}{$1$}}, vælges for at maksimere variansen af de projicerede data:

Var(Xw1)\mathrm{Var}(X w_1)

Under betingelsen at w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Løsningen til dette maksimeringsproblem er egenvektoren for kovariansmatricen, der svarer til den største egenværdi.

Optimeringsproblemet er:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Løsningen er enhver vektor ww, der opfylder Σw=λw\Sigma w = \lambda w, hvor λ\lambda er den tilsvarende egenværdi. Med andre ord er ww en egenvektor for kovariansmatricen Σ\Sigma, der er associeret med egenværdien λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Denne hovedkomponent er den retning, hvor dataene har den største varians. Projektion af data på denne retning giver den mest informative endimensionelle repræsentation af det oprindelige datasæt.

question mark

Hvilken påstand beskriver bedst kovariansmatricens rolle i udledningen af PCA ved brug af lineær algebra

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 3

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain why the principal component is important in PCA?

How do I interpret the values of the principal component?

What does projecting data onto the principal component mean?

Awesome!

Completion rate improved to 8.33

bookUdledning af PCA ved Hjælp af Lineær Algebra

Stryg for at vise menuen

PCA søger et nyt sæt akser, kaldet hovedkomponenter, således at de projicerede data har maksimal varians. Den første hovedkomponent, betegnet som w1w_{\raisebox{-0.5pt}{$1$}}, vælges for at maksimere variansen af de projicerede data:

Var(Xw1)\mathrm{Var}(X w_1)

Under betingelsen at w1=1\|w_{\raisebox{-0.5pt}{$1$}}\| = 1. Løsningen til dette maksimeringsproblem er egenvektoren for kovariansmatricen, der svarer til den største egenværdi.

Optimeringsproblemet er:

maxw wTΣwsubject tow=1\max_{w} \ w^T \Sigma w \quad \text{subject to} \quad \|w\| = 1

Løsningen er enhver vektor ww, der opfylder Σw=λw\Sigma w = \lambda w, hvor λ\lambda er den tilsvarende egenværdi. Med andre ord er ww en egenvektor for kovariansmatricen Σ\Sigma, der er associeret med egenværdien λ\lambda.

12345678910111213
import numpy as np # Assume cov_matrix from earlier X = np.array([[2.5, 2.4], [0.5, 0.7], [2.2, 2.9]]) X_centered = X - np.mean(X, axis=0) cov_matrix = (X_centered.T @ X_centered) / X_centered.shape[0] # Find the principal component (eigenvector with largest eigenvalue) values, vectors = np.linalg.eig(cov_matrix) principal_component = vectors[:, np.argmax(values)] print("First principal component:", principal_component)
copy

Denne hovedkomponent er den retning, hvor dataene har den største varians. Projektion af data på denne retning giver den mest informative endimensionelle repræsentation af det oprindelige datasæt.

question mark

Hvilken påstand beskriver bedst kovariansmatricens rolle i udledningen af PCA ved brug af lineær algebra

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 2. Kapitel 3
some-alt