Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele PCA:n Perusajatus | Ulottuvuuksien Vähentämisen Perusteet
Ulottuvuuksien Vähentäminen PCA:lla

bookPCA:n Perusajatus

Note
Määritelmä

Pääkomponenttianalyysi (PCA) on tehokas menetelmä, joka tunnistaa uudet akselit – nimeltään pääkomponentit – jotka ovat datan suuntia, joissa vaihtelu on suurinta.

PCA säilyttää suunnat, joissa datasi vaihtelee eniten, sillä nämä kuvaavat keskeiset kuviot ja rakenteen.

Voit ajatella PCA:ta kuin taskulampun valon suuntaamista 3D-esineeseen ja varjon tarkastelua seinällä. Valon kulma muuttaa varjon yksityiskohtia. PCA löytää parhaan kulman, jotta varjo eli projection paljastavat mahdollisimman paljon esineen muodosta. Samalla tavalla PCA projisoi datasi uusille akseleille säilyttääkseen mahdollisimman paljon vaihtelua.

12345678910111213141516171819202122232425262728293031323334
import numpy as np import matplotlib.pyplot as plt # Generate a simple 2D dataset np.random.seed(0) mean = [0, 0] cov = [[3, 2], [2, 2]] # Covariance matrix X = np.random.multivariate_normal(mean, cov, 200) # Compute the mean of the data mean_vector = np.mean(X, axis=0) # Compute the covariance matrix and its eigenvectors cov_matrix = np.cov(X.T) eigenvalues, eigenvectors = np.linalg.eig(cov_matrix) # First principal component (direction of maximum variance) pc1 = eigenvectors[:, np.argmax(eigenvalues)] # Plot the data plt.figure(figsize=(8,6)) plt.scatter(X[:,0], X[:,1], alpha=0.3, label="Data points") plt.quiver( mean_vector[0], mean_vector[1], pc1[0], pc1[1], angles='xy', scale_units='xy', scale=1.5, color='red', width=0.01, label="First principal component" ) plt.xlabel("Feature 1") plt.ylabel("Feature 2") plt.title("Direction of Maximum Variance (First Principal Component)") plt.legend() plt.axis("equal") plt.show()
copy

Tunnistamalla suunnat, joissa datasi vaihtelee eniten, PCA mahdollistaa ulottuvuuksien vähentämisen säilyttäen samalla tärkeimmän informaation. Keskittymällä näihin suurimman varianssin suuntiin varmistetaan, että aineiston rakenne ja kuviot pysyvät selkeinä. Tämä ymmärrys valmistaa sinut tutkimaan PCA:n matemaattista perustaa tulevissa osioissa.

question mark

Mikä on pääkomponenttien perusajatus PCA:ssa?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 4

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Awesome!

Completion rate improved to 8.33

bookPCA:n Perusajatus

Pyyhkäise näyttääksesi valikon

Note
Määritelmä

Pääkomponenttianalyysi (PCA) on tehokas menetelmä, joka tunnistaa uudet akselit – nimeltään pääkomponentit – jotka ovat datan suuntia, joissa vaihtelu on suurinta.

PCA säilyttää suunnat, joissa datasi vaihtelee eniten, sillä nämä kuvaavat keskeiset kuviot ja rakenteen.

Voit ajatella PCA:ta kuin taskulampun valon suuntaamista 3D-esineeseen ja varjon tarkastelua seinällä. Valon kulma muuttaa varjon yksityiskohtia. PCA löytää parhaan kulman, jotta varjo eli projection paljastavat mahdollisimman paljon esineen muodosta. Samalla tavalla PCA projisoi datasi uusille akseleille säilyttääkseen mahdollisimman paljon vaihtelua.

12345678910111213141516171819202122232425262728293031323334
import numpy as np import matplotlib.pyplot as plt # Generate a simple 2D dataset np.random.seed(0) mean = [0, 0] cov = [[3, 2], [2, 2]] # Covariance matrix X = np.random.multivariate_normal(mean, cov, 200) # Compute the mean of the data mean_vector = np.mean(X, axis=0) # Compute the covariance matrix and its eigenvectors cov_matrix = np.cov(X.T) eigenvalues, eigenvectors = np.linalg.eig(cov_matrix) # First principal component (direction of maximum variance) pc1 = eigenvectors[:, np.argmax(eigenvalues)] # Plot the data plt.figure(figsize=(8,6)) plt.scatter(X[:,0], X[:,1], alpha=0.3, label="Data points") plt.quiver( mean_vector[0], mean_vector[1], pc1[0], pc1[1], angles='xy', scale_units='xy', scale=1.5, color='red', width=0.01, label="First principal component" ) plt.xlabel("Feature 1") plt.ylabel("Feature 2") plt.title("Direction of Maximum Variance (First Principal Component)") plt.legend() plt.axis("equal") plt.show()
copy

Tunnistamalla suunnat, joissa datasi vaihtelee eniten, PCA mahdollistaa ulottuvuuksien vähentämisen säilyttäen samalla tärkeimmän informaation. Keskittymällä näihin suurimman varianssin suuntiin varmistetaan, että aineiston rakenne ja kuviot pysyvät selkeinä. Tämä ymmärrys valmistaa sinut tutkimaan PCA:n matemaattista perustaa tulevissa osioissa.

question mark

Mikä on pääkomponenttien perusajatus PCA:ssa?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 4
some-alt