Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lære Featureudvælgelse vs. Featureekstraktion | Introduktion til Dimensionalitetsreduktion
Dimensionsreduktion med PCA

bookFeatureudvælgelse vs. Featureekstraktion

Datasæt med høj dimension har ofte flere funktioner, end der er behov for. Du kan reducere antallet af funktioner ved hjælp af to hovedstrategier: feature selection og feature extraction.

  • Feature selection indebærer at beholde kun de vigtigste oprindelige funktioner – som at vælge dine yndlingsfrugter fra en kurv;
  • Feature extraction skaber nye funktioner ved at kombinere eller transformere de oprindelige – som at blande alle frugterne til en smoothie.

Principal Component Analysis (PCA) er en almindelig metode til feature extraction, som du vil udforske nærmere senere.

12345678910111213141516171819202122
import pandas as pd from sklearn.decomposition import PCA # Example dataset data = { 'height': [150, 160, 170, 180], 'weight': [50, 60, 70, 80], 'age': [20, 25, 30, 35], 'score': [85, 90, 95, 100] } df = pd.DataFrame(data) # Feature selection: pick only 'height' and 'weight' selected_features = df[['height', 'weight']] print("Selected features (feature selection):") print(selected_features) # Feature extraction: combine features using PCA (placeholder, details later) pca = PCA(n_components=2) extracted_features = pca.fit_transform(df) print("\nExtracted features (feature extraction, via PCA):") print(extracted_features)
copy
Note
Bemærk

PCA er en effektiv teknik til feature extraction, der skaber nye funktioner (hovedkomponenter) ud fra dine oprindelige data. Detaljerne om, hvordan PCA fungerer, vil blive gennemgået i de kommende kapitler.

Reduktion af antallet af features kan hjælpe dig med at identificere mønstre, der ellers kan være skjult i højere dimensioner. Ved at bruge visualisering kan du plotte udvalgte features for tydeligere at afsløre klynger eller tendenser. For eksempel kan det at plotte kun de mest relevante features med seaborn fremhæve relationer i dine data, hvilket gør dem lettere at fortolke og analysere.

question mark

Hvilken påstand beskriver bedst forskellen mellem feature selection og feature extraction i dimensionalitetsreduktion

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 3

Spørg AI

expand

Spørg AI

ChatGPT

Spørg om hvad som helst eller prøv et af de foreslåede spørgsmål for at starte vores chat

Suggested prompts:

Can you explain more about how PCA works for feature extraction?

What are some other common feature selection methods?

How do I decide whether to use feature selection or feature extraction?

Awesome!

Completion rate improved to 8.33

bookFeatureudvælgelse vs. Featureekstraktion

Stryg for at vise menuen

Datasæt med høj dimension har ofte flere funktioner, end der er behov for. Du kan reducere antallet af funktioner ved hjælp af to hovedstrategier: feature selection og feature extraction.

  • Feature selection indebærer at beholde kun de vigtigste oprindelige funktioner – som at vælge dine yndlingsfrugter fra en kurv;
  • Feature extraction skaber nye funktioner ved at kombinere eller transformere de oprindelige – som at blande alle frugterne til en smoothie.

Principal Component Analysis (PCA) er en almindelig metode til feature extraction, som du vil udforske nærmere senere.

12345678910111213141516171819202122
import pandas as pd from sklearn.decomposition import PCA # Example dataset data = { 'height': [150, 160, 170, 180], 'weight': [50, 60, 70, 80], 'age': [20, 25, 30, 35], 'score': [85, 90, 95, 100] } df = pd.DataFrame(data) # Feature selection: pick only 'height' and 'weight' selected_features = df[['height', 'weight']] print("Selected features (feature selection):") print(selected_features) # Feature extraction: combine features using PCA (placeholder, details later) pca = PCA(n_components=2) extracted_features = pca.fit_transform(df) print("\nExtracted features (feature extraction, via PCA):") print(extracted_features)
copy
Note
Bemærk

PCA er en effektiv teknik til feature extraction, der skaber nye funktioner (hovedkomponenter) ud fra dine oprindelige data. Detaljerne om, hvordan PCA fungerer, vil blive gennemgået i de kommende kapitler.

Reduktion af antallet af features kan hjælpe dig med at identificere mønstre, der ellers kan være skjult i højere dimensioner. Ved at bruge visualisering kan du plotte udvalgte features for tydeligere at afsløre klynger eller tendenser. For eksempel kan det at plotte kun de mest relevante features med seaborn fremhæve relationer i dine data, hvilket gør dem lettere at fortolke og analysere.

question mark

Hvilken påstand beskriver bedst forskellen mellem feature selection og feature extraction i dimensionalitetsreduktion

Select the correct answer

Var alt klart?

Hvordan kan vi forbedre det?

Tak for dine kommentarer!

Sektion 1. Kapitel 3
some-alt