Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Порівняння Продуктивності Моделі До Та Після PCA | Реалізація PCA в Python
Зменшення Розмірності за Допомогою PCA

bookПорівняння Продуктивності Моделі До Та Після PCA

PCA може використовуватися як етап попередньої обробки перед навчанням моделей машинного навчання. У цьому розділі ви порівняєте ефективність класифікатора LogisticRegression на оригінальних стандартизованих даних та на даних, зведених до двох головних компонент. Такий практичний підхід демонструє, як зниження розмірності може впливати як на ефективність, так і на продуктивність ваших моделей.

123456789101112131415161718192021222324
from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # Split data into train and test sets X_train, X_test, y_train, y_test = train_test_split(X_scaled, data.target, test_size=0.3, random_state=42) # Train on original data clf_orig = LogisticRegression(max_iter=200) clf_orig.fit(X_train, y_train) y_pred_orig = clf_orig.predict(X_test) acc_orig = accuracy_score(y_test, y_pred_orig) # Train on PCA-reduced data (2 components) pca = PCA(n_components=2) X_train_pca = pca.fit_transform(X_train) X_test_pca = pca.transform(X_test) clf_pca = LogisticRegression(max_iter=200) clf_pca.fit(X_train_pca, y_train) y_pred_pca = clf_pca.predict(X_test_pca) acc_pca = accuracy_score(y_test, y_pred_pca) print(f"Accuracy on original data: {acc_orig:.2f}") print(f"Accuracy after PCA (2 components): {acc_pca:.2f}")
copy

Наведений вище код розділяє дані, навчає модель логістичної регресії як на оригінальних, так і на PCA-знижених даних, та порівнює їхню точність. Зверніть увагу, що ідеальна точність 1.0 на оригінальних даних може свідчити про перенавчання, коли модель занадто точно підлаштовується під тренувальні дані і може погано узагальнювати нові дані. Застосування PCA зменшує розмірність, що може допомогти зменшити перенавчання. Після PCA точність трохи знижується до 0.91, що демонструє кращий баланс між продуктивністю та узагальненням, а також підвищує швидкість і зрозумілість моделі.

question mark

Який ймовірний результат застосування PCA для зменшення кількості ознак перед навчанням класифікатора, як показано у прикладі вище?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 3. Розділ 4

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Awesome!

Completion rate improved to 8.33

bookПорівняння Продуктивності Моделі До Та Після PCA

Свайпніть щоб показати меню

PCA може використовуватися як етап попередньої обробки перед навчанням моделей машинного навчання. У цьому розділі ви порівняєте ефективність класифікатора LogisticRegression на оригінальних стандартизованих даних та на даних, зведених до двох головних компонент. Такий практичний підхід демонструє, як зниження розмірності може впливати як на ефективність, так і на продуктивність ваших моделей.

123456789101112131415161718192021222324
from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score # Split data into train and test sets X_train, X_test, y_train, y_test = train_test_split(X_scaled, data.target, test_size=0.3, random_state=42) # Train on original data clf_orig = LogisticRegression(max_iter=200) clf_orig.fit(X_train, y_train) y_pred_orig = clf_orig.predict(X_test) acc_orig = accuracy_score(y_test, y_pred_orig) # Train on PCA-reduced data (2 components) pca = PCA(n_components=2) X_train_pca = pca.fit_transform(X_train) X_test_pca = pca.transform(X_test) clf_pca = LogisticRegression(max_iter=200) clf_pca.fit(X_train_pca, y_train) y_pred_pca = clf_pca.predict(X_test_pca) acc_pca = accuracy_score(y_test, y_pred_pca) print(f"Accuracy on original data: {acc_orig:.2f}") print(f"Accuracy after PCA (2 components): {acc_pca:.2f}")
copy

Наведений вище код розділяє дані, навчає модель логістичної регресії як на оригінальних, так і на PCA-знижених даних, та порівнює їхню точність. Зверніть увагу, що ідеальна точність 1.0 на оригінальних даних може свідчити про перенавчання, коли модель занадто точно підлаштовується під тренувальні дані і може погано узагальнювати нові дані. Застосування PCA зменшує розмірність, що може допомогти зменшити перенавчання. Після PCA точність трохи знижується до 0.91, що демонструє кращий баланс між продуктивністю та узагальненням, а також підвищує швидкість і зрозумілість моделі.

question mark

Який ймовірний результат застосування PCA для зменшення кількості ознак перед навчанням класифікатора, як показано у прикладі вище?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 3. Розділ 4
some-alt