Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Багатокласова Класифікація | Секція
Practice
Projects
Quizzes & Challenges
Вікторини
Challenges
/
Основи Контрольованого Навчання

bookБагатокласова Класифікація

Багатокласова класифікація за допомогою k-NN так само проста, як і бінарна класифікація. Просто обирається клас, який переважає серед сусідів.

KNeighborsClassifier автоматично виконує багатокласову класифікацію, якщо y має більше двох ознак, тому нічого змінювати не потрібно. Єдина зміна — це змінна y, яку передають у метод .fit().

Тепер ви виконаєте багатокласову класифікацію з k-NN. Розгляньте наступний набір даних:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Це те саме, що й у прикладі з попереднього розділу, але тепер цільова змінна може набувати трьох значень:

  • 0: "Не сподобалося" (оцінка менше 3/5);
  • 1: "Так собі" (оцінка від 3/5 до 4/5);
  • 2: "Сподобалося" (оцінка 4/5 або вище).
Завдання

Swipe to start coding

Вам надано набір даних з оцінками Star Wars, збережений у змінній DataFrame під назвою df.

  • Ініціалізуйте відповідний масштабувальник і збережіть його у змінній scaler.
  • Обчисліть параметри масштабування на тренувальних даних, виконайте масштабування та збережіть результат у змінній X_train.
  • Масштабуйте тестові дані та збережіть результат у змінній X_test.
  • Створіть екземпляр k-NN з 13 сусідами, навчіть його на тренувальній вибірці та збережіть у змінній knn.
  • Зробіть передбачення на тестовій вибірці та збережіть їх у змінній y_pred.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 18
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

close

bookБагатокласова Класифікація

Свайпніть щоб показати меню

Багатокласова класифікація за допомогою k-NN так само проста, як і бінарна класифікація. Просто обирається клас, який переважає серед сусідів.

KNeighborsClassifier автоматично виконує багатокласову класифікацію, якщо y має більше двох ознак, тому нічого змінювати не потрібно. Єдина зміна — це змінна y, яку передають у метод .fit().

Тепер ви виконаєте багатокласову класифікацію з k-NN. Розгляньте наступний набір даних:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Це те саме, що й у прикладі з попереднього розділу, але тепер цільова змінна може набувати трьох значень:

  • 0: "Не сподобалося" (оцінка менше 3/5);
  • 1: "Так собі" (оцінка від 3/5 до 4/5);
  • 2: "Сподобалося" (оцінка 4/5 або вище).
Завдання

Swipe to start coding

Вам надано набір даних з оцінками Star Wars, збережений у змінній DataFrame під назвою df.

  • Ініціалізуйте відповідний масштабувальник і збережіть його у змінній scaler.
  • Обчисліть параметри масштабування на тренувальних даних, виконайте масштабування та збережіть результат у змінній X_train.
  • Масштабуйте тестові дані та збережіть результат у змінній X_test.
  • Створіть екземпляр k-NN з 13 сусідами, навчіть його на тренувальній вибірці та збережіть у змінній knn.
  • Зробіть передбачення на тестовій вибірці та збережіть їх у змінній y_pred.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 18
single

single

some-alt