Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Багатокласова класифікація | Класифікатор K-NN
Класифікація з Python

bookБагатокласова класифікація

Багатокласова класифікація за допомогою k-NN така ж проста, як і бінарна класифікація. Потрібно лише обрати клас, який переважає серед сусідів.

KNeighborsClassifier автоматично виконує багатокласову класифікацію, якщо y містить більше двох ознак, тому нічого змінювати не потрібно. Єдина відмінність — це змінна y, яку передають методу .fit().

Тепер виконайте багатокласову класифікацію з k-NN. Розгляньте наступний набір даних:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Це те саме, що й у прикладі з попереднього розділу, але тепер цільова змінна може набувати трьох значень:

  • 0: "Не сподобалося" (оцінка менше 3/5);
  • 1: "Так собі" (оцінка від 3/5 до 4/5);
  • 2: "Сподобалося" (оцінка 4/5 або вище).
Завдання

Swipe to start coding

Вам надано набір даних з оцінками Star Wars, збережений як DataFrame у змінній df.

  • Ініціалізуйте відповідний масштабувальник і збережіть його у змінній scaler.
  • Обчисліть параметри масштабування на тренувальних даних, виконайте масштабування та збережіть результат у змінній X_train.
  • Масштабуйте тестові дані та збережіть результат у змінній X_test.
  • Створіть екземпляр k-NN з 13 сусідами, навчіть його на тренувальній вибірці та збережіть у змінній knn.
  • Зробіть передбачення на тестовій вибірці та збережіть їх у змінній y_pred.

Рішення

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 5
single

single

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

close

Awesome!

Completion rate improved to 4.17

bookБагатокласова класифікація

Свайпніть щоб показати меню

Багатокласова класифікація за допомогою k-NN така ж проста, як і бінарна класифікація. Потрібно лише обрати клас, який переважає серед сусідів.

KNeighborsClassifier автоматично виконує багатокласову класифікацію, якщо y містить більше двох ознак, тому нічого змінювати не потрібно. Єдина відмінність — це змінна y, яку передають методу .fit().

Тепер виконайте багатокласову класифікацію з k-NN. Розгляньте наступний набір даних:

1234
import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
copy

Це те саме, що й у прикладі з попереднього розділу, але тепер цільова змінна може набувати трьох значень:

  • 0: "Не сподобалося" (оцінка менше 3/5);
  • 1: "Так собі" (оцінка від 3/5 до 4/5);
  • 2: "Сподобалося" (оцінка 4/5 або вище).
Завдання

Swipe to start coding

Вам надано набір даних з оцінками Star Wars, збережений як DataFrame у змінній df.

  • Ініціалізуйте відповідний масштабувальник і збережіть його у змінній scaler.
  • Обчисліть параметри масштабування на тренувальних даних, виконайте масштабування та збережіть результат у змінній X_train.
  • Масштабуйте тестові дані та збережіть результат у змінній X_test.
  • Створіть екземпляр k-NN з 13 сусідами, навчіть його на тренувальній вибірці та збережіть у змінній knn.
  • Зробіть передбачення на тестовій вибірці та збережіть їх у змінній y_pred.

Рішення

Switch to desktopПерейдіть на комп'ютер для реальної практикиПродовжуйте з того місця, де ви зупинились, використовуючи один з наведених нижче варіантів
Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 5
single

single

some-alt