Чудово!
Completion показник покращився до 4.17single
Багатокласова класифікація
Свайпніть щоб показати меню
Багатокласова класифікація за допомогою k-NN така ж проста, як і бінарна класифікація. Потрібно лише обрати клас, який переважає серед сусідів.
KNeighborsClassifier автоматично виконує багатокласову класифікацію, якщо y містить більше двох ознак, тому нічого змінювати не потрібно. Єдина відмінність — це змінна y, яку передають методу .fit().
Тепер виконайте багатокласову класифікацію з k-NN. Розгляньте наступний набір даних:
1234import pandas as pd df = pd.read_csv('https://codefinity-content-media.s3.eu-west-1.amazonaws.com/b71ff7ac-3932-41d2-a4d8-060e24b00129/starwars_multiple.csv') print(df.head())
Це те саме, що й у прикладі з попереднього розділу, але тепер цільова змінна може набувати трьох значень:
- 0: "Не сподобалося" (оцінка менше 3/5);
- 1: "Так собі" (оцінка від 3/5 до 4/5);
- 2: "Сподобалося" (оцінка 4/5 або вище).
Swipe to start coding
Вам надано набір даних з оцінками Star Wars, збережений як DataFrame у змінній df.
- Ініціалізуйте відповідний масштабувальник і збережіть його у змінній
scaler. - Обчисліть параметри масштабування на тренувальних даних, виконайте масштабування та збережіть результат у змінній
X_train. - Масштабуйте тестові дані та збережіть результат у змінній
X_test. - Створіть екземпляр k-NN з
13сусідами, навчіть його на тренувальній вибірці та збережіть у зміннійknn. - Зробіть передбачення на тестовій вибірці та збережіть їх у змінній
y_pred.
Рішення
Дякуємо за ваш відгук!
single
Запитати АІ
Запитати АІ
Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат