Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Пошук Параметрів | Секція
Основи Контрольованого Навчання

bookПошук Параметрів

Логістична регресія вимагає від комп'ютера лише навчитися знаходити найкращі параметри ββ. Для цього потрібно визначити, що означає «найкращі параметри». Згадаємо, як працює модель: вона прогнозує pp — ймовірність належності до класу 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Де

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Очевидно, що модель з хорошими параметрами — це та, яка прогнозує високе (близьке до 1) pp для об'єктів, що дійсно належать до класу 1, і низьке (близьке до 0) pp для об'єктів з фактичним класом 0.

Для оцінки якості моделі використовується функція втрат. У лінійній регресії як функцію втрат використовували MSE (середньоквадратична помилка). У цьому випадку використовується інша функція:

Тут pp позначає ймовірність належності до класу 1, як це передбачає модель, а yy — це фактичне значення цільової змінної.

Ця функція не лише штрафує за неправильні передбачення, а й враховує впевненість моделі у своїх прогнозах. Як показано на зображенні вище, коли значення pp близьке до yy (фактичної цілі), функція втрат залишається відносно малою, що свідчить про впевнений вибір правильної категорії моделлю. Навпаки, якщо передбачення неправильне, функція втрат зростає експоненційно зі збільшенням впевненості моделі у неправильному класі.

У контексті бінарної класифікації із сигмоїдною функцією використовується функція втрат, яка називається бінарна крос-ентропія (binary cross-entropy loss), як показано вище. Важливо зазначити, що існує також загальна форма — крос-ентропія (або категоріальна крос-ентропія), яка використовується для задач багатокласової класифікації.

Категоріальна крос-ентропія для одного навчального прикладу обчислюється так:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Де

  • CC — кількість класів;
  • yiy_i — фактичне значення цільової змінної (1, якщо клас є правильним, 0 — інакше);
  • pip_i — передбачена ймовірність належності прикладу до класу ii.

Ми обчислюємо функцію втрат для кожного навчального прикладу та беремо середнє значення. Це середнє називається функцією вартості (cost function). Логістична регресія знаходить параметри β\beta, які мінімізують функцію вартості.

question mark

Яка з цих функцій використовується як функція втрат у задачах класифікації?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 22

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

bookПошук Параметрів

Свайпніть щоб показати меню

Логістична регресія вимагає від комп'ютера лише навчитися знаходити найкращі параметри ββ. Для цього потрібно визначити, що означає «найкращі параметри». Згадаємо, як працює модель: вона прогнозує pp — ймовірність належності до класу 1:

p=σ(z)=σ(β0+β1x1+...)p = \sigma (z) = \sigma (\beta_0 + \beta_1x_1 + ...)

Де

σ(z)=11+ez\sigma (z) = \frac{1}{1 + e^{-z}}

Очевидно, що модель з хорошими параметрами — це та, яка прогнозує високе (близьке до 1) pp для об'єктів, що дійсно належать до класу 1, і низьке (близьке до 0) pp для об'єктів з фактичним класом 0.

Для оцінки якості моделі використовується функція втрат. У лінійній регресії як функцію втрат використовували MSE (середньоквадратична помилка). У цьому випадку використовується інша функція:

Тут pp позначає ймовірність належності до класу 1, як це передбачає модель, а yy — це фактичне значення цільової змінної.

Ця функція не лише штрафує за неправильні передбачення, а й враховує впевненість моделі у своїх прогнозах. Як показано на зображенні вище, коли значення pp близьке до yy (фактичної цілі), функція втрат залишається відносно малою, що свідчить про впевнений вибір правильної категорії моделлю. Навпаки, якщо передбачення неправильне, функція втрат зростає експоненційно зі збільшенням впевненості моделі у неправильному класі.

У контексті бінарної класифікації із сигмоїдною функцією використовується функція втрат, яка називається бінарна крос-ентропія (binary cross-entropy loss), як показано вище. Важливо зазначити, що існує також загальна форма — крос-ентропія (або категоріальна крос-ентропія), яка використовується для задач багатокласової класифікації.

Категоріальна крос-ентропія для одного навчального прикладу обчислюється так:

Categorical Cross-Entropy Loss=i=1Cyilog(pi)\text{Categorical Cross-Entropy Loss} = -\sum_{i=1}^{C} y_i \log(p_i)

Де

  • CC — кількість класів;
  • yiy_i — фактичне значення цільової змінної (1, якщо клас є правильним, 0 — інакше);
  • pip_i — передбачена ймовірність належності прикладу до класу ii.

Ми обчислюємо функцію втрат для кожного навчального прикладу та беремо середнє значення. Це середнє називається функцією вартості (cost function). Логістична регресія знаходить параметри β\beta, які мінімізують функцію вартості.

question mark

Яка з цих функцій використовується як функція втрат у задачах класифікації?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 22
some-alt