Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Галюцинації. Чому ШІ Впевнено Робить Помилки | Ризики, обмеження та відповідальне використання
Розуміння ШІ для роботи

bookГалюцинації. Чому ШІ Впевнено Робить Помилки

Свайпніть щоб показати меню

Ви дізналися, як отримувати корисні результати від ШІ. Тепер настав час дізнатися, коли їм не варто довіряти.

Інструменти ШІ володіють мовою, впевнені та швидкі. Водночас вони здатні генерувати інформацію, яка звучить цілком правдоподібно — але є абсолютно неправильною. Розуміння причин цього явища — одна з найважливіших речей, яку ви можете винести з цього курсу.

Що таке галюцинація?

Note
Визначення

У ШІ "галюцинація" — це коли модель генерує контент, який є фактично неправильним, вигаданим або не має підґрунтя в реальності, але подається з такою ж впевненою інтонацією, як і достовірна інформація.

Приклади галюцинацій у реальному світі:

  • Адвокат подає юридичний документ, посилаючись на шість судових справ. Усі шість були вигадані ChatGPT. Жодної з них не існувало;
  • Згенерований ШІ опис продукту містить технічну характеристику, яка звучить правдоподібно, але повністю вигадана;
  • Резюме наукової статті містить статистику, якої ніколи не було в оригінальному документі;
  • ШІ рекомендує певне регулювання або закон, які не існують у зазначеній юрисдикції.

ШІ не знає, що помиляється. Воно не бреше. Воно виконує саме те, для чого його створено — генерує найбільш статистично ймовірне продовження тексту — і в цих випадках цей процес призводить до хибного результату.

Опис скріншоту: Вікно чату, де користувач запитує: «Які основні висновки звіту Nielsen 2021 про продуктивність дистанційної роботи?» ШІ відповідає детальним, впевненим підсумком — конкретні відсотки, імена авторів, ключові висновки — усе подано як факт. Під відповіддю червона анотаційна рамка накладається на результат із написом: «Цей звіт не існує. Усі деталі вигадані моделлю.» Відповідь ШІ не містить обережних формулювань — вона звучить авторитетно. Контраст між впевненим тоном і вигаданим змістом є суттю. Жодні фейкові посилання не повинні виглядати досить реалістично для копіювання — використовуйте очевидно умовні імена, наприклад, «Nielsen 2021 Remote Work Insights Report, authored by J. Harlow and S. Müller.»

Чому це відбувається?

Згадайте з Розділу 1: ШІ прогнозує наступний токен на основі шаблонів. Він не має внутрішнього механізму перевірки фактів. Він не усвідомлює, що знає, а чого не знає.

Коли модель стикається з питанням, на яке не може дати надійної відповіді, вона не зупиняється — вона генерує відповідь, яка відповідає шаблону правильної відповіді. Результат — зміст, який є зв'язним, структурованим, але неправильним.

Галюцинації частіше виникають, коли:

  • Ви запитуєте про дуже конкретні факти, статистику або посилання;
  • Ви запитуєте про нещодавні події після дати завершення навчання моделі;
  • Ви запитуєте про вузькоспеціалізовані теми з обмеженими навчальними даними;
  • Питання має структуру «заповнити пропуск», що спонукає до вигадування.

Чим не є галюцинації

Варто бути точним у цьому:

  • Галюцинації — це не обман чи злий намір з боку ШІ;
  • Вони не є ознакою того, що ШІ зламаний або непридатний до використання;
  • Це не випадкові помилки — вони мають передбачувані закономірності;
  • Вони не властиві лише одному інструменту — всі основні системи ШІ галюцинують.

Це структурна властивість роботи мовних моделей. Правильний підхід — не уникати ШІ, а знати, коли потрібно перевіряти інформацію.

Золоте правило: грамотність — не точність

Найважливіше, що потрібно засвоїти про результати роботи ШІ:

Відповідь може бути чудово написаною, логічно структурованою і повністю неправильною.

Якість мови нічого не говорить про якість інформації. ШІ пише з однаковою впевненістю незалежно від того, чи є відповідь правильною. Завжди сприймайте факти, статистику, імена, дати та посилання як неперевірені, доки ви їх не перевірите.

1. Яке з наведеного найкраще описує галюцинацію ШІ?

2. Чому моделі ШІ, такі як ChatGPT, іноді створюють інформацію, яка звучить правдоподібно, але насправді є неправдивою, і що це означає для користувачів?

question mark

Яке з наведеного найкраще описує галюцинацію ШІ?

Виберіть правильну відповідь

question mark

Чому моделі ШІ, такі як ChatGPT, іноді створюють інформацію, яка звучить правдоподібно, але насправді є неправдивою, і що це означає для користувачів?

Виберіть правильну відповідь

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 3. Розділ 1

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Секція 3. Розділ 1
some-alt