Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Як Великі Мовні Моделі Розуміють Підказки | Основи Prompt Engineering
Основи промпт-інжинірингу

bookЯк Великі Мовні Моделі Розуміють Підказки

Великі мовні моделі (LLMs) обробляють підказки, розбиваючи вхідний текст на менші одиниці, які називаються токенами. Модель використовує ці токени для розуміння значення та контексту ваших інструкцій, а потім генерує відповідь на основі шаблонів, вивчених із великих обсягів даних.

Note
Визначення

Токен — це частина тексту, наприклад слово або його частина, яку модель обробляє окремо.

LLMs не "мислять" як люди. Вони прогнозують наступне слово або фразу на основі вхідної підказки та своїх навчальних даних.

Якщо ваша підказка занадто довга, модель може ігнорувати попередні частини введення. Цей розмір введення називається контекстним вікном.

Note
Визначення

Вікно контексту — це максимальна кількість токенів, яку LLM може враховувати одночасно під час генерації відповіді.

Приклад

Якщо ви запитаєте: Write a poem about the ocean, модель інтерпретує кожне слово як токен і використовує контекст для створення відповідного вірша. Якщо ви додасте більше деталей, наприклад: Write a four-line poem about the ocean using vivid imagery, модель використовує додатковий контекст для адаптації своєї відповіді.

Note
Швидке нагадування

Усвідомлення вікна контексту допомагає уникнути втрати важливої інформації у довгих підказках.

question mark

Що таке токен у контексті LLM?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 2

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Awesome!

Completion rate improved to 11.11

bookЯк Великі Мовні Моделі Розуміють Підказки

Свайпніть щоб показати меню

Великі мовні моделі (LLMs) обробляють підказки, розбиваючи вхідний текст на менші одиниці, які називаються токенами. Модель використовує ці токени для розуміння значення та контексту ваших інструкцій, а потім генерує відповідь на основі шаблонів, вивчених із великих обсягів даних.

Note
Визначення

Токен — це частина тексту, наприклад слово або його частина, яку модель обробляє окремо.

LLMs не "мислять" як люди. Вони прогнозують наступне слово або фразу на основі вхідної підказки та своїх навчальних даних.

Якщо ваша підказка занадто довга, модель може ігнорувати попередні частини введення. Цей розмір введення називається контекстним вікном.

Note
Визначення

Вікно контексту — це максимальна кількість токенів, яку LLM може враховувати одночасно під час генерації відповіді.

Приклад

Якщо ви запитаєте: Write a poem about the ocean, модель інтерпретує кожне слово як токен і використовує контекст для створення відповідного вірша. Якщо ви додасте більше деталей, наприклад: Write a four-line poem about the ocean using vivid imagery, модель використовує додатковий контекст для адаптації своєї відповіді.

Note
Швидке нагадування

Усвідомлення вікна контексту допомагає уникнути втрати важливої інформації у довгих підказках.

question mark

Що таке токен у контексті LLM?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 2
some-alt