Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Вивчайте Моделі CBOW та Skip-gram | Секція
Обробка природної мови

bookМоделі CBOW та Skip-gram

Свайпніть щоб показати меню

Обидві архітектури, CBoW та Skip-gram, навчають векторні подання слів за допомогою нейронної мережі, яка складається з наступних шарів:

  • Вхідний шар;
  • Один прихований шар;
  • Вихідний шар.

Матриця ваг між вхідним і прихованим шарами, позначена як W1W^1 або EE, виконує роль матриці векторних подань. Кожен рядок цієї матриці відповідає вектору подання для відповідного слова, де ii-ий рядок відповідає ii-ому слову у словнику.

Ця матриця містить VV (розмір словника) векторів подань, кожен з яких має розмір NN, який ми задаємо. Множення транспонованої цієї матриці (N×VN \times V матриця) на one-hot вектор (V×1V \times 1 вектор) дозволяє отримати вектор подання для конкретного слова, утворюючи N×1N \times 1 вектор.

Друга матриця ваг, між прихованим і вихідним шарами, має розмір N×VN \times V. Множення транспонованої цієї матриці (V×NV \times N матриця) на N×1N \times 1 вектор прихованого шару дає V×1V \times 1 вектор.

CBoW

Розгляньте приклад використання моделі CBoW:

Спочатку транспонована матриця ембеддінгів множиться на one-hot вектори контекстних слів для отримання їх ембеддінгів. Ці ембеддінги потім підсумовуються або усереднюються залежно від реалізації для формування одного вектора. Цей вектор множиться на матрицю W2W^2, у результаті чого отримується вектор розміром V×1V \times 1.

Нарешті, цей вектор проходить через активаційну функцію softmax, яка перетворює його на розподіл ймовірностей, де кожен елемент представляє ймовірність того, що певне слово словника є цільовим словом.

Далі обчислюється функція втрат, і обидві вагові матриці оновлюються для мінімізації цієї втрати. Ідеально, ймовірність цільового слова має бути близькою до 1, а ймовірності для всіх інших слів — наближатися до нуля. Цей процес повторюється для кожної комбінації цільового слова та його контекстних слів.

Після обробки всіх комбінацій завершується епоха. Зазвичай нейронну мережу навчають протягом декількох епох для забезпечення точного навчання. Нарешті, рядки отриманої матриці ембеддінгів можна використовувати як векторні подання слів. Кожен рядок відповідає векторному представленню певного слова у словнику, ефективно відображаючи його семантичні властивості у навчальній моделі.

Skip-gram

Розглянемо тепер модель skip-gram:

Як видно, процес здебільшого подібний до CBoW. Він починається з отримання векторного представлення цільового слова, яке потім використовується у прихованому шарі. Далі формується вектор розміром V×1V \times 1 на вихідному шарі. Цей вектор, отриманий шляхом множення векторного представлення цільового слова на матрицю ваг вихідного шару, потім перетворюється за допомогою активаційної функції softmax у вектор ймовірностей.

Note
Примітка

Хоча цей отриманий вектор ймовірностей є однаковим для всіх контекстних слів, пов'язаних з одним цільовим словом під час одного кроку навчання, втрата для кожного контекстного слова обчислюється окремо.

Втрата для кожного контекстного слова підсумовується, і матриці ваг оновлюються відповідно на кожній ітерації для мінімізації загальної втрати. Після завершення заданої кількості епох матриця векторних представлень може бути використана для отримання векторів слів.

Note
Додаткове вивчення

На практиці, особливо при великих словниках, функція softmax може бути надто обчислювально затратною. Тому для підвищення ефективності обчислень часто використовують апроксимації, такі як negative sampling.

1. Заповніть пропуски

2. Що представляє перша матриця ваг W1W^1 у нейронній мережі?

question-icon

Заповніть пропуски

The architecture tries to predict the target word from its context.
The
architecture tries to predict the context of the target word.

Натисніть або перетягніть елементи та заповніть пропуски

question mark

Що представляє перша матриця ваг W1W^1 у нейронній мережі?

Select the correct answer

Все було зрозуміло?

Як ми можемо покращити це?

Дякуємо за ваш відгук!

Секція 1. Розділ 27

Запитати АІ

expand

Запитати АІ

ChatGPT

Запитайте про що завгодно або спробуйте одне із запропонованих запитань, щоб почати наш чат

Секція 1. Розділ 27
some-alt