Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Cbow- ja Skip-gram-mallit | Osio
Luonnollisen Kielen Käsittely

bookCbow- ja Skip-gram-mallit

Pyyhkäise näyttääksesi valikon

Sekä CBoW- että Skip-gram-arkkitehtuurit oppivat sanaupotuksia neuroverkkorakenteen avulla, joka koostuu seuraavista kerroksista:

  • Syötekerros;
  • Yksi piilokerros;
  • Ulostulokerros.

Painomatriisi syöte- ja piilokerrosten välillä, merkittynä W1W^1 tai EE, toimii upotusmatriisina. Jokainen tämän matriisin rivi edustaa upotusvektoria vastaavalle sanalle, ja ii:s rivi vastaa sanastossa olevaa ii:ttä sanaa.

Tämä matriisi sisältää VV (sanaston koko) upotusta, joista jokaisen koko on NN, määrittelemämme dimensio. Kun tämän matriisin transpoosi (N×VN \times V matriisi) kerrotaan one-hot-koodatulla vektorilla (V×1V \times 1 vektori), saadaan tietyn sanan upotus, joka on N×1N \times 1 vektori.

Toinen painomatriisi, joka sijaitsee piilo- ja ulostulokerrosten välillä, on kooltaan N×VN \times V. Kun tämän matriisin transpoosi (V×NV \times N matriisi) kerrotaan piilokerroksen N×1N \times 1 vektorilla, tuloksena on V×1V \times 1 vektori.

CBoW

Tarkastellaan nyt esimerkkiä CBoW-mallin käytöstä:

Ensiksi upotematriisin transpoosi kerrotaan kontekstisanojen one-hot-vektoreilla, jolloin saadaan niiden upotteet. Nämä upotteet summataan tai keskiarvoistetaan toteutuksesta riippuen, jolloin muodostuu yksi vektori. Tämä vektori kerrotaan W2W^2-matriisilla, jolloin saadaan V×1V \times 1 -vektori.

Lopuksi tämä vektori syötetään softmax-aktivointifunktion läpi, jolloin siitä muodostuu todennäköisyysjakauma, jossa jokainen alkio kuvaa sanaston sanan todennäköisyyttä olla kohdesana.

Tämän jälkeen lasketaan häviöfunktio ja molempia painomatriiseja päivitetään häviön minimoimiseksi. Ihannetilanteessa kohdesanan todennäköisyyden tulisi olla mahdollisimman lähellä 1 ja muiden sanojen todennäköisyyksien lähellä nollaa. Tämä prosessi toistetaan jokaiselle kohdesanan ja sen kontekstisanojen yhdistelmälle.

Kun kaikki yhdistelmät on käsitelty, yksi epookki on valmis. Tyypillisesti neuroverkkoa koulutetaan useiden epookkien ajan, jotta oppiminen olisi tarkkaa. Lopuksi tuloksena saadun upotematriisin rivejä voidaan käyttää sanan upotteina. Jokainen rivi vastaa tietyn sanaston sanan vektoriesitystä, joka kuvaa sanan semanttisia ominaisuuksia koulutetussa mallissa.

Skip-gram

Tarkastellaan nyt skip-gram-mallia:

Kuten huomaat, prosessi on pääosin samanlainen kuin CBoW-mallissa. Se alkaa kohdesanan upotteen hakemisella, jota käytetään piilotetussa kerroksessa. Tämän jälkeen tuotetaan V×1V \times 1 -vektori ulostulokerroksessa. Tämä vektori saadaan kertomalla kohdesanan upote ulostulokerroksen painomatriisilla, minkä jälkeen softmax-aktivointifunktio muuntaa sen todennäköisyysvektoriksi.

Note
Huomio

Vaikka tämä tuloksena saatu todennäköisyysvektori on sama kaikille kontekstisanoille, jotka liittyvät yhteen kohdesanaan yhden koulutusaskeleen aikana, jokaisen kontekstisanan tappio lasketaan yksittäin.

Jokaisen kontekstisanan tappio summataan, ja painomatriiseja päivitetään jokaisella iteraatiolla kokonaistappion minimoimiseksi. Kun määritelty määrä epookkeja on suoritettu, upotematriisia voidaan käyttää sanaupotteiden hakemiseen.

Note
Lisätietoa

Käytännössä, erityisesti suurilla sanastoilla, softmax-funktio voi olla liian laskennallisesti raskas. Tämän vuoksi laskennan tehostamiseksi käytetään usein approksimaatioita, kuten negatiivista näytteenottoa.

1. Täydennä aukot

2. Mitä ensimmäinen painomatriisi W1W^1 neuroverkossa edustaa?

question-icon

Täydennä aukot

The architecture tries to predict the target word from its context.
The
architecture tries to predict the context of the target word.

Click or drag`n`drop items and fill in the blanks

question mark

Mitä ensimmäinen painomatriisi W1W^1 neuroverkossa edustaa?

Select the correct answer

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 27

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Osio 1. Luku 27
some-alt