Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Miksi positionaalinen koodaus on tärkeää | Transformer-Perusteiden Ymmärtäminen
Transformerit Luonnollisen Kielen Käsittelyssä

bookMiksi positionaalinen koodaus on tärkeää

Pyyhkäise näyttääksesi valikon

Ilman tapaa koodata jokaisen tokenin sijaintia Transformer-malli näkisi syötteenä olevan tekstin sanapussina, jolloin lauseen rakenne ja merkitys katoaisivat. Esimerkiksi lauseet "the cat chased the mouse" ja "the mouse chased the cat" sisältävät samat sanat, mutta niiden merkitys on täysin erilainen sanajärjestyksen vuoksi. Tämän ratkaisemiseksi otetaan käyttöön paikkakoodaus (positional encoding), joka lisää tietoa tokenien järjestyksestä malliin. Näin malli pystyy erottamaan samojen sanojen eri järjestykset ja ymmärtämään tekstin kontekstin ja merkityksen paremmin.

Positiotiedon lisäämiseen token-upotuksiin Transformereissa on useita strategioita. Kaksi yleisintä ovat sinimuotoinen ja opittu paikkakoodaus. Molemmilla lähestymistavoilla on omat erityispiirteensä ja kompromissinsa, erityisesti eri NLP-tehtävissä.

StrategiaKuvausEdutHaitat
SinimuotoinenKäyttää kiinteitä sini- ja kosinifunktioita sijaintien koodaamiseen.Mallin kouluttamiseen ei tarvita ylimääräisiä parametreja.Vähemmän joustava tiettyihin datakuvioihin.
OpittuOppii jokaiselle sijainnille oman upotusvektorin.Malli mukautuu tehokkaammin tiettyyn aineistoon.Ei välttämättä yleisty hyvin pidempiin sekvensseihin.
question mark

Mikä seuraavista parhaiten selittää, miksi paikkakoodaus on tarpeellinen Transformereissa?

Valitse oikea vastaus

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 1. Luku 6

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Osio 1. Luku 6
some-alt