Kuinka Suuret Kielimallit Ymmärtävät Kehotteita
Suuret kielimallit (LLM:t) käsittelevät kehotteita jakamalla syötetyn tekstin pienempiin yksiköihin, joita kutsutaan tokeneiksi. Malli käyttää näitä tokeneita ymmärtääkseen ohjeidesi merkityksen ja kontekstin, ja tuottaa sitten vastauksen perustuen laajoista tietomääristä oppimiinsa malleihin.
Token on tekstin osa, kuten sana tai sanan osa, jonka malli käsittelee yksittäin.
LLM:t eivät "ajattele" kuten ihmiset. Ne ennustavat seuraavan sanan tai ilmauksen syötekäskyn ja koulutusdatan perusteella.
Jos kehotteesi on liian pitkä, malli saattaa jättää huomiotta syötteen aiemmat osat. Tätä syötteen kokoa kutsutaan nimellä konteksti-ikkuna.
Konteksti-ikkuna on suurin määrä tokeneita, jonka LLM voi huomioida kerralla vastauksen tuottamisessa.
Esimerkki
Jos pyydät: Write a poem about the ocean, malli tulkitsee jokaisen sanan tokenina ja käyttää kontekstia tuottaakseen asiaankuuluvan runon. Jos lisäät yksityiskohtia, kuten Write a four-line poem about the ocean using vivid imagery, malli hyödyntää lisäkontekstia räätälöidäkseen vastauksensa.
Konteksti-ikkunan huomioiminen auttaa välttämään tärkeän tiedon katoamisen pitkissä kehotteissa.
Kiitos palautteestasi!
Kysy tekoälyä
Kysy tekoälyä
Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme
What are tokens and how are they different from words?
Can you explain what a context window is in more detail?
How does adding more details to a prompt affect the model's response?
Awesome!
Completion rate improved to 11.11
Kuinka Suuret Kielimallit Ymmärtävät Kehotteita
Pyyhkäise näyttääksesi valikon
Suuret kielimallit (LLM:t) käsittelevät kehotteita jakamalla syötetyn tekstin pienempiin yksiköihin, joita kutsutaan tokeneiksi. Malli käyttää näitä tokeneita ymmärtääkseen ohjeidesi merkityksen ja kontekstin, ja tuottaa sitten vastauksen perustuen laajoista tietomääristä oppimiinsa malleihin.
Token on tekstin osa, kuten sana tai sanan osa, jonka malli käsittelee yksittäin.
LLM:t eivät "ajattele" kuten ihmiset. Ne ennustavat seuraavan sanan tai ilmauksen syötekäskyn ja koulutusdatan perusteella.
Jos kehotteesi on liian pitkä, malli saattaa jättää huomiotta syötteen aiemmat osat. Tätä syötteen kokoa kutsutaan nimellä konteksti-ikkuna.
Konteksti-ikkuna on suurin määrä tokeneita, jonka LLM voi huomioida kerralla vastauksen tuottamisessa.
Esimerkki
Jos pyydät: Write a poem about the ocean, malli tulkitsee jokaisen sanan tokenina ja käyttää kontekstia tuottaakseen asiaankuuluvan runon. Jos lisäät yksityiskohtia, kuten Write a four-line poem about the ocean using vivid imagery, malli hyödyntää lisäkontekstia räätälöidäkseen vastauksensa.
Konteksti-ikkunan huomioiminen auttaa välttämään tärkeän tiedon katoamisen pitkissä kehotteissa.
Kiitos palautteestasi!