Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Oppiskele Hallusinaatiot: Miksi Tekoäly Erehdyy Itsevarmasti | Riskit, rajoitukset ja vastuullinen käyttö
Tekoälyn ymmärtäminen työelämässä

bookHallusinaatiot: Miksi Tekoäly Erehdyy Itsevarmasti

Pyyhkäise näyttääksesi valikon

Olet oppinut, miten saat hyödyllisiä tuloksia tekoälyltä. Nyt on aika oppia, milloin niihin ei kannata luottaa.

Tekoälytyökalut ovat sujuvia, itsevarmoja ja nopeita. Ne pystyvät myös tuottamaan tietoa, joka kuulostaa täysin uskottavalta — mutta on täysin väärin. Ymmärrys siitä, miksi näin tapahtuu, on yksi tärkeimmistä asioista, jotka voit oppia tältä kurssilta.

Mikä on hallusinaatio?

Note
Määritelmä

Tekoälyssä "hallusinaatio" tarkoittaa tilannetta, jossa malli tuottaa sisältöä, joka on tosiasiallisesti virheellistä, keksittyä tai ei perustu todellisuuteen — mutta esittää sen yhtä itsevarmasti kuin oikean tiedon.

Esimerkkejä hallusinaatioista käytännössä:

  • Asianajaja toimittaa oikeudelle lausunnon, jossa viitataan kuuteen oikeustapaukseen. Kaikki kuusi tapausta olivat ChatGPT:n keksimiä. Yhtäkään niistä ei ollut olemassa;
  • Tekoälyn tuottama tuotekuvaus sisältää teknisen ominaisuuden, joka kuulostaa uskottavalta, mutta on täysin keksitty;
  • Tutkimusartikkelin tiivistelmässä esiintyy tilastotieto, jota ei ollut alkuperäisessä dokumentissa;
  • Tekoäly suosittelee tiettyä säädöstä tai lakia, jota ei ole olemassa mainitulla lainkäyttöalueella.

Tekoäly ei tiedä olevansa väärässä. Se ei valehtele. Se tekee juuri sitä, mihin se on suunniteltu — tuottamaan tilastollisesti todennäköisimmän jatkon tekstille — ja näissä tapauksissa tämä prosessi tuottaa virheellistä sisältöä.

Kuvakaappauksen kuvaus: Keskusteluikkuna, jossa käyttäjä kysyy: "Mitkä olivat vuoden 2021 Nielsen-raportin keskeiset havainnot etätyön tuottavuudesta?" Tekoäly vastaa yksityiskohtaisella, itsevarmalla yhteenvedolla — tarkkoja prosenttilukuja, nimettyjä kirjoittajia, keskeisiä johtopäätöksiä — kaikki esitetty faktoina. Vastauksen alapuolella punainen huomautuslaatikko, jossa lukee: "Tätä raporttia ei ole olemassa. Kaikki yksityiskohdat ovat mallin keksimiä." Tekoälyn vastaus ei sisällä varauksellista kieltä — se kuulostaa auktoritatiiviselta. Kontrasti itsevarman sävyn ja keksityn sisällön välillä on olennainen. Mahdolliset tekaistut viittaukset eivät saa näyttää aidolta — käytä selvästi paikkamerkkinimiä, kuten "Nielsen 2021 Remote Work Insights Report, kirjoittajina J. Harlow ja S. Müller."

Miksi näin tapahtuu?

Muista kohdasta 1: Tekoäly ennustaa seuraavan tokenin mallien perusteella. Sillä ei ole sisäistä faktantarkistajaa. Sillä ei ole tietoisuutta siitä, mitä se tietää ja mitä ei.

Kun malli kohtaa kysymyksen, johon se ei pysty luotettavasti vastaamaan, se ei pysähdy — vaan tuottaa vastauksen, joka sopii oikean vastauksen malliin. Tuloksena on sujuvaa, rakenteellista ja virheellistä sisältöä.

Hallusinaatiot ovat todennäköisempiä, kun:

  • Kysyt hyvin tarkkoja faktoja, tilastoja tai viittauksia;
  • Kysyt tuoreista tapahtumista, jotka ovat mallin koulutusajankohdan jälkeen;
  • Kysyt kapeista aiheista, joista on vähän koulutusdataa;
  • Kysymys on "täydennä lause" -tyyppinen, mikä houkuttelee keksimään sisältöä.

Mitä harhat eivät ole

On syytä olla tarkka tässä asiassa:

  • Harhat eivät tarkoita, että tekoäly olisi petollinen tai pahantahtoinen;
  • Ne eivät ole merkki siitä, että tekoäly olisi rikki tai käyttökelvoton;
  • Ne eivät ole satunnaisia virheitä — niissä on ennustettavia kaavoja;
  • Ne eivät ole yhden työkalun ominaisuus — kaikki merkittävät tekoälyjärjestelmät tuottavat harhoja.

Kyseessä on kielellisten mallien rakenteellinen ominaisuus. Oikea suhtautuminen ei ole välttää tekoälyä, vaan tietää milloin tarkistaa tiedot.

Kultainen sääntö: sujuvuus ei ole sama kuin oikeellisuus

Tärkein asia, joka tekoälyn tuotoksista tulee sisäistää:

Vastaus voi olla erinomaisesti kirjoitettu, loogisesti jäsennelty ja täysin väärä.

Kielen laatu ei kerro mitään tiedon laadusta. Tekoäly kirjoittaa johdonmukaisella varmuudella riippumatta siitä, onko se oikeassa. Kohtele aina faktoja, tilastoja, nimiä, päivämääriä ja viittauksia varmistamattomina, kunnes olet tarkistanut ne.

1. Mikä seuraavista kuvaa parhaiten tekoälyn harhaa?

2. Miksi tekoälymallit, kuten ChatGPT, tuottavat joskus tietoa, joka kuulostaa oikealta mutta on todellisuudessa virheellistä, ja mitä tämä tarkoittaa käyttäjille?

question mark

Mikä seuraavista kuvaa parhaiten tekoälyn harhaa?

Valitse oikea vastaus

question mark

Miksi tekoälymallit, kuten ChatGPT, tuottavat joskus tietoa, joka kuulostaa oikealta mutta on todellisuudessa virheellistä, ja mitä tämä tarkoittaa käyttäjille?

Valitse oikea vastaus

Oliko kaikki selvää?

Miten voimme parantaa sitä?

Kiitos palautteestasi!

Osio 3. Luku 1

Kysy tekoälyä

expand

Kysy tekoälyä

ChatGPT

Kysy mitä tahansa tai kokeile jotakin ehdotetuista kysymyksistä aloittaaksesi keskustelumme

Osio 3. Luku 1
some-alt