Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lära Hur Språkmodeller "Tänker" | Hur Modern AI Fungerar
Förståelse för AI i Arbetslivet

bookHur Språkmodeller "Tänker"

Svep för att visa menyn

Du behöver inte förstå hur en bilmotor fungerar för att köra — men att veta att den drivs av bränsle hjälper dig att undvika att få soppatorsk. Samma logik gäller AI. Du behöver ingen datavetenskaplig examen, men att förstå en kärnidé kommer att göra allt annat i den här kursen tydligare.

Prediktion, kärnidén

Stora språkmodeller (LLM:er) — teknologin bakom ChatGPT, Claude, Gemini och andra — fungerar genom att förutsäga vad som kommer härnäst.

Givet en sekvens av ord beräknar modellen vilket ord (eller fras) som sannolikt följer, baserat på mönster den lärt sig från enorma mängder av text: böcker, artiklar, webbplatser, kod och mer.

Det liknar autokomplettering på din telefon — men tränad på i princip hela internet, med betydligt större sofistikering.

Skärmdumpsbeskrivning: Ett rent, horisontellt diagram med tre steg sammankopplade med pilar. Steg 1 — en textruta märkt "Your input" som innehåller: "The weather today is…". Steg 2 — en ruta märkt "Model predicts the most likely next word" som visar tre alternativ med sannolikheter: "sunny" 42 %, "cold" 31 %, "unpredictable" 27 %. Steg 3 — en ruta märkt "Output builds up word by word". Enkel, platt design, ingen teknisk jargong någonstans i diagrammet.

Vad är token?

AI läser inte ord på samma sätt som du gör. Den delar upp text i små bitar som kallas token — ungefär motsvarande ord eller delar av ord.

Till exempel:

  • "running" kan vara en token;
  • "unbelievable" kan delas upp i "un" + "believ" + "able";
  • Även mellanslag och skiljetecken är token.

Detta är anledningen till att AI ibland hanterar ovanliga ord klumpigt, eller varför mycket långa inmatningar gör processen långsammare — varje token kräver processorkraft.

För praktisk användning är det viktigaste att veta detta: ju fler token i din konversation, desto mer kontext har modellen — och desto dyrare blir det att köra (vilket är anledningen till att gratisplaner har begränsningar).

Varför AI ibland hittar på saker

Modellen förutspår vad som låter rätt, den producerar inte alltid det som är faktiskt korrekt. När den stöter på ett ämne utanför sin träningsdata, eller en fråga den inte kan besvara säkert, säger den inte "Jag vet inte" — den genererar ändå ett trovärdigt svar.

Detta kallas en hallucination.

Det är inte ett fel, och det är inte att AI ljuger för dig. Det är en grundläggande egenskap hos hur prediktion fungerar. Att känna till detta är första steget till säker användning av AI. Vi går igenom det mer i detalj i avsnitt 3.

AI förutspår — den vet inte egentligen. Denna insikt förklarar varför bra promptar är viktiga, varför du bör verifiera viktiga fakta, och varför mänskligt omdöme aldrig kan ersättas när du arbetar med AI.

1. Vad är den grundläggande idén bakom hur stora språkmodeller som ChatGPT fungerar?

2. Varför genererar AI ibland svar som inte är faktamässigt korrekta?

question mark

Vad är den grundläggande idén bakom hur stora språkmodeller som ChatGPT fungerar?

Vänligen välj det korrekta svaret

question mark

Varför genererar AI ibland svar som inte är faktamässigt korrekta?

Vänligen välj det korrekta svaret

Var allt tydligt?

Hur kan vi förbättra det?

Tack för dina kommentarer!

Avsnitt 1. Kapitel 2

Fråga AI

expand

Fråga AI

ChatGPT

Fråga vad du vill eller prova någon av de föreslagna frågorna för att starta vårt samtal

Avsnitt 1. Kapitel 2
some-alt