Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Leer Hoe Grote Taalmodellen Prompts Begrijpen | Grondslagen van Prompt Engineering
Basisprincipes van Prompt Engineering

bookHoe Grote Taalmodellen Prompts Begrijpen

Grote taalmodellen (LLM's) verwerken prompts door de invoertekst op te splitsen in kleinere eenheden, genaamd tokens. Het model gebruikt deze tokens om de betekenis en context van uw instructies te begrijpen en genereert vervolgens een antwoord op basis van patronen die het heeft geleerd uit grote hoeveelheden data.

Note
Definitie

Een token is een stuk tekst, zoals een woord of een deel van een woord, dat het model afzonderlijk verwerkt.

LLM's "denken" niet zoals mensen. Ze voorspellen het volgende woord of de volgende zin op basis van de ingevoerde prompt en hun trainingsdata.

Als uw prompt te lang is, kan het model eerdere delen van de invoer negeren. Deze grootte van de invoer wordt de context window genoemd.

Note
Definitie

Contextvenster is het maximale aantal tokens dat een LLM tegelijkertijd kan overwegen bij het genereren van een antwoord.

Voorbeeld

Als je vraagt: Write a poem about the ocean, interpreteert het model elk woord als een token en gebruikt het de context om een relevant gedicht te genereren. Voeg je meer details toe, zoals Write a four-line poem about the ocean using vivid imagery, dan gebruikt het model de extra context om het antwoord aan te passen.

Note
Snelle Herinnering

Bewustzijn van het contextvenster helpt om te voorkomen dat belangrijke informatie verloren gaat in lange prompts.

question mark

Wat is een token in de context van LLM's?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 2

Vraag AI

expand

Vraag AI

ChatGPT

Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.

Awesome!

Completion rate improved to 11.11

bookHoe Grote Taalmodellen Prompts Begrijpen

Veeg om het menu te tonen

Grote taalmodellen (LLM's) verwerken prompts door de invoertekst op te splitsen in kleinere eenheden, genaamd tokens. Het model gebruikt deze tokens om de betekenis en context van uw instructies te begrijpen en genereert vervolgens een antwoord op basis van patronen die het heeft geleerd uit grote hoeveelheden data.

Note
Definitie

Een token is een stuk tekst, zoals een woord of een deel van een woord, dat het model afzonderlijk verwerkt.

LLM's "denken" niet zoals mensen. Ze voorspellen het volgende woord of de volgende zin op basis van de ingevoerde prompt en hun trainingsdata.

Als uw prompt te lang is, kan het model eerdere delen van de invoer negeren. Deze grootte van de invoer wordt de context window genoemd.

Note
Definitie

Contextvenster is het maximale aantal tokens dat een LLM tegelijkertijd kan overwegen bij het genereren van een antwoord.

Voorbeeld

Als je vraagt: Write a poem about the ocean, interpreteert het model elk woord als een token en gebruikt het de context om een relevant gedicht te genereren. Voeg je meer details toe, zoals Write a four-line poem about the ocean using vivid imagery, dan gebruikt het model de extra context om het antwoord aan te passen.

Note
Snelle Herinnering

Bewustzijn van het contextvenster helpt om te voorkomen dat belangrijke informatie verloren gaat in lange prompts.

question mark

Wat is een token in de context van LLM's?

Select the correct answer

Was alles duidelijk?

Hoe kunnen we het verbeteren?

Bedankt voor je feedback!

Sectie 1. Hoofdstuk 2
some-alt