Hoe Grote Taalmodellen Prompts Begrijpen
Grote taalmodellen (LLM's) verwerken prompts door de invoertekst op te splitsen in kleinere eenheden, genaamd tokens. Het model gebruikt deze tokens om de betekenis en context van uw instructies te begrijpen en genereert vervolgens een antwoord op basis van patronen die het heeft geleerd uit grote hoeveelheden data.
Een token is een stuk tekst, zoals een woord of een deel van een woord, dat het model afzonderlijk verwerkt.
LLM's "denken" niet zoals mensen. Ze voorspellen het volgende woord of de volgende zin op basis van de ingevoerde prompt en hun trainingsdata.
Als uw prompt te lang is, kan het model eerdere delen van de invoer negeren. Deze grootte van de invoer wordt de context window genoemd.
Contextvenster is het maximale aantal tokens dat een LLM tegelijkertijd kan overwegen bij het genereren van een antwoord.
Voorbeeld
Als je vraagt: Write a poem about the ocean, interpreteert het model elk woord als een token en gebruikt het de context om een relevant gedicht te genereren. Voeg je meer details toe, zoals Write a four-line poem about the ocean using vivid imagery, dan gebruikt het model de extra context om het antwoord aan te passen.
Bewustzijn van het contextvenster helpt om te voorkomen dat belangrijke informatie verloren gaat in lange prompts.
Bedankt voor je feedback!
Vraag AI
Vraag AI
Vraag wat u wilt of probeer een van de voorgestelde vragen om onze chat te starten.
Awesome!
Completion rate improved to 11.11
Hoe Grote Taalmodellen Prompts Begrijpen
Veeg om het menu te tonen
Grote taalmodellen (LLM's) verwerken prompts door de invoertekst op te splitsen in kleinere eenheden, genaamd tokens. Het model gebruikt deze tokens om de betekenis en context van uw instructies te begrijpen en genereert vervolgens een antwoord op basis van patronen die het heeft geleerd uit grote hoeveelheden data.
Een token is een stuk tekst, zoals een woord of een deel van een woord, dat het model afzonderlijk verwerkt.
LLM's "denken" niet zoals mensen. Ze voorspellen het volgende woord of de volgende zin op basis van de ingevoerde prompt en hun trainingsdata.
Als uw prompt te lang is, kan het model eerdere delen van de invoer negeren. Deze grootte van de invoer wordt de context window genoemd.
Contextvenster is het maximale aantal tokens dat een LLM tegelijkertijd kan overwegen bij het genereren van een antwoord.
Voorbeeld
Als je vraagt: Write a poem about the ocean, interpreteert het model elk woord als een token en gebruikt het de context om een relevant gedicht te genereren. Voeg je meer details toe, zoals Write a four-line poem about the ocean using vivid imagery, dan gebruikt het model de extra context om het antwoord aan te passen.
Bewustzijn van het contextvenster helpt om te voorkomen dat belangrijke informatie verloren gaat in lange prompts.
Bedankt voor je feedback!