Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Wie Große Sprachmodelle Eingaben Verstehen | Grundlagen des Prompt Engineerings
Grundlagen des Prompt Engineerings

bookWie Große Sprachmodelle Eingaben Verstehen

Große Sprachmodelle (LLMs) verarbeiten Prompts, indem sie den eingegebenen Text in kleinere Einheiten, sogenannte Tokens, zerlegen. Das Modell nutzt diese Tokens, um die Bedeutung und den Kontext Ihrer Anweisungen zu erfassen und generiert anschließend eine Antwort basierend auf Mustern, die es aus umfangreichen Datenmengen gelernt hat.

Note
Definition

Token ist ein Textstück, wie ein Wort oder ein Teil eines Wortes, das vom Modell einzeln verarbeitet wird.

LLMs "denken" nicht wie Menschen. Sie sagen das nächste Wort oder die nächste Phrase basierend auf dem Eingabeprompt und ihren Trainingsdaten vorher.

Ist Ihr Prompt zu lang, kann das Modell frühere Teile der Eingabe ignorieren. Diese Eingabegröße wird als Kontextfenster bezeichnet.

Note
Definition

Kontextfenster ist die maximale Anzahl an Tokens, die ein LLM gleichzeitig bei der Generierung einer Antwort berücksichtigen kann.

Beispiel

Wenn Sie fragen: Write a poem about the ocean, interpretiert das Modell jedes Wort als Token und nutzt den Kontext, um ein passendes Gedicht zu generieren. Wenn Sie weitere Details hinzufügen, wie zum Beispiel Write a four-line poem about the ocean using vivid imagery, verwendet das Modell den zusätzlichen Kontext, um seine Antwort anzupassen.

Note
Kurze Erinnerung

Das Bewusstsein für das Kontextfenster hilft, den Verlust wichtiger Informationen bei langen Prompts zu vermeiden.

question mark

Was ist ein Token im Kontext von LLMs?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Awesome!

Completion rate improved to 11.11

bookWie Große Sprachmodelle Eingaben Verstehen

Swipe um das Menü anzuzeigen

Große Sprachmodelle (LLMs) verarbeiten Prompts, indem sie den eingegebenen Text in kleinere Einheiten, sogenannte Tokens, zerlegen. Das Modell nutzt diese Tokens, um die Bedeutung und den Kontext Ihrer Anweisungen zu erfassen und generiert anschließend eine Antwort basierend auf Mustern, die es aus umfangreichen Datenmengen gelernt hat.

Note
Definition

Token ist ein Textstück, wie ein Wort oder ein Teil eines Wortes, das vom Modell einzeln verarbeitet wird.

LLMs "denken" nicht wie Menschen. Sie sagen das nächste Wort oder die nächste Phrase basierend auf dem Eingabeprompt und ihren Trainingsdaten vorher.

Ist Ihr Prompt zu lang, kann das Modell frühere Teile der Eingabe ignorieren. Diese Eingabegröße wird als Kontextfenster bezeichnet.

Note
Definition

Kontextfenster ist die maximale Anzahl an Tokens, die ein LLM gleichzeitig bei der Generierung einer Antwort berücksichtigen kann.

Beispiel

Wenn Sie fragen: Write a poem about the ocean, interpretiert das Modell jedes Wort als Token und nutzt den Kontext, um ein passendes Gedicht zu generieren. Wenn Sie weitere Details hinzufügen, wie zum Beispiel Write a four-line poem about the ocean using vivid imagery, verwendet das Modell den zusätzlichen Kontext, um seine Antwort anzupassen.

Note
Kurze Erinnerung

Das Bewusstsein für das Kontextfenster hilft, den Verlust wichtiger Informationen bei langen Prompts zu vermeiden.

question mark

Was ist ein Token im Kontext von LLMs?

Select the correct answer

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 2
some-alt