Wie Große Sprachmodelle Eingaben Verstehen
Große Sprachmodelle (LLMs) verarbeiten Prompts, indem sie den eingegebenen Text in kleinere Einheiten, sogenannte Tokens, zerlegen. Das Modell nutzt diese Tokens, um die Bedeutung und den Kontext Ihrer Anweisungen zu erfassen und generiert anschließend eine Antwort basierend auf Mustern, die es aus umfangreichen Datenmengen gelernt hat.
Token ist ein Textstück, wie ein Wort oder ein Teil eines Wortes, das vom Modell einzeln verarbeitet wird.
LLMs "denken" nicht wie Menschen. Sie sagen das nächste Wort oder die nächste Phrase basierend auf dem Eingabeprompt und ihren Trainingsdaten vorher.
Ist Ihr Prompt zu lang, kann das Modell frühere Teile der Eingabe ignorieren. Diese Eingabegröße wird als Kontextfenster bezeichnet.
Kontextfenster ist die maximale Anzahl an Tokens, die ein LLM gleichzeitig bei der Generierung einer Antwort berücksichtigen kann.
Beispiel
Wenn Sie fragen: Write a poem about the ocean, interpretiert das Modell jedes Wort als Token und nutzt den Kontext, um ein passendes Gedicht zu generieren. Wenn Sie weitere Details hinzufügen, wie zum Beispiel Write a four-line poem about the ocean using vivid imagery, verwendet das Modell den zusätzlichen Kontext, um seine Antwort anzupassen.
Das Bewusstsein für das Kontextfenster hilft, den Verlust wichtiger Informationen bei langen Prompts zu vermeiden.
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen
Awesome!
Completion rate improved to 11.11
Wie Große Sprachmodelle Eingaben Verstehen
Swipe um das Menü anzuzeigen
Große Sprachmodelle (LLMs) verarbeiten Prompts, indem sie den eingegebenen Text in kleinere Einheiten, sogenannte Tokens, zerlegen. Das Modell nutzt diese Tokens, um die Bedeutung und den Kontext Ihrer Anweisungen zu erfassen und generiert anschließend eine Antwort basierend auf Mustern, die es aus umfangreichen Datenmengen gelernt hat.
Token ist ein Textstück, wie ein Wort oder ein Teil eines Wortes, das vom Modell einzeln verarbeitet wird.
LLMs "denken" nicht wie Menschen. Sie sagen das nächste Wort oder die nächste Phrase basierend auf dem Eingabeprompt und ihren Trainingsdaten vorher.
Ist Ihr Prompt zu lang, kann das Modell frühere Teile der Eingabe ignorieren. Diese Eingabegröße wird als Kontextfenster bezeichnet.
Kontextfenster ist die maximale Anzahl an Tokens, die ein LLM gleichzeitig bei der Generierung einer Antwort berücksichtigen kann.
Beispiel
Wenn Sie fragen: Write a poem about the ocean, interpretiert das Modell jedes Wort als Token und nutzt den Kontext, um ein passendes Gedicht zu generieren. Wenn Sie weitere Details hinzufügen, wie zum Beispiel Write a four-line poem about the ocean using vivid imagery, verwendet das Modell den zusätzlichen Kontext, um seine Antwort anzupassen.
Das Bewusstsein für das Kontextfenster hilft, den Verlust wichtiger Informationen bei langen Prompts zu vermeiden.
Danke für Ihr Feedback!