Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Wie KI eine Antwort generiert | Wie Prompts Funktionieren
Prompt Engineering für die Arbeit

bookWie KI eine Antwort generiert

Swipe um das Menü anzuzeigen

Um bessere Prompts zu verfassen, hilft es, ein grundlegendes mentales Modell davon zu haben, was nach dem Absenden passiert. Es ist nicht notwendig, die Mathematik hinter Sprachmodellen zu verstehen – aber das Verständnis des Prozesses auf konzeptioneller Ebene erklärt, warum Prompts so funktionieren, wie sie es tun, und warum die Ergebnisse auf eine Weise variieren können, die unvorhersehbar erscheint.

Vom Input zum Output: Was tatsächlich passiert

Wenn ein Prompt gesendet wird, sucht das Modell keine Antwort in einer Datenbank. Es ruft keine vorgefertigte Antwort ab. Es generiert eine Antwort – Token für Token – indem es vorhersagt, was als Nächstes kommen sollte, basierend auf dem gesamten Input.

Der Prozess läuft ungefähr so ab:

  1. Der Prompt wird in Tokens zerlegt – kleine Texteinheiten (ungefähr Wörter oder Wortteile);
  2. Das Modell verarbeitet diese Tokens durch Milliarden gelernter Parameter, um eine Repräsentation von Bedeutung und Absicht zu erstellen;
  3. Anschließend generiert es das Output-Token für Token, wobei jedes neue Token von allem beeinflusst wird, was zuvor kam;
  4. Dies setzt sich fort, bis das Modell einen natürlichen Endpunkt erreicht oder das Ausgabelimit erreicht ist.

Das Ergebnis wird nicht abgerufen – es wird konstruiert, Wort für Wort, basierend auf Mustern, die während des Trainings gelernt wurden.

Screenshot-Beschreibung: Ein übersichtliches, horizontales Flussdiagramm mit vier beschrifteten Schritten, die durch Pfeile verbunden sind. Schritt 1 — Kasten mit der Beschriftung "Ihr Prompt" enthält den Text: "Fassen Sie dies in 3 Stichpunkten für ein nicht-technisches Publikum zusammen." Schritt 2 — Kasten mit der Beschriftung "Tokenisierung" zeigt denselben Satz, aufgeteilt in farblich markierte Abschnitte: Fassen / Sie / dies / in / 3 / Stichpunkten / für / ein / nicht-technisches / Publikum. Schritt 3 — Kasten mit der Beschriftung "Modell sagt nächstes Token voraus" mit einer kleinen Wahrscheinlichkeitsanzeige, die drei Optionen zeigt: "Das" 38 %, "Hier" 31 %, "Dies" 19 %. Schritt 4 — Kasten mit der Beschriftung "Ausgabe entsteht Token für Token" zeigt eine teilweise ausgefüllte Antwort. Flaches, minimalistisches Design ohne Fachjargon im Diagramm selbst.

Warum derselbe Prompt unterschiedliche Antworten liefern kann

Wenn du denselben Prompt zweimal sendest, kannst du zwei verschiedene Antworten erhalten. Das ist kein Fehler – es liegt an einem Parameter namens Temperature, der steuert, wie viel Zufälligkeit in den Auswahlprozess der Tokens eingeführt wird.

  • Niedrige Temperature – das Modell wählt konsequent das wahrscheinlichste nächste Token. Die Ausgaben sind vorhersehbarer und wiederholender;
  • Hohe Temperature – das Modell wählt gelegentlich weniger wahrscheinliche Tokens. Die Ausgaben sind abwechslungsreicher und kreativer, aber weniger konsistent.

Die meisten KI-Tools stellen die Temperature automatisch ein und bieten diese Einstellung den Nutzern nicht an. Praktisch ist wichtig zu wissen, dass Variation erwartet und normal ist – besonders bei kreativen oder offenen Aufgaben.

Für Aufgaben, die Konsistenz erfordern (standardisierte Zusammenfassungen, strukturierte Berichte, vorgefertigte Kommunikation), ist es ratsam, im Prompt expliziter bezüglich Format und erwarteter Ausgabe zu sein.

Worauf das Modell keinen Zugriff hat

Zu verstehen, was das Modell nicht sehen kann, ist genauso wichtig wie zu verstehen, wie es generiert:

  • Es hat standardmäßig keinen Internetzugang – es sei denn, das Tool bietet Websuche explizit als Funktion an;
  • Es hat ein Wissensstichtagsdatum – Ereignisse nach dem Training sind dem Modell unbekannt, sofern sie nicht im Prompt bereitgestellt werden;
  • Es hat kein Gedächtnis zwischen Sitzungen – jedes neue Gespräch beginnt von vorne;
  • Es kann deine Dateien, Bildschirme oder Systeme nicht sehen – es sei denn, du fügst den Inhalt explizit in den Prompt ein.

Jede dieser Einschränkungen kannst du im Prompt ausgleichen – indem du die Informationen bereitstellst, die dem Modell sonst fehlen würden. Genau dafür ist Kontext in einem Prompt gedacht.

question mark

Warum kann derselbe Prompt unterschiedliche Antworten von einem KI-Modell erzeugen?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 1. Kapitel 2

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 1. Kapitel 2
some-alt