Wie KI eine Antwort generiert
Swipe um das Menü anzuzeigen
Um bessere Prompts zu verfassen, hilft es, ein grundlegendes mentales Modell davon zu haben, was nach dem Absenden passiert. Es ist nicht notwendig, die Mathematik hinter Sprachmodellen zu verstehen – aber das Verständnis des Prozesses auf konzeptioneller Ebene erklärt, warum Prompts so funktionieren, wie sie es tun, und warum die Ergebnisse auf eine Weise variieren können, die unvorhersehbar erscheint.
Vom Input zum Output: Was tatsächlich passiert
Wenn ein Prompt gesendet wird, sucht das Modell keine Antwort in einer Datenbank. Es ruft keine vorgefertigte Antwort ab. Es generiert eine Antwort – Token für Token – indem es vorhersagt, was als Nächstes kommen sollte, basierend auf dem gesamten Input.
Der Prozess läuft ungefähr so ab:
- Der Prompt wird in Tokens zerlegt – kleine Texteinheiten (ungefähr Wörter oder Wortteile);
- Das Modell verarbeitet diese Tokens durch Milliarden gelernter Parameter, um eine Repräsentation von Bedeutung und Absicht zu erstellen;
- Anschließend generiert es das Output-Token für Token, wobei jedes neue Token von allem beeinflusst wird, was zuvor kam;
- Dies setzt sich fort, bis das Modell einen natürlichen Endpunkt erreicht oder das Ausgabelimit erreicht ist.
Das Ergebnis wird nicht abgerufen – es wird konstruiert, Wort für Wort, basierend auf Mustern, die während des Trainings gelernt wurden.
Warum derselbe Prompt unterschiedliche Antworten liefern kann
Wenn du denselben Prompt zweimal sendest, kannst du zwei verschiedene Antworten erhalten. Das ist kein Fehler – es liegt an einem Parameter namens Temperature, der steuert, wie viel Zufälligkeit in den Auswahlprozess der Tokens eingeführt wird.
- Niedrige Temperature – das Modell wählt konsequent das wahrscheinlichste nächste Token. Die Ausgaben sind vorhersehbarer und wiederholender;
- Hohe Temperature – das Modell wählt gelegentlich weniger wahrscheinliche Tokens. Die Ausgaben sind abwechslungsreicher und kreativer, aber weniger konsistent.
Die meisten KI-Tools stellen die Temperature automatisch ein und bieten diese Einstellung den Nutzern nicht an. Praktisch ist wichtig zu wissen, dass Variation erwartet und normal ist – besonders bei kreativen oder offenen Aufgaben.
Für Aufgaben, die Konsistenz erfordern (standardisierte Zusammenfassungen, strukturierte Berichte, vorgefertigte Kommunikation), ist es ratsam, im Prompt expliziter bezüglich Format und erwarteter Ausgabe zu sein.
Worauf das Modell keinen Zugriff hat
Zu verstehen, was das Modell nicht sehen kann, ist genauso wichtig wie zu verstehen, wie es generiert:
- Es hat standardmäßig keinen Internetzugang – es sei denn, das Tool bietet Websuche explizit als Funktion an;
- Es hat ein Wissensstichtagsdatum – Ereignisse nach dem Training sind dem Modell unbekannt, sofern sie nicht im Prompt bereitgestellt werden;
- Es hat kein Gedächtnis zwischen Sitzungen – jedes neue Gespräch beginnt von vorne;
- Es kann deine Dateien, Bildschirme oder Systeme nicht sehen – es sei denn, du fügst den Inhalt explizit in den Prompt ein.
Jede dieser Einschränkungen kannst du im Prompt ausgleichen – indem du die Informationen bereitstellst, die dem Modell sonst fehlen würden. Genau dafür ist Kontext in einem Prompt gedacht.
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen