Die Tatsächlichen Grenzen Kennen
Swipe um das Menü anzuzeigen
Gute Prompts können viel bewirken. Sie können jedoch nicht alles leisten. Ein Teil der effektiven Nutzung von KI besteht darin, die Situationen zu erkennen, in denen ein besserer Prompt keine Lösung ist – wo die Einschränkung struktureller Natur ist und keine Technik ein zuverlässiges Ergebnis liefern kann.
Das Wissen um diese Grenzen spart Zeit und verhindert, dass man Ausgaben vertraut, denen man nicht vertrauen sollte.
Grenze 1 — Informationen, die nicht in den Trainingsdaten enthalten sind
KI-Modelle werden auf Daten bis zu einem bestimmten Stichtag trainiert. Alles, was nach diesem Datum passiert ist, liegt außerhalb des Wissens des Modells – und ein sorgfältigeres Prompting ändert daran nichts.
Betroffen sind:
- Aktuelle Nachrichten, regulatorische Änderungen oder Marktentwicklungen;
- Neue Produkteinführungen, aktualisierte Preise oder aktuelle Forschungsergebnisse;
- Ereignisse, Entscheidungen oder Ankündigungen, die nach dem Training des Modells stattgefunden haben.
Was Prompting nicht beheben kann: Die fehlenden Informationen sind schlichtweg nicht vorhanden. Das Modell erzeugt dennoch oft eine plausibel klingende Antwort – genau darin liegt die Gefahr.
Was stattdessen möglich ist: Ein Tool mit Websuche verwenden (ChatGPT mit Browse, Perplexity, Gemini mit Search) für zeitkritische Informationen oder die relevanten aktuellen Informationen direkt in den Prompt einfügen, damit das Modell damit arbeiten kann.
Grenze 2 — Verifizierte Fakten, Zitate und spezifische Daten
KI generiert plausiblen Text. Bei gut abgedeckten Themen ist dieser Text oft korrekt. Bei spezifischen Fakten – Statistiken, Zitaten, rechtlichen Verweisen, Studienergebnissen – ist er jedoch häufig falsch, und das lässt sich allein am Output nicht erkennen.
Keine Prompt-Technik kann dies zuverlässig beheben, da das Problem nicht in der Fragestellung liegt, sondern darin, was das Modell zuverlässig liefern kann.
Was Prompting nicht beheben kann: Das Modell aufzufordern, "genau zu sein" oder "nur verifizierte Quellen zu verwenden", verschafft ihm keinen Zugang zu Informationen, die es nicht besitzt. Dies kann Halluzinationen leicht reduzieren, aber nicht beseitigen.
Was stattdessen möglich ist: KI nutzen, um Struktur und Sprache von Inhalten zu erstellen, die spezifische Fakten erfordern, und die verifizierten Daten anschließend selbst aus Primärquellen ergänzen. Jede spezifische Aussage der KI als unbelegt betrachten, bis sie überprüft wurde.
Grenze 3 — Der spezifische Kontext Ihres Unternehmens
Das Modell hat keinerlei Kenntnis von der internen Situation Ihres Unternehmens — Ihrer Strategie, Ihren Teamdynamiken, Ihren Kundenbeziehungen, Ihrem Produktfahrplan, Ihrer Unternehmenskultur oder der Geschichte jeder Entscheidung, an der Sie arbeiten.
Wenn Sie die KI um Rat, Empfehlungen oder Analysen zu Ihrer spezifischen Situation bitten, basiert die Antwort auf generellen Mustern — nicht auf Ihrem tatsächlichen Kontext. Sie klingt passend, kann aber völlig an Ihrer Realität vorbeigehen.
Was Prompting teilweise beheben kann: Sie können Kontext in Ihrem Prompt bereitstellen, und je spezifischer dieser Kontext ist, desto gezielter wird die Ausgabe. Aber es gibt Grenzen, wieviel Kontext in einen Prompt passt, und das Modell kann nur mit dem arbeiten, was Sie explizit angeben.
Worauf Sie achten sollten: KI-Empfehlungen, die technisch korrekt sind, aber die organisatorischen, politischen oder zwischenmenschlichen Einschränkungen ignorieren, die die „offensichtliche“ Lösung in Ihrem spezifischen Umfeld unbrauchbar machen.
Grenze 4 — Urteilsvermögen, Werte und Entscheidungen mit Auswirkungen auf Menschen
KI kann Sie bei der Entscheidungsfindung unterstützen. Sie kann die Entscheidung jedoch nicht für Sie treffen — und sollte es auch nicht.
Aufgaben, bei denen menschliches Urteilsvermögen im Vordergrund stehen muss:
- Personalentscheidungen, Leistungs- und Vergütungsentscheidungen;
- Strategische Entscheidungen mit erheblichen organisatorischen Folgen;
- Kommunikation mit rechtlicher, ethischer oder reputationsbezogener Bedeutung;
- Jede Situation, in der die Nuancen von Beziehungen, Kultur oder individuellen Umständen das richtige Ergebnis bestimmen.
Was Prompting nicht beheben kann: KI hat kein Interesse am Ergebnis, keine Kenntnis der beteiligten Personen und keine Verantwortung für die Konsequenzen. Genau diese Dinge machen Urteilsvermögen möglich.
Was KI leisten kann: Optionen aufzeigen, Denkstrukturen schaffen, Einwände antizipieren und Kommunikationsentwürfe erstellen. Die eigentliche Entscheidung — und die Verantwortung dafür — liegt bei Ihnen.
Ein praktischer Test, bevor Sie einem Output vertrauen
Bevor Sie auf eine KI-Ausgabe reagieren, die Fakten, Empfehlungen oder Entscheidungen beinhaltet, stellen Sie sich diese vier Fragen:
- Könnten diese Informationen veraltet sein? Falls ja — mit einer aktuellen Quelle überprüfen;
- Enthält dies spezifische Behauptungen, die ich nicht überprüft habe? Falls ja — jede einzelne vor der Nutzung prüfen;
- Berücksichtigt diese Empfehlung meinen tatsächlichen Kontext? Falls nein — als Ausgangspunkt, nicht als Schlussfolgerung betrachten;
- Nutze ich dieses Ergebnis, um eine Entscheidung zu treffen, die Menschen betrifft? Falls ja — Ihr eigenes Urteil, nicht das KI-Ergebnis, sollte ausschlaggebend sein.
Diese Fragen dauern dreißig Sekunden. Sie machen den Unterschied zwischen der Nutzung von KI als Werkzeug und dem Geführtwerden durch sie.
1. Welcher der folgenden Gründe erklärt laut Kapitel, warum KI möglicherweise unzuverlässige Ergebnisse liefert?
2. Was sollten Sie tun, bevor Sie KI-Ausgaben vertrauen, die wichtige Entscheidungen oder Fakten betreffen?
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen