Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Die Tatsächlichen Grenzen Kennen | Fortgeschrittenes Prompting und das Erkennen von Grenzen
Prompt Engineering für die Arbeit

bookDie Tatsächlichen Grenzen Kennen

Swipe um das Menü anzuzeigen

Gute Prompts können viel bewirken. Sie können jedoch nicht alles leisten. Ein Teil der effektiven Nutzung von KI besteht darin, die Situationen zu erkennen, in denen ein besserer Prompt keine Lösung ist – wo die Einschränkung struktureller Natur ist und keine Technik ein zuverlässiges Ergebnis liefern kann.

Das Wissen um diese Grenzen spart Zeit und verhindert, dass man Ausgaben vertraut, denen man nicht vertrauen sollte.

Grenze 1 — Informationen, die nicht in den Trainingsdaten enthalten sind

KI-Modelle werden auf Daten bis zu einem bestimmten Stichtag trainiert. Alles, was nach diesem Datum passiert ist, liegt außerhalb des Wissens des Modells – und ein sorgfältigeres Prompting ändert daran nichts.

Betroffen sind:

  • Aktuelle Nachrichten, regulatorische Änderungen oder Marktentwicklungen;
  • Neue Produkteinführungen, aktualisierte Preise oder aktuelle Forschungsergebnisse;
  • Ereignisse, Entscheidungen oder Ankündigungen, die nach dem Training des Modells stattgefunden haben.

Was Prompting nicht beheben kann: Die fehlenden Informationen sind schlichtweg nicht vorhanden. Das Modell erzeugt dennoch oft eine plausibel klingende Antwort – genau darin liegt die Gefahr.

Was stattdessen möglich ist: Ein Tool mit Websuche verwenden (ChatGPT mit Browse, Perplexity, Gemini mit Search) für zeitkritische Informationen oder die relevanten aktuellen Informationen direkt in den Prompt einfügen, damit das Modell damit arbeiten kann.

Grenze 2 — Verifizierte Fakten, Zitate und spezifische Daten

KI generiert plausiblen Text. Bei gut abgedeckten Themen ist dieser Text oft korrekt. Bei spezifischen Fakten – Statistiken, Zitaten, rechtlichen Verweisen, Studienergebnissen – ist er jedoch häufig falsch, und das lässt sich allein am Output nicht erkennen.

Keine Prompt-Technik kann dies zuverlässig beheben, da das Problem nicht in der Fragestellung liegt, sondern darin, was das Modell zuverlässig liefern kann.

Was Prompting nicht beheben kann: Das Modell aufzufordern, "genau zu sein" oder "nur verifizierte Quellen zu verwenden", verschafft ihm keinen Zugang zu Informationen, die es nicht besitzt. Dies kann Halluzinationen leicht reduzieren, aber nicht beseitigen.

Was stattdessen möglich ist: KI nutzen, um Struktur und Sprache von Inhalten zu erstellen, die spezifische Fakten erfordern, und die verifizierten Daten anschließend selbst aus Primärquellen ergänzen. Jede spezifische Aussage der KI als unbelegt betrachten, bis sie überprüft wurde.

Grenze 3 — Der spezifische Kontext Ihres Unternehmens

Das Modell hat keinerlei Kenntnis von der internen Situation Ihres Unternehmens — Ihrer Strategie, Ihren Teamdynamiken, Ihren Kundenbeziehungen, Ihrem Produktfahrplan, Ihrer Unternehmenskultur oder der Geschichte jeder Entscheidung, an der Sie arbeiten.

Wenn Sie die KI um Rat, Empfehlungen oder Analysen zu Ihrer spezifischen Situation bitten, basiert die Antwort auf generellen Mustern — nicht auf Ihrem tatsächlichen Kontext. Sie klingt passend, kann aber völlig an Ihrer Realität vorbeigehen.

Was Prompting teilweise beheben kann: Sie können Kontext in Ihrem Prompt bereitstellen, und je spezifischer dieser Kontext ist, desto gezielter wird die Ausgabe. Aber es gibt Grenzen, wieviel Kontext in einen Prompt passt, und das Modell kann nur mit dem arbeiten, was Sie explizit angeben.

Worauf Sie achten sollten: KI-Empfehlungen, die technisch korrekt sind, aber die organisatorischen, politischen oder zwischenmenschlichen Einschränkungen ignorieren, die die „offensichtliche“ Lösung in Ihrem spezifischen Umfeld unbrauchbar machen.

Grenze 4 — Urteilsvermögen, Werte und Entscheidungen mit Auswirkungen auf Menschen

KI kann Sie bei der Entscheidungsfindung unterstützen. Sie kann die Entscheidung jedoch nicht für Sie treffen — und sollte es auch nicht.

Aufgaben, bei denen menschliches Urteilsvermögen im Vordergrund stehen muss:

  • Personalentscheidungen, Leistungs- und Vergütungsentscheidungen;
  • Strategische Entscheidungen mit erheblichen organisatorischen Folgen;
  • Kommunikation mit rechtlicher, ethischer oder reputationsbezogener Bedeutung;
  • Jede Situation, in der die Nuancen von Beziehungen, Kultur oder individuellen Umständen das richtige Ergebnis bestimmen.

Was Prompting nicht beheben kann: KI hat kein Interesse am Ergebnis, keine Kenntnis der beteiligten Personen und keine Verantwortung für die Konsequenzen. Genau diese Dinge machen Urteilsvermögen möglich.

Was KI leisten kann: Optionen aufzeigen, Denkstrukturen schaffen, Einwände antizipieren und Kommunikationsentwürfe erstellen. Die eigentliche Entscheidung — und die Verantwortung dafür — liegt bei Ihnen.

Screenshot-Beschreibung: Eine übersichtliche Referenzkarte mit vier Feldern — kein Screenshot eines KI-Tools. Titel oben: „Wenn ein besserer Prompt nicht hilft.“ Vier Zeilen, jeweils mit einem fettgedruckten Grenznamen links und einem zweiteiligen Eintrag rechts mit „Was tatsächlich das Problem ist“ und „Was stattdessen zu tun ist.“ Zeile 1: „Informationen nach dem Trainingsstopp“ → „Die Daten existieren nicht im Modell / Verwenden Sie ein websuche-fähiges Tool oder fügen Sie aktuelle Informationen direkt ein.“ Zeile 2: „Spezifische Fakten und Zitate“ → „Das Modell generiert plausiblen Text, aber keine verifizierten Fakten / Nutzen Sie KI für Struktur und Sprache; überprüfen Sie jede konkrete Aussage separat.“ Zeile 3: „Interner Kontext Ihres Unternehmens“ → „Das Modell hat keine Kenntnis Ihrer spezifischen Situation / Geben Sie Kontext explizit im Prompt an; behandeln Sie Empfehlungen als allgemein, nicht spezifisch.“ Zeile 4: „Urteilsvermögen und Entscheidungen mit Auswirkungen auf Menschen“ → „KI hat kein Interesse, keine Verantwortung und kein Beziehungswissen / Nutzen Sie KI zur Strukturierung des Denkens; die Entscheidung und Verantwortung bleibt bei Ihnen.“ Klare Gestaltung, professionelle Typografie, dezente linke Umrandung in Bernstein.

Ein praktischer Test, bevor Sie einem Output vertrauen

Bevor Sie auf eine KI-Ausgabe reagieren, die Fakten, Empfehlungen oder Entscheidungen beinhaltet, stellen Sie sich diese vier Fragen:

  • Könnten diese Informationen veraltet sein? Falls ja — mit einer aktuellen Quelle überprüfen;
  • Enthält dies spezifische Behauptungen, die ich nicht überprüft habe? Falls ja — jede einzelne vor der Nutzung prüfen;
  • Berücksichtigt diese Empfehlung meinen tatsächlichen Kontext? Falls nein — als Ausgangspunkt, nicht als Schlussfolgerung betrachten;
  • Nutze ich dieses Ergebnis, um eine Entscheidung zu treffen, die Menschen betrifft? Falls ja — Ihr eigenes Urteil, nicht das KI-Ergebnis, sollte ausschlaggebend sein.

Diese Fragen dauern dreißig Sekunden. Sie machen den Unterschied zwischen der Nutzung von KI als Werkzeug und dem Geführtwerden durch sie.

1. Welcher der folgenden Gründe erklärt laut Kapitel, warum KI möglicherweise unzuverlässige Ergebnisse liefert?

2. Was sollten Sie tun, bevor Sie KI-Ausgaben vertrauen, die wichtige Entscheidungen oder Fakten betreffen?

question mark

Welcher der folgenden Gründe erklärt laut Kapitel, warum KI möglicherweise unzuverlässige Ergebnisse liefert?

Wählen Sie die richtige Antwort aus

question mark

Was sollten Sie tun, bevor Sie KI-Ausgaben vertrauen, die wichtige Entscheidungen oder Fakten betreffen?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 4. Kapitel 3

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 4. Kapitel 3
some-alt