Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Datenschutz: Was Sie Niemals Mit KI Teilen Sollten | Risiken, Einschränkungen und Verantwortungsbewusste Nutzung
KI Verstehen für die Arbeitswelt

bookDatenschutz: Was Sie Niemals Mit KI Teilen Sollten

Swipe um das Menü anzuzeigen

Prompt Engineering macht KI nützlicher. Aber zu wissen, was man nicht in einen Prompt eingeben sollte, ist genauso wichtig wie zu wissen, wie man einen guten Prompt schreibt.

Wenn Sie etwas in ein KI-Tool eingeben, senden Sie diesen Text an einen externen Server, der von einem Drittanbieter betrieben wird. Zu verstehen, was das bedeutet – und welche Risiken dadurch entstehen – ist für alle, die KI am Arbeitsplatz nutzen, unerlässlich.

Wie KI-Tools Ihre Eingaben verarbeiten

Die meisten verbraucherorientierten KI-Tools – einschließlich der kostenlosen Versionen von ChatGPT, Claude und Gemini – können Ihre Unterhaltungen zur Verbesserung ihrer Modelle verwenden, sofern Sie nicht ausdrücklich widersprechen.

Das bedeutet, dass die von Ihnen eingegebenen Texte grundsätzlich von Mitarbeitenden des Unternehmens eingesehen, als Trainingsdaten genutzt oder über längere Zeit gespeichert werden können.

Unternehmensversionen dieser Tools (wie Microsoft Copilot für Microsoft 365 oder Claude for Enterprise) bieten in der Regel stärkere Datenschutzgarantien – einschließlich Zusagen, Ihre Daten nicht für das Training zu verwenden. Diese erfordern jedoch ein kostenpflichtiges Organisationsabonnement und eine spezifische Konfiguration.

Wenn Sie unsicher sind, welche Version Ihre Organisation verwendet – fragen Sie Ihr IT- oder Sicherheitsteam, bevor Sie sensible Informationen in ein KI-Tool eingeben.

Was Sie niemals in ein verbraucherorientiertes KI-Tool eingeben sollten

Behandeln Sie KI-Chat-Oberflächen grundsätzlich so, wie Sie ein öffentliches Forum behandeln würden – gehen Sie davon aus, dass der Inhalt von anderen gesehen werden könnte.

Geben Sie niemals ein:

  • Personenbezogene Daten von Kunden, Klienten oder Mitarbeitenden – Namen, E-Mail-Adressen, Telefonnummern, Ausweisnummern, Adressen;
  • Finanzdaten – Kontonummern, Transaktionsdetails, Gehaltsinformationen, nicht öffentliche Budgetzahlen;
  • Gesundheits- oder medizinische Informationen über eine Person;
  • Passwörter, API-Schlüssel oder Authentifizierungsdaten jeglicher Art;
  • Vertrauliche Unternehmensinformationen – unveröffentlichte Produktdetails, M&A-Diskussionen, strategische Pläne, proprietäre Forschung;
  • Rechtsdokumente mit privilegierten oder vertraulichen Inhalten.
Screenshot-Beschreibung: Eine zweigeteilte Darstellung. Linkes Feld mit der Beschriftung „Was Sie eingegeben haben“ — ein Chat-Eingabefeld mit einem realistischen, aber fiktiven Beispiel für eine schlechte Praxis: „Hier sind die Q3-Umsatzzahlen unserer Top-10-Kunden: [eine kurze Tabelle mit fiktiven Firmennamen und Umsatzzahlen]. Fassen Sie die wichtigsten Trends zusammen.“ Rechtes Feld mit der Beschriftung „Wohin es geht“ — ein einfaches Diagramm zeigt, wie der Text den Browser des Nutzers verlässt und zu einem Cloud-Server-Icon mit der Beschriftung „Server des KI-Anbieters“ wandert; eine gestrichelte Linie zweigt ab mit der Beschriftung „Kann für das Modelltraining verwendet oder von Mitarbeitern überprüft werden.“ Ein rotes Warnlabel am unteren Rand: „Vertrauliche Geschäftsdaten dürfen niemals in ein öffentliches KI-Tool eingegeben werden.“ Alle Firmennamen und Zahlen im Beispiel sind eindeutig fiktiv.

Sichere Alternativen: Unterstützung erhalten ohne Risiko

Der Schutz sensibler Daten bedeutet nicht, dass KI für diese Aufgaben nicht genutzt werden kann. Praktische Alternativen:

  • Vor dem Prompt anonymisieren — echte Namen durch Platzhalter ersetzen ("Kunde A", "Mitarbeiter X"), bevor Inhalte in die KI eingefügt werden;
  • Die Situation ohne Daten beschreiben — statt ein vertrauliches Dokument einzufügen, den Problemtyp schildern und nach einem Rahmen oder Ansatz fragen;
  • Unternehmenslösungen nutzen — wenn die Organisation Microsoft 365 Copilot oder Ähnliches lizenziert hat, arbeiten diese Tools meist unter strengeren Datenschutzbedingungen;
  • Sensible Inhalte lokal halten — KI zur Struktur- und Formulierungshilfe nutzen, sensible Details anschließend offline selbst ergänzen.

Die Richtlinie Ihrer Organisation kennen

Viele Organisationen entwickeln oder haben bereits interne Richtlinien zur KI-Nutzung veröffentlicht. Diese regeln typischerweise:

  • Welche KI-Tools am Arbeitsplatz zugelassen sind;
  • Welche Datenkategorien eingegeben werden dürfen und welche nicht;
  • Ob eine unternehmensspezifische KI-Umgebung verfügbar ist;
  • Wie Bedenken oder Vorfälle im Zusammenhang mit KI gemeldet werden.

Wenn Ihre Organisation eine solche Richtlinie hat — halten Sie sich daran. Falls nicht — wenden Sie die oben genannten konservativen Standards an, bis eine Richtlinie vorliegt.

question mark

Welche der folgenden Arten von Informationen sollten Sie bei der Arbeit nicht in ein verbraucherorientiertes KI-Tool wie ChatGPT eingeben?

Wählen Sie die richtige Antwort aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 3

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 3. Kapitel 3
some-alt