Datenschutz: Was Sie Niemals Mit KI Teilen Sollten
Swipe um das Menü anzuzeigen
Prompt Engineering macht KI nützlicher. Aber zu wissen, was man nicht in einen Prompt eingeben sollte, ist genauso wichtig wie zu wissen, wie man einen guten Prompt schreibt.
Wenn Sie etwas in ein KI-Tool eingeben, senden Sie diesen Text an einen externen Server, der von einem Drittanbieter betrieben wird. Zu verstehen, was das bedeutet – und welche Risiken dadurch entstehen – ist für alle, die KI am Arbeitsplatz nutzen, unerlässlich.
Wie KI-Tools Ihre Eingaben verarbeiten
Die meisten verbraucherorientierten KI-Tools – einschließlich der kostenlosen Versionen von ChatGPT, Claude und Gemini – können Ihre Unterhaltungen zur Verbesserung ihrer Modelle verwenden, sofern Sie nicht ausdrücklich widersprechen.
Das bedeutet, dass die von Ihnen eingegebenen Texte grundsätzlich von Mitarbeitenden des Unternehmens eingesehen, als Trainingsdaten genutzt oder über längere Zeit gespeichert werden können.
Unternehmensversionen dieser Tools (wie Microsoft Copilot für Microsoft 365 oder Claude for Enterprise) bieten in der Regel stärkere Datenschutzgarantien – einschließlich Zusagen, Ihre Daten nicht für das Training zu verwenden. Diese erfordern jedoch ein kostenpflichtiges Organisationsabonnement und eine spezifische Konfiguration.
Wenn Sie unsicher sind, welche Version Ihre Organisation verwendet – fragen Sie Ihr IT- oder Sicherheitsteam, bevor Sie sensible Informationen in ein KI-Tool eingeben.
Was Sie niemals in ein verbraucherorientiertes KI-Tool eingeben sollten
Behandeln Sie KI-Chat-Oberflächen grundsätzlich so, wie Sie ein öffentliches Forum behandeln würden – gehen Sie davon aus, dass der Inhalt von anderen gesehen werden könnte.
Geben Sie niemals ein:
- Personenbezogene Daten von Kunden, Klienten oder Mitarbeitenden – Namen, E-Mail-Adressen, Telefonnummern, Ausweisnummern, Adressen;
- Finanzdaten – Kontonummern, Transaktionsdetails, Gehaltsinformationen, nicht öffentliche Budgetzahlen;
- Gesundheits- oder medizinische Informationen über eine Person;
- Passwörter, API-Schlüssel oder Authentifizierungsdaten jeglicher Art;
- Vertrauliche Unternehmensinformationen – unveröffentlichte Produktdetails, M&A-Diskussionen, strategische Pläne, proprietäre Forschung;
- Rechtsdokumente mit privilegierten oder vertraulichen Inhalten.
Sichere Alternativen: Unterstützung erhalten ohne Risiko
Der Schutz sensibler Daten bedeutet nicht, dass KI für diese Aufgaben nicht genutzt werden kann. Praktische Alternativen:
- Vor dem Prompt anonymisieren — echte Namen durch Platzhalter ersetzen ("Kunde A", "Mitarbeiter X"), bevor Inhalte in die KI eingefügt werden;
- Die Situation ohne Daten beschreiben — statt ein vertrauliches Dokument einzufügen, den Problemtyp schildern und nach einem Rahmen oder Ansatz fragen;
- Unternehmenslösungen nutzen — wenn die Organisation Microsoft 365 Copilot oder Ähnliches lizenziert hat, arbeiten diese Tools meist unter strengeren Datenschutzbedingungen;
- Sensible Inhalte lokal halten — KI zur Struktur- und Formulierungshilfe nutzen, sensible Details anschließend offline selbst ergänzen.
Die Richtlinie Ihrer Organisation kennen
Viele Organisationen entwickeln oder haben bereits interne Richtlinien zur KI-Nutzung veröffentlicht. Diese regeln typischerweise:
- Welche KI-Tools am Arbeitsplatz zugelassen sind;
- Welche Datenkategorien eingegeben werden dürfen und welche nicht;
- Ob eine unternehmensspezifische KI-Umgebung verfügbar ist;
- Wie Bedenken oder Vorfälle im Zusammenhang mit KI gemeldet werden.
Wenn Ihre Organisation eine solche Richtlinie hat — halten Sie sich daran. Falls nicht — wenden Sie die oben genannten konservativen Standards an, bis eine Richtlinie vorliegt.
Danke für Ihr Feedback!
Fragen Sie AI
Fragen Sie AI
Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen