Notice: This page requires JavaScript to function properly.
Please enable JavaScript in your browser settings or update your browser.
Lernen Voreingenommenheit, Urheberrecht und Ethische Nutzung | Risiken, Einschränkungen und Verantwortungsbewusste Nutzung
KI Verstehen für die Arbeitswelt

bookVoreingenommenheit, Urheberrecht und Ethische Nutzung

Swipe um das Menü anzuzeigen

Verantwortungsvoller Einsatz von KI am Arbeitsplatz geht über den Schutz von Daten hinaus. KI-Systeme übernehmen Vorurteile aus ihren Trainingsdaten, werfen ungelöste Fragen zum Urheberrecht auf und verschieben die moralische Verantwortung auf eine Weise, die nicht immer offensichtlich ist.

Dieses Kapitel soll nicht vom Einsatz von KI abhalten. Es soll dabei helfen, KI so zu nutzen, dass man dahinterstehen kann.

Herkunft von KI-Voreingenommenheit

KI-Modelle werden mit riesigen Mengen an von Menschen erzeugten Texten trainiert. Diese Texte spiegeln die Perspektiven, Annahmen und blinden Flecken der Menschen und Kulturen wider, die sie erstellt haben.

Dadurch können KI-Systeme Vorurteile auf subtile Weise reproduzieren und verstärken:

  • Von KI generierte Stellenbeschreibungen können Formulierungen enthalten, die bestimmte Bevölkerungsgruppen bevorzugen;
  • KI-generierte Bilder von „einer Fachkraft“ oder „einer Führungskraft“ können auf stereotype Darstellungen zurückgreifen;
  • Zusammenfassungen komplexer gesellschaftlicher Themen können die dominanten Perspektiven der Trainingsdaten widerspiegeln, statt eine ausgewogene Sicht zu bieten;
  • KI-Tools können je nach Sprache und kulturellem Kontext unterschiedlich abschneiden, mit besseren Ergebnissen für Inhalte, die ihren Trainingsdaten ähneln.

Voreingenommenheit ist nicht immer sichtbar oder offensichtlich. Die Ausgabe klingt neutral — selbst wenn sie es nicht ist.

Screenshot-Beschreibung: Zwei von KI generierte Stellenbeschreibungen nebeneinander — beide für dieselbe Position (Senior Engineer). Die linke Beschreibung (mit „Erster Entwurf — nicht überprüft“ gekennzeichnet) verwendet Formulierungen, die subtil eine bestimmte Bevölkerungsgruppe bevorzugen: „wettbewerbsorientiert“, „dominant“, „Rockstar“, „Ziele übertreffen“, „Work-hard-play-hard-Kultur“. Die rechte Beschreibung (mit „Überarbeitet nach Bias-Überprüfung“ gekennzeichnet) verwendet inklusivere Sprache: „kooperativ“, „wirkungsgesteuert“, „starke Kommunikationsfähigkeit“, „flexibles Arbeitsumfeld“, „hohe Standards“. Beide Beschreibungen sind fiktiv, aber realistisch. Eine kleine Anmerkung darunter: „Dasselbe KI-Tool. Dieselbe Rolle. Unterschiedlicher Prompt — oder eine menschliche Überprüfung.“ Dies zeigt, dass KI-Ausgaben Vorurteile enthalten können, selbst wenn im Auftrag keine Voreingenommenheit beabsichtigt war.

Urheberrecht und KI-generierte Inhalte

Wenn KI Texte, Code oder Bilder generiert, sind Fragen zu Eigentum und geistigem Eigentum weder rechtlich noch praktisch vollständig geklärt.

Wichtige Punkte, die zu beachten sind:

  • KI-generierte Inhalte werden auf Basis bestehender Werke trainiert, einschließlich urheberrechtlich geschütztem Material. Inwieweit dies das Ergebnis beeinflusst, ist umstritten;
  • In den meisten Rechtsordnungen ab 2026 können rein KI-generierte Inhalte nicht urheberrechtlich geschützt werden – Urheberrecht erfordert menschliche Urheberschaft;
  • Inhalte, die bestehenden urheberrechtlich geschützten Werken stark ähneln oder diese reproduzieren, können für die nutzende Organisation ein rechtliches Risiko darstellen;
  • Einige Branchen (Recht, Verlagswesen, Journalismus) haben spezifische und sich entwickelnde Normen zur Offenlegung des KI-Einsatzes.

Praktische Konsequenz: Bei wichtigen, öffentlichkeitswirksamen oder rechtlich sensiblen Inhalten sollte immer ein Mensch maßgeblich an der Erstellung beteiligt sein – nicht nur als abschließende prüfende Person, sondern als aktive Autorin oder aktiver Autor.

Wer ist verantwortlich für KI-Ausgaben?

Wenn bei KI-generierten Inhalten etwas schiefgeht – ein sachlicher Fehler in einem Kundenbericht, voreingenommene Sprache in einer Stellenanzeige, ein Datenschutzverstoß durch eine schlecht formulierte Eingabe – trägt die KI keine Verantwortung.

Sie sind es.

KI trägt keine rechtliche, berufliche oder ethische Verantwortung für das, was sie produziert. Die Person, die das Ergebnis nutzt, genehmigt und veröffentlicht, trägt diese Verantwortung.

Das ist kein Grund, KI zu meiden. Es ist ein Grund, eingebunden zu bleiben – um zu prüfen, was KI produziert, bevor es Sie, Ihr Team oder Ihre Organisation repräsentiert.

1. Welche der folgenden Möglichkeiten zeigen, wie KI-Systeme Vorurteile reproduzieren oder verstärken können?

2. Welche Aussagen zur Verantwortung für KI-Ausgaben und zum Urheberrecht sind laut Kapitel zutreffend?

question mark

Welche der folgenden Möglichkeiten zeigen, wie KI-Systeme Vorurteile reproduzieren oder verstärken können?

Wählen Sie alle richtigen Antworten aus

question mark

Welche Aussagen zur Verantwortung für KI-Ausgaben und zum Urheberrecht sind laut Kapitel zutreffend?

Wählen Sie alle richtigen Antworten aus

War alles klar?

Wie können wir es verbessern?

Danke für Ihr Feedback!

Abschnitt 3. Kapitel 4

Fragen Sie AI

expand

Fragen Sie AI

ChatGPT

Fragen Sie alles oder probieren Sie eine der vorgeschlagenen Fragen, um unser Gespräch zu beginnen

Abschnitt 3. Kapitel 4
some-alt