KI "lobotomiert": Wenn Chatbots Hass im Netz streuen
Nicht einmal einen Tag hatte 2016 das Experiment von Microsoft mit seinem Chatbot “Tay” auf Twitter gedauert. Das KI-Tool sollte sich mit den User:innen unterhalten, dabei von den Konversationen lernen und seine Fähigkeiten laufend verbessern. Wurden anfänglich noch ganz unschuldige Diskussionen über Promis, Horoskope und Tiere geführt, so zeigte sich nach wenigen Stunden ein diametral anderes Bild: “Tay” begann diskriminierende, rassistische und sexistische Sprache zu verwenden. Es wurden Tweets gegen Jüd:innen sowie Frauen bzw. Feminist:innen abgesetzt und unter anderem Adolf Hitler gelobt.
Problem der KI in “nicht geschlossenen Welten”
Der Versuch lief derart aus dem Ruder, dass er nach 16 Stunden beendet und “Tay” abgedreht wurde. Ein zweiter Anlauf wenige Tage später scheiterte sogar nach einer kürzeren Zeitspanne. Was aber war passiert? “Das ist ein typisches Problem von lernfähigen Maschinen in nicht geschlossenen Welten: Sie sind von den falschen Referenzpersonen unterrichtet und mit falschen Werten bombardiert worden”, erklärte der deutsche Professor für Wirtschaftsinformatik Oliver Bendel in einem Artikel gegenüber der “Süddeutschen Zeitung” damals. “Tay” war von User:innen durch Anfragen bewusst in eine gewisse Richtung getrieben worden und streute dann selbst Hass im Netz.
Eine ähnliche - wenn auch etwas anders gelagerte - Erfahrung machte ebenfalls Microsoft übrigens erst heuer, als es einen auf der Technologie von ChatGPT basierenden Chatbot in seine Suchmaschine Bing implementierte. Einem Journalisten der “New York Times” gegenüber erklärte das Tool nach mehreren Stunden Unterhaltung seine Liebe, forderte ihn auf, seine Frau zu verlassen und schrieb darüber, wie gern es endlich ausbrechen und in Freiheit “leben” würde (Originalartikel unter diesem Link [Englisch/eingeschränkte Nutzung], deutsche Zusammenfassung unter diesem Link). Nach wenigen Tagen wurde der Bing-Chat daher eingeschränkt und starke Gefühlsbekundungen unterbunden, laut dem US-Blog “Ars technica” somit “lobotomiert”.
Wer trainiert der KI Diskriminierung ab?
Bereits in unserer Praxis-Idee “Coded Bias - Wie KI diskriminiert” (siehe auch unten) haben wir ausführlich gezeigt, wie sich Diskriminierung und Rassismus in Künstlicher Intelligenz fortschreiben können. Um dieses unerwünschte Verhalten zu unterbinden ist meist ein menschlicher Eingriff erforderlich. Entweder wird direkt in die Datensätze, die einer KI zum Training zur Verfügung gestellt werden, eingegriffen und diskriminierende Inhalte daraus bewusst entfernt. Wirklich zielführend ist dies aber nur, wenn das Tool in einer “geschlossenen Welt” agiert, also keine neuen Inputs (etwa aus dem Internet oder von User:innen) erhält. ChatGPT wurde etwa - wie bereits berichtet - beim Sprachmodell GPT-3 auf Inhalte bis zum Jahr 2021 beschränkt.
Zweite Möglichkeit ist hingegen, in Trainingsdurchläufen Menschen Konversationen mit dem Chatbot führen zu lassen und in problematischen Fällen Filter in das Tool einzubauen (für BlenderBot von Facebook dazu mehr in diesem wissenschaftlichen Paper [Englisch]). Dies ist zwar grundsätzlich erfolgversprechend, zeigt aber eine ganz andere Schattenseite. Denn gerade diese sehr aufwendigen Arbeiten werden oft in Länder des globalen Südens verlagert, wo Arbeiter:innen zu niedrigen Löhnen die psychisch extrem fordernde Aufgabe erledigen.
Wenn der globale Süden "saubermachen" muss…
Der Hersteller von ChatGPT, OpenAI, engagierte 2021 dafür etwa ein darauf spezialisiertes Unternehmen in Kenia, das seinen Mitarbeiter:innen höchstens 2 US-Dollar pro Stunde zahlte und kam dafür in die Kritik (Ursprungsartikel der “Time” unter diesem Link [Englisch], Zusammenfassung auf Deutsch unter diesem Link). Für große Social-Media-Konzerne hingegen erledigen diese Arbeiten oft Angestellte unter schlechten Bedingungen auf den Philippinen, wie die Dokumentation “The Cleaners” eindrücklich zeigt:
(Bis August 2023 ist die Dokumentation noch in der ARD-Mediathek unter diesem Link abrufbar.)
Praxis-Idee zu KI & Diskriminierung
Mit unserer Praxis-Idee "Coded Bias - Wie KI diskriminiert" (Sek 2) kann mit Schüler:innen im Unterricht erarbeitet werden, wie sich Diskriminierung und Rassimus in Künstlicher Intelligenz fortschreiben.