"Inspektor KI": Droht die totale staatliche Überwachung?

Die Möglichkeiten für "Big Brother" waren noch nie so groß wie heute.

Schwerpunkt: KI
Auf mehreren Monitoren ist ein riesiges Auge zu sehen, rechts oben dazu das KI-Logo des Wiener Bildungsservers

“Big Brother is watching you”: Was in George Orwells berühmten Roman “1984” noch nach einer fernen und nicht so schnell realisierbaren Dystopie klang, ist mit der Entwicklung von KI-Systemen mittlerweile bittere Realität. Mithilfe Künstlicher Intelligenz ist es möglich, nie dagewesene Überwachungsnetze aufzubauen und quasi flächendeckend einzusetzen. Bis dahin scheiterte vor allem die Auswertung von gesammelten Daten immer am “menschlichen Faktor”, hätte also mit selbst noch so großen Personalreserven nicht bzw. nicht derart lückenlos bewältigt werden können.

KI-Überwachung international im Aufwind

Wie die US-amerikanische Carnegie Stiftung für internationalen Frieden in einer Studie bereits 2019 festgestellt hat, sind KI-gestützte Überwachungstechnologien weltweit auf dem Vormarsch. Von 176 untersuchten Staaten verwendeten bereits damals 75 KI-Überwachung in der einen oder anderen Form, in 64 kam Gesichtserkennung in größerem Ausmaß zum Einsatz. Als internationaler Vorreiter bei dieser Entwicklung gilt vor allem China, das bereits jetzt über das weltweit dichteste Netz an Überwachungskameras verfügt. In chinesischen Großstädten kommen mittlerweile auf 1.000 Einwohner:innen rund 400 Kameras (zum Vergleich: London knapp über 13, Berlin rund 6), im gesamten Land sollen über 600 Millionen im ständigen “Beobachtungseinsatz” sein.

Verknüpft mit Künstlicher Intelligenz und ihren Algorithmen lassen sich damit Überwachungs-Fantasien umsetzen, die selbst das oben erwähnte “1984” in den Schatten stellen. Besonders kritisch wird etwa das chinesische Sozialkredit-System betrachtet, mit dessen Hilfe gesellschaftlich gewünschtes Verhalten gefördert und gegenteiliges bestraft werden soll. Landesweit laufen dafür rund 70 staatliche Pilotprojekte, aber auch chinesische Privatfirmen experimentieren mit derartigen Systemen. Eine geplante landesweite Einführung im Jahr 2020 lässt bis heute noch auf sich warten.

Vorteile bei ”positivem”, Nachteile bei “schlechtem Verhalten”

Die genauen Kriterien dafür sind oft völlig intransparent, in den Grundzügen funktionieren diese aber so: Jedem Menschen wird zu Beginn ein Startguthaben an Punkten zugestanden. Bei “positivem Verhalten” gibt es eine Gutschrift, bei “negativem Verhalten” einen Abzug. Je nach Punktestand gibt es dann Vorteile (etwa höhere Kreditwürdigkeit, erleichterte Reisebestimmungen) oder Nachteile (Reisebeschränkungen, niedrigere Jobchancen, höhere Steuerleistungen).

Um die Treffsicherheit bei der Zuordnung zu erhöhen, sammelt China seit Jahren eine Vielzahl an biometrischen Merkmalen seiner Bürger:innen: Diese reichen von der Gesichtsbiometrie über Iris-Scans und Stimm-Mitschnitten bis hin zur DNA. Als Experimentierfeld für den Aufbau dieser Datenbanken diente wohl nicht ganz zufällig die Provinz Xinjiang, welche die Heimat der Minderheit der Uiguren ist und für deren Unterdrückung die Volksrepublik seit Jahren international kritisiert wird. Die Preisgabe der für den Staat interessanten Daten erfolgte in dieser Region folgerichtig auch größtenteils unfreiwillig.

Ist die Künstliche Intelligenz objektiv?

Abseits der erzwungenen Sammlung derart weitreichender Daten könnte man (etwas) naiv betrachtet einer Verknüpfung von Videoüberwachung mit KI-Systemen dennoch vorerst einmal neutral gegenüberstehen: Schließlich sollte eine KI ja “objektive” Beurteilung garantieren, selbst wenn dafür lückenlose und bis ins Privatleben hineinreichende Überwachung von allen Menschen in Kauf genommen werden muss. Letzteres beinhaltet unter anderem etwa auch, dass damit das rechtsstaatliche Grundprinzip der Unschuldsvermutung stark ins Wanken gerät. Denn gefilmt, erfasst und überwacht wird grundsätzlich jede:r auch ohne jeglichen begründeten Verdacht.

Wie wenig die Einschätzung einer “objektiven KI” in der Praxis allerdings zutrifft, zeigen mittlerweile Dutzende Fallbeispiele. So musste etwa Amazon ein KI-Bewerbungstool wieder ausschalten, weil es Frauen systematisch diskriminierte. Eine ebenso von Amazon stammende KI-Gesichtserkennung verwechselte 28 US-Kongressabgeordnete aufgrund ihrer Hautfarbe mit Kriminellen und handelte somit offenkundig rassistisch. Grundlage für derartige Fehlentscheidungen sind Verzerrungen in jenen Datensätzen, mit denen KI-Systeme trainiert werden (“Coded Bias”).

Neue Praxis-Idee zu diskriminierender KI

Um Schüler:innen auf diese Fortschreibung von Rassismus und Diskriminierung in Künstlicher Intelligenz im Unterricht zu sensibilisieren, empfehlen wir unsere neue Praxis-Idee

“Coded Bias - Wie KI diskriminiert”

(Sek II).


Bewertungen & Kommentare

Bitte loggen Sie sich ein, um Bewertungen und Kommentare abgeben zu können.


Kommentare (0)

Keine Kommentare gefunden!