Warum künstliche Intelligenz nicht neutral ist

Warum künstliche Intelligenz nicht neutral ist

Projekt SustAIn will ökologische und soziale Probleme bei KIs aufdeckt

Von  Max Frohberg
Künstliche Intelligenz. Unsichtbar und doch allgegenwärtig. Du kannst dein Handy per Gesichtserkennung entsperren? Du kannst mit deiner Alexa zuhause sprechen und ihr sagen, welchen Song sie spielen soll? Oder du hast letztens mal nach neuen Schuhen gesucht und wirst jetzt an jeder Ecke mit Werbung dafür bombardiert? Hinter alldem versteckt sich eine künstliche Intelligenz, kurz KI.

KIs sind schon lange Teil unseres Alltags


Als KI wird eine Technologie bezeichnet, die in der Lage ist, kognitive Kompetenzen nachzuahmen, zu denen bisher nur Menschen fähig waren. Zum Beispiel sprechen, logisches Denken und oder komplexes strategisches Vorgehen ersetzen. Gegenüber einem normalen Computerprogramm kann diese jedoch scheinbar eigenständige Entscheidungen treffen, Fehler analysieren und daraus lernen. Denn das ist im Grunde der Kern - KIs sind zwar immer noch digitale Programme, allerdings sind sie durch Menschen so programmiert, dass sie selbst lernen können, also vergleichsweise intelligent sind.

Die Technologie, so zukunftsweisend sie auch sein mag, birgt jedoch große soziologische und ökologische Probleme.


Denn aktuell wird noch nicht genau hingesehen, was sich dringend ändern muss. Die Intelligenz ist immer nur so schlau wie die Daten, mit denen sie versorgt wird. Wenn also ein solches System zum Beispiel eine Kreditwürdigkeit einstufen muss, speist sie sich dabei aus einem Datensatz, welcher eventuell ein diskriminierendes Weltbild vertritt. Wenn die Person, welche die Datenlage vorgibt, bestimmte Gruppen aufgrund rassistischer oder stereotypischer Motive als weniger finanziell stabil betrachtet, wird auch die KI zu genau diesem Ergebnis kommen. Die stigmatisierenden Elemente unserer Gesellschaft führen sich somit zwangsgebunden in der Technologie fort und können weitreichende Konsequenzen haben.

Ein Beispiel dafür ist Tay, der Chatbot von Microsoft, der im März 2016 von Twitter getestet wurde. Innerhalb kürzester Zeit "lernte" der Bot dazu - und wurde zu einem rassistischen Idioten:


Im März 2020 ging ein Experiment mit einer KI von Google bei Twitter durch die Decke, die eindeutig rassistische Denkmuster hatte. Vision AI ist dazu gedacht, automatisch Bilder zu kategorisieren, um sie später in der Suche leichter auffindbar zu machen. Eigentlich ist auf diesen Bildern zweimal ein Fieberthermometer abgebildet. Einmal lag die KI mit ihrer Kategorisierung richtig - einmal kategorisierte sie den Gegenstand als Waffe. Warum? Die Menschen auf den Fotos hatten zwei unterschiedliche Hautfarben:


Auch wenn wir uns von einer KI Objektivität und Perfektion wünschen, kann sie nur so gut sein wie ihr Datensatz und ihre Programmierung. 


Auch sind KIs nicht unbedingt umweltfreundlich...

Auch aus umwelttechnischer Sicht besteht Redebedarf. Insofern muss gewährleistet werden, dass die Hardware, auf der der Rechenprozess abläuft, ressourcenschonend gewonnen wird. Das dafür benötigte Material, wie zum Beispiel Silizium oder Kobalt muss umweltfreundlich abgebaut werden können. Die Arbeitsumstände in der in Gewinnung und Produktion beschäftigten Arbeitskräfte müssen ebenfalls fair sein und einem gewissen Standard entsprechen. Auch verbrauchen die Systeme eine Menge Energie und haben teilweise einen hohen CO2-Ausstoß.

Keine ökologischen und sozialen Probleme erlernen?

Das Projekt SustAIn, eine kleine Gruppe aus Ökonomen*innen, Soziologen*innen und Informatikern*innen, widmet sich genau dieser Technologie und arbeitet dabei vor allem ihre Probleme heraus. All diese Punkte versucht die Arbeitsgruppe zu einer Art Einstufungsraster zu formen, mithilfe derer man die verschiedenen Prozesse durchleuchten kann. Ziel ist am Ende eine Art Nachhaltigkeitsindex für künstliche Intelligenzen, der dabei helfen soll, KIs so zu trainieren, dass sie die oben genannten Fehler vermieden werden. Denn eins ist klar: Die Technologie birgt enormes Potenzial und kann zum Beispiel durch intelligentes Gebäudemanagement einen großen Teil zur Klimaverbesserung beitragen. Jedoch wäre niemandem geholfen, wenn dies auf Kosten von Mensch und Umwelt passiert. 

Letztlich müssen wir entscheiden, bei welchen Abläufen wir einer KI die Entscheidung überlassen können und dürfen - und bei welchen nicht. 

Design ❤ Agentur zwetschke