Es klang so einfach: 2014 startete Amazon ein Projekt, mittels Künstlicher Intelligenz (KI) in Bewerbungsverfahren die passenden Bewerber herausfiltern zu lassen. Es gibt eigentlich eine relativ einfache Datenlage: bestimmte Kriterien, die die Bewerber erfüllen sollen, je besser, desto eher wird der Bewerber genommen.
Es klang einfach und gut, aber es klappte nicht, das Projekt wurde vor einigen Wochen eingestellt.
Woran ist es gescheitert?
Die Algorithmen filterten konsequent die Frauen aus.
Die Künstliche Intelligenz dachte wie folgt: Die meisten Bewerber sind männlich, und das heißt für die Maschine: weiblich ist weniger kompetent. Mehrere Jahre haben die Forscher vergeblich versucht, diese Problem zu lösen: es ging nicht. Selbst bei geschlechtsneutralen Angaben suchten die Maschinen nach Hinweisen wie Abschlüssen von Frauen-Colleges.
Die Arbeit der KI
Das Problem von Amazon ist symptomatisch und grundsätzlich für die KI.
Die KI geht mit Daten um, sie filtert Daten heraus, bewertet und sortiert diese Daten nach den festgelegten Kriterien der Algorithmen und kommt dann zu Entscheidungen.
Indem die KI nach einem festgelegten Schlüssel auf Daten zurückgreift, perfektioniert sie das bisher funktionierende System, ist aber nicht nur nicht in der Lage, Neuerungen zuzulassen, sondern wird jede Neuerung torpedieren, weil es keine statistische Grundlage dafür gibt, dass das Neue besser funktioniert als das Alte.
Das heißt bei Amazon: wenn bislang sich mehr Männer beworben haben, mehr Männer dort gearbeitet haben und mehr Männer dort Erfolg hatten, ist es für die KI sonnenklar, dass nur Männer sich erfolgreich bewerben können.
Das Problem ist grundsätzlich: Das, was die KI macht, ist nicht gleichzusetzen mit menschlichem Verstehen und kann daher zu Konsequenzen führen, die wir als unethisch empfinden.
KI als Daten- und Informationsverarbeitung
Relativ gut erforscht ist das Phänomen im Bereich der Übersetzungen bzw. der textlichen Erfassungen durch KI.
Die KI arbeitet wie folgt: sie untersucht, welches Wort bei uns Menschen in welchem Zusammenhang gebraucht wird. Wörter werden danach sortiert, welche anderen Wörter sich in der Nähe aufhalten. Dies kann dazu führen, dass die KI den Sinn völlig entstellt, weil auf einmal ein Wort in einem neuen Zusammenhang auftaucht.
Dies führt dann zu Übersetzungen, die durchaus schon für Wirbel in der Politik gesorgt haben, wenn dann Macron sich an seine „lieben Landsleute“ („me cher compratiotes“) wendet, die amerikanische KI aus den französischen Landsleuten aber waschechte Amerikaner macht („my fellow americans“).
Darüber kann man noch schmunzeln. Aber die KI sorgt an diesem Punkt dann auch für schwierigere Probleme: wenn in der benutzten Sprache ausländische Namen auf weniger Bildung hindeuten, oder Männer auf gut bezahlte Jobs, Frauen auf schlecht bezahlte Jobs, junge Leute immer besser und fitter als ältere sind … die KI kann diese Dinge nicht einordnen, sondern folgt nur dem, was bereits gesprochen und gemacht wird und verstärkt es.
Ein Viertel gilt als etwas krimineller als die Nachbarviertel. Die KI sagt: Schickt mehr Polizisten in dieses Viertel! Es gehen mehr Polizisten in dieses Viertel und nehmen – weil sie mehr sind – auch mehr Straftaten auf. Die KI sagt dann: Schickt noch mehr Polizisten! Die nehmen dann noch mehr Straftaten auf …
Wenn man nicht einschreitet, wird die KI diesen Prozess unendlich fortsetzen, und er ist logisch für die KI: sie erhält immer mehr Daten über Straftaten und mehr Straftaten heißt: mehr Polizisten! Ohne dass es faktisch auch nur eine Straftat mehr geben muss, wird dieses Viertel statistisch zu einem Bürgerkriegsgebiet, in das man Panzer schicken muss.
KI als Verstärkung des Ist-Zustands
Das Problem der KI liegt nicht nur darin, dass deshalb bei Amazon auch mal Bücher in der Werbung auftauchen, die man im Leben nicht lesen will, sondern das Problem geht tiefer:
Jede Art von Vorurteilen, die es gibt, wird durch die KI nicht nur erhalten, sondern sogar verstärkt. Gerade in dieser Verstärkung steckt eine große Gefahr für eine Gesellschaft, denn auf lange Sicht werden damit nicht nur gesellschaftliche Neuentwicklungen abgewürgt, sondern jede Art von wirklichem Meinungsaustausch.
Die KI ist nicht in der Lage, wie ein Mensch die Dinge einzuordnen, wie ein Mensch zu verstehen und deshalb auch nicht in der Lage, ethisch zu handeln. Eine Maschine muss eigentlich auch nicht ethisch handeln. Dumm ist nur, wenn der Mensch sich in seinem ethischen Handeln auf die Maschine verlässt, und das ist bei der KI der Fall.
Wenn die KI Tipps gibt, wer eingestellt wird, wie viele Polizisten in ein Viertel gehen oder wessen Idee gut ist, dann ist die Versuchung erst einmal recht groß, diesen Empfehlungen zu folgen – was auch jeden Tag passiert.
Menschliche und künstliche Intelligenz
Auch wenn die Programmierung der KI immer besser wird, das grundsätzliche Problem der KI besteht darin, dass sie nach einer formalen Logik funktioniert und nicht verstehen kann, wie ein Mensch versteht. Dieses menschliche Verstehen ist aber die Grundlage für ethisches Handeln, für politische Entscheidungen und das Funktionieren einer demokratischen Gesellschaft.
Menschliches Verstehen ist eben nicht nur Verarbeitung von Daten und ein logisches Wesen ist der Mensch sowieso nicht. Ich kann die KI gar nicht mit so vielen Daten füttern, dass sie ein realistisches Bild der Realität gewinnt. Wenn ich eine formale Logik auf einen nicht vollständigen Datensatz anwende, dann wird es schnell umgemütlich. Wir Menschen haben auch keinen kompletten Datensatz der Realität (weswegen wir sie auch nicht in die KI eingeben können), aber wir haben als “Menschen” gelernt, nicht logisch formal, sondern “menschlich” mit den unvollständigen Daten so umzugehen, dass es für uns und die Mitmenschen meistens gut ausgeht.
Für die KI sind und bleiben Daten Informationen. Menschliche Intelligenz erkennt nicht nur Informationen, sondern Werte und kann deshalb ethisch handeln.
Künstliche und menschliche Intelligenz sind nicht dasselbe. Dieser letztlich nicht aufzulösende Unterschied menschlicher und künstlicher Intelligenz muss als solcher bekannt sein, wenn man sinnvoll mit KI umgehen will.
Die KI wird immer mehr Bereiche des beruflichen und privaten Lebens der Zukunft abdecken. Die Frage ist damit nicht diejenige, ob die KI eingesetzt wird, sondern ob der Mensch in der Lage ist, sie in den Bereichen einzusetzen, in denen sie wirklich hilfreich ist, und genau die Bereiche zu kennen, in denen sie das nicht ist. Bis dahin dürften noch einige schmerzhafte Erfahrungen anstehen – nicht nur, wenn man sich als Frau bei Amazon bewerben will.