Was passiert, wenn wir Algorithmen für uns entscheiden lassen
Ist es vorstellbar, dass wir einer Zukunft entgegensteuern, wie sie in dem Science-Fiction-Roman «Der Würfel» von Bijan Mioni furchteinflössend erzählt wird? Werden die, die sich nicht an den Mainstream anpassen wollen oder können, bestraft und ausgeschlossen, weil Algorithmen Schlüsse ziehen, die Aussenseitermeinungen und -verhalten nicht berücksichtigen oder sogar bestrafen?
Die Antwort ist: Ja, das passiert schon hier und heute. Zwar nicht so resolut wie in China, wo Bürger von Regierungsbehörden mittels Algorithmen laufend bewertet werden, aber der Trend ist eindeutig: Algorithmen werden immer häufiger eingesetzt, um uns zu beurteilen und über uns zu entscheiden.
Tatsächlich werden auch in der westlichen demokratischen Welt Menschen durch Algorithmen in Klassen eingeteilt und nach ihren Eigenschaften bewertet, wie nachfolgende Fälle plakativ aufzeigen:[2]
Die Arbeit des Algorithmus-Designers besteht darin, bestimmte Fragestellungen in mathematische Modelle zu übersetzen, die den Algorithmen als eine Art Handlungsanweisung dient. Modelle können naturgemäss immer nur einen kleinen Ausschnitt einer komplexen Realität abbilden.
Ein Algorithmus kann nicht von sich aus zwischen «gut» oder «schlecht» unterscheiden. Das einfache Beispiel «Hund beisst Postboten = schlecht, Hund beisst flüchtigen Straftäter = gut» zeigt, wie vielschichtig sich die Festlegung selbst in einfachen Problemstellungen darstellt.
Kritisch zu sehen ist zudem die Programmierung von selbstlernenden Algorithmen. Sind diskriminierende Strukturen schon in den Basis-Daten enthalten, werden sie vom Algorithmus fortgeschrieben. Fehlen dem Algorithmus Daten, können ganze Bevölkerungsgruppen ausgeschlossen werden – wie das Beispiel der farbigen Doktorandin zeigt.[5]
Liest man Erfahrungsberichte von Algorithmus-Designern, so erfährt man, dass die Designer oft nicht wissen, in welchem Kontext ihr für eine abstrakte mathematische Fragestellung erstelltes Programm später eingesetzt wird. Eine kritische Auseinandersetzung mit den zugrundeliegenden Annahmen findet damit nicht statt.
Es stellen sich grundlegende Fragen, die einzelne Personen oder Gruppen nicht für die Allgemeinheit treffen sollten:
Die Qualität der Entscheidungen der Algorithmen hängt von der Qualität und Quantität der Daten, den Annahmen zur Fragestellung und davon ab, was eine gute Entscheidung ausmacht. Der Algorithmus schliesst keine Kompromisse und nimmt keine ethischen Abwägungen vor.
Menschen dagegen treffen subjektive Entscheidungen, beeinflusst von Tagesbefinden, Emotionalität, Intuition und Erfahrungswissen. Wenn wir Algorithmen für uns entscheiden lassen, gehen wir davon aus, dass wir Menschen die schlechteren Entscheider sind. Die Beispiele zeigen jedoch plakativ, welche schwerwiegenden Folgen die nach menschlichem Ermessen unausgewogenen Entscheidungen der Algorithmen haben können.
Bedenklich ist auch, dass Algorithmen menschliche Kontrollen immer weiter ersetzen. Smart Watches checken unsere Gesundheitsdaten, Google kennt unsere Bewegungsprofile und Sensoren sollen künftig unsere Emotionen erfassen. Nicht gesellschaftliche Werte und Glaubenssätze bestimmen, wie die Algorithmen arbeiten, sondern vorwiegend die wirtschaftlichen Interessen der Softwarefirmen.
Zweifelsohne bedarf es einer politischen und gesellschaftlichen Diskussion sowie konkreter Regelungen. Die EU hat einen ersten Schritt gemacht und mit dem AI Act das weltweit erste umfassende Gesetz zur Regulierung von KI verabschiedet (in Kraft seit August 2024). So sind zum Beispiel Social Scoring und biometrische Videoüberwachung in öffentlichen Räumen verboten. Ein flächendeckender Schutz kann allerdings nicht gewährleistet werden – mangelnde Durchsetzungsmöglichkeiten und noch fehlende Kontrollinstanzen schränken die Effektivität erheblich ein.
Bleibt zu hoffen, dass dieses Szenario Science-Fiction bleibt.
Anmerkungen
[1] Frei nach dem Buch «Der Würfel» (siehe Quellenangabe)
[2] Alle Beispiele für Entscheidungen von Algorithmen sind aus dem Buch «Ein Algorithmus hat kein Taktgefühl» und von Grant Thornton (siehe Quellenangaben)
[3] Rückfälligkeitssoftware COMPAS, eingesetzt an US-Gerichten; vergleichbare Systeme gibt es auch in der EU, wobei der EU AI Act von 2024 sie als Hochrisikosysteme einstuft – Kontrollbehörden sind aber noch im Aufbau
[4] In dem Video «Gender Shades» erzählt Joy Bualamwini von ihren Erfahrungen und ihrer Forschung (englisch), abgerufen am 16.01.2021: gendershades.org
[5] Weitere Beispiele zeigt das Video «Vorurteile Künstlicher Intelligenz: So diskriminieren Algorithmen»: srf.ch
Quellenangaben
taz (02.11.2018): «Im Reich der überwachten Schritte», taz.de
Buchholz, Ulrike; Knorre, Susanne (2017): «Interne Kommunikation in agilen Unternehmen»; Springer Gabler, Heidelberg
Moini, Bijan (2018): «Der Würfel», Atrium Verlag AG, Zürich
Precht, Richard David (2020): «Künstliche Intelligenz und der Sinn des Lebens»; Wilhelm Goldman Verlag, München
Zweig, Katarina (2019): «Ein Algorithmus hat kein Taktgefühl», Wilhelm Heine Verlag, München
Grant Thornton (29.09.2025): «Der EU AI Act ist in Kraft: Ist Ihre KI diskriminierungsfrei?», grantthornton.at