wissen.de Artikel

Vertrauen wir unseren Computern zu sehr?

Menschen treffen – wenn auch oft unterbewusst – vorurteilsbelastete Entscheidungen. Nicht zuletzt deswegen gibt es mittlerweile einige Computer-Assistenten, die beispielsweise bei Personalentscheidungen eine unvoreingenommene Vorauswahl treffen sollen. Was auf den ersten Blick wie die perfekte Lösung klingt, kann aber auch Gefahren bergen. Vertrauen wir unseren Computern möglicherweise ein bisschen zu sehr?
JFL, 15.07.2022
Symbolbild KI und Gerechtigkeit

style-photography, GettyImages

Menschen machen Fehler – das ist ganz natürlich. Trotzdem wäre es häufig schön, wenn man stattdessen eine Maschine zu Rate ziehen könnte, die eine wertefreie und somit perfekte Entscheidung trifft. In einigen Bereichen des Alltags ist dies bereits Wirklichkeit: So gibt es beispielsweise Software, die Personalern bei Stellenbesetzungen hilft. Sie trifft eine Vorauswahl unter den Bewerbern, sodass sich die Verantwortlichen letztlich nur noch mit einem Bruchteil der Bewerbungen befassen müssen. Die Maschine hat dann schon die fachlich ungeeigneten Personen herausgefiltert – ganz unabhängig von beispielsweise Geschlecht, Alter, Nationalität oder Hautfarbe, so die Annahme.

Keine Kontrollsysteme für Computer

Da der Vorentscheid auf unabhängigen Kriterien basiert, kann man ihm also auch vertrauen – oder? „Genau hier liegt die Gefahr“, sagt Markus Langer von der Saar-Universität in Saarbrücken. „Wenn ich erwarte, dass ein Computersystem unvoreingenommen entscheidet, dann schlägt auch niemand Alarm, wenn das Ergebnis der Maschine dann doch von Parametern wie dem Geschlecht oder der Ethnie beeinflusst wird.“ Weil wir dies nicht erwarten, fällt es uns schlicht nicht auf und wir gehen davon aus, dass der Algorithmus andere, objektive Gründe für die Entscheidungen hat.

Bei menschlichen Entscheidungen gibt es eine Vielzahl an Kontrollsystemen: Diversity- oder Gleichstellungs-Beauftragte und Personalräte begleiten den Bewerbungsprozess und sorgen für Fairness. Bei der computergestützten Auswahl rechnen diese Instanzen aber eventuell nicht damit, dass es zu einer größeren Fehlentscheidung kommen kann. Das System wurde schließlich für eine unvoreingenommene Entscheidung programmiert.

Inwiefern Menschen den Computern auch bei Fehlentscheidungen vertrauen, hat das Team von Markus Langer nun in einer Studie untersucht. Dafür haben sie sich gut 120 Freiwillige eingeladen. „Wir haben den Studienteilnehmerinnen gesagt, sie seien Personalverantwortliche für ein großes Versicherungsunternehmen. In insgesamt zwölf Runden haben wir ihnen dann Bilder von Bewerbern gezeigt, die entweder von einer Person oder einem Computer aus einer größeren Zahl vorausgewählt wurden“, erklärt Langer.

KI-Software trifft inzwischen bei vielen Firmen eine Vorauswahl unter den Bewerbern, so dass sich die Verantwortlichen nur noch mit einem Bruchteil der Bewerbungen befassen müssen.

TarikVision, GettyImages

Erst fair, dann ungerecht, dann wieder fair

In den ersten vier Runden bekamen die Teilnehmer eine ausgewogene Geschlechterverteilung vorgesetzt. Unter den zehn vom Computer beziehungsweise Menschen vorausgewählten Bewerbern waren also jeweils zwischen vier und sechs Männer und Frauen. Auch wenn die Befragten grundsätzlich mehr Vertrauen in die Menschen als in die Software hatten, „wurde schon zu Beginn der Befragung klar, dass die Teilnehmerinnen das Computersystem für unvoreingenommener halten“, sagt Langer.

„Ab der fünften Runde waren dann deutlich mehr Männer als Frauen in die Endauswahl gekommen, und zwar sowohl vom Computer als auch vom Menschen ausgewählt. In dieser Phase stürzt das Vertrauen in die Fähigkeit des Menschen, eine Vorauswahl zu treffen, stark ab. Das Computersystem wurde von den Probandinnen nach wie vor als weniger vorurteilshaft betrachtet, auch wenn es ein krasses Missverhältnis hinsichtlich der Geschlechterverteilung getroffen hat“, erklärt Langer.

In der dritten und letzten Phase der Studie teilten die Wissenschaftler den Probanden mit, dass Fehler passiert sind und die Vorauswahl nun wieder fair getroffen werde. Die Entschuldigung zeigte offenbar auch direkt Wirkung: Die Studienteilnehmer fassten wieder mehr Vertrauen in die menschliche Entscheidung.

Software kann vorherige Fehler übernehmen

„Das Problem hier ist nicht, dass ein Computersystem mutmaßlich auch voreingenommen urteilen kann“, stellt Markus Langer klar. Bedenklich ist es aber, wenn dies nicht berücksichtigt und gegebenenfalls korrigiert wird: „Wenn ich die Erwartung habe, dass ein Computer ‚gerechtere‘ Entscheidungen trifft als ein Mensch, schlägt womöglich niemand Alarm, wenn es dann doch ungerecht zugeht. Einfach, weil niemand damit rechnet, dass das Computerprogramm voreingenommen urteilen könnte.“

Dies kann je nach Software allerdings durchaus vorkommen. Wenn künstliche Intelligenz aus vorhandenen Daten lernt und in der Vergangenheit beispielsweise vermehrt Frauen benachteiligt wurden, kann das Programm diesen Fehler übernehmen, wenn bei der Entwicklung nicht gut aufgepasst wird. Auch hier sollten Gleichstellungsbeauftragte also die Augen offenhalten.

Weitere Artikel auf wissen.de Artikel

Weitere Videos aus dem Bereich Video

Weitere Artikel aus dem Wahrig Fremdwörterlexikon

Weitere Artikel aus dem Wahrig Herkunftswörterbuch

Das könnte Sie auch interessieren