wissen.de Artikel

Vertrauensfrage für Algorithmen

Die Digitalisierung wirft nicht nur technische, sondern auch ethische Fragen auf. Ein Team am HLRS forscht an praktisch nutzbaren Empfehlungen.
Michael Vogel
Rechenzentrum
Höchstleistungsrechnen verändert nicht nur die Wissenschaft. Im Zeitalter von Big Data und Künstlicher Intelligenz treten philosophische und ethische Fragen in den Vordergrund. Daher gibt es am HLRS ein Philosophieteam.

© Simon Sommer für das HLRS

Dass ein Doktorand der Philosophie Mitarbeiter des Höchstleistungsrechenzentrums Stuttgart (HLRS) ist, mag vielleicht überraschen. Geht es hier doch primär um leistungsstarke Computer, um Algorithmen, Modelle und Simulationen. Doch Nico Formanek, seit 2023 Leiter der Abteilung „Philosophy of Computational Sciences“, ist nicht der Einzige: „In unserer Gruppe arbeiten wir zu sechst. Alle haben eine Doppelqualifikation: oft einen mathematisch-naturwissenschaftlichen Studienabschluss, an den sich dann eine Promotion in Philosophie oder den Sozialwissenschaften anschloss.“

Denn da Computer immer weiter in alle Bereiche der Gesellschaft und des Arbeitslebens vordringen, wirft das eben nicht nur technische und naturwissenschaftliche Fragen auf, sondern auch ethische und erkenntnistheoretische. „An diesen Fragen forschen wir“, sagt Formanek.

Das HLRS ist dafür eine Art natürliches Biotop. Simulationen, künstliche Intelligenz (KI) und die Verarbeitung großer Datenmengen – sie gehen fast immer auch mit Fragen der Akzeptanz und des Vertrauens einher. Jüngstes prominentes Beispiel, das medial Aufmerksamkeit erfuhr, ist der KI-Chatbot ChatGPT, mit dem sich künftig wie mit einem Menschen chatten lassen soll. Sein öffentlich zugänglicher Prototyp hat in den vergangenen Monaten daher auch erneut Debatten über die gesellschaftlichen Implikationen solcher Chatbots ausgelöst.

Nico Formanek, Leiter der Abteilung Philosophy of Computational Sciences
Nico Formanek leitet die Abteilung Philosophy of Computational Sciences.

 © Silicya Roth

Einzigartig in Deutschland

Formaneks Abteilung ist 2016 entstanden. Unter den drei nationalen Höchstleistungsrechenzentren in Jülich, Garching und Stuttgart ist sie ein Unikat. „Unser Vorteil ist, dass wir mit unserer Forschung sehr nah an den anderen Projekten des HLRS dran sind, die primär an technisch-naturwissenschaftlichen Fragestellungen forschen“, sagt Formanek. Sein Team arbeitet bei soziologischen oder wissenschaftshistorischen Fragestellungen empirisch, etwa mit Interviews, Umfragen und Reallaboren, bei philosophischen Fragestellungen viel mit der wissenschaftlichen Literatur, um daraus neue Gedanken abzuleiten.

So untersuchte die Abteilung in einem bereits abgeschlossenen Projekt zum Beispiel, welche Folgen es hat, wenn der Computercode in komplexen Simulationen nicht mehr von einzelnen Experten vollständig nachvollziehbar ist, wie sich dann Vertrauen herstellen lässt. In einem anderen Projekt zur Simulation von kosmetischen Operationen bei Kleinkindern mit deformiertem Schädel untersuchte die Philosophie-Abteilung des HLRS die Frage, wie sich Eltern entscheiden und wie Simulationen ihre Entscheidungen beeinflussen. „In diesem Fall machten wir Umfragen und beobachteten Diskussionen unter betroffenen Eltern in einschlägigen Foren“, berichtet Formanek.

In einem derzeit laufenden Projekt, das vom baden-württembergischen Ministerium für Wissenschaft, Forschung und Kunst finanziert wird, geht es um das Thema „Vertrauen und Information“. Durch die Digitalisierung, namentlich durch personenbezogene Daten und KI, wächst bekanntlich die Sorge, dass sich die neuen Möglichkeiten missbrauchen lassen. Auch die zersetzende Wirkung von Desinformationskampagnen in den sozialen Medien ist inzwischen hinlänglich bekannt. Das Projekt will klären, wie die wissenschaftliche Community sicherstellen kann, dass die von ihr entwickelten Modelle zuverlässig sind und eine Grundlage für öffentliche Entscheidungen liefern können. Und für alle Menschen relevant ist die Frage, wie sich vertrauenswürdige Informationen verlässlich erkennen lassen.

Verschiedene Formen von Vertrauen

„Es gibt Vertrauen zwischen Menschen, und es gibt Vertrauen zwischen Mensch und Maschine – und dieses Vertrauen ist nicht das gleiche“, umreißt Formanek das grundsätzliche Problem. „Menschen vertrauen einander implizit, solange nichts schiefgeht.“ Dagegen müsse das Vertrauen zwischen Mensch und Maschine „explizit werden“. Es muss eine Art Vertrauensbeweis geben. Inwieweit das möglich sei, hänge auch vom Vertrauensbegriff ab, für den es unterschiedliche Definitionen gebe. „Manche Fachleute argumentieren zum Beispiel, dass es zu einer Maschine gar kein Vertrauen geben kann, sondern nur so etwas wie Verlässlichkeit“, erklärt Formanek. „Der Vorteil dieses Begriffs ist, dass er sich mathematisch beschreiben lässt, also quantifizierbar wird.“

Das erleichtert die Sache, geht aber womöglich an manchen Problemstellungen vorbei. Mit einem Vertrauensbegriff wiederum, der „von der Annahme ausgeht, dass alle böswillig sind“, stiegen die Anforderungen: an die Implementierung eines Algorithmus, an den Rechenaufwand und an die Privatheit von Daten, etwa durch permanente starke Verschlüsselung. Letztlich ist alles auch eine Frage der Kosten. Was ist dann der richtige Weg? „Diese Abwägung ist nicht technischer Natur“, sagt Formanek.

Daher will sein Team bis zum Ende des Projekts einen zielgruppenspezifischen Rahmen entwickeln, der bei der Beurteilung grundlegender Fragen hilft. So soll die Gesellschaft qualitative Kriterien dafür an die Hand bekommen, wie sie KI-Angebote beurteilen kann. Die Politik soll quantitative Entscheidungskriterien erhalten, um die Vertrauenswürdigkeit von Algorithmen bewerten zu können. Und für die Fachleute soll der Rahmen problemspezifische Definitionen zum Vertrauensbegriff liefern.

Dieser Artikel ist Teil einer Sonderpublikation in Kooperation mit dem Höchstleistungsrechenzentrum Stuttgart (HLRS). Hier finden Sie das vollständige bild der wissenschaft extra zum Download.

Mehr Artikel zu diesem Thema

Weitere Artikel aus dem Wahrig Fremdwörterlexikon

Weitere Lexikon Artikel

Weitere Artikel aus dem Großes Wörterbuch der deutschen Sprache

Weitere Artikel aus dem Wahrig Herkunftswörterbuch

Weitere Artikel aus dem Vornamenlexikon