wissen.de Artikel
Europäischer AI-Act: Das steht im ersten KI-Gesetz der Welt
Künstliche Intelligenzen (KI) wie der Chatbot ChatGPT oder Bildgeneratoren wie Dall-E und Stable Diffusion sind zunehmend fester Bestandteil unseres privaten und beruflichen Alltags. KI sortiert zum Beispiel potenziell gefährliche E-Mails in den Spam-Ordner, übersetzt und formuliert Texte oder erstellt automatisch Playlists auf Spotify und Co., die am ehesten mit unserem Musikgeschmack übereinstimmen.
Dennoch bleibt Künstliche Intelligenz gewissermaßen eine Blackbox. Zum Teil wissen nicht einmal die Entwickler, was genau im digitalen Gehirn ihrer Schöpfungen vorgeht. Warum die KI-Systeme beispielsweise manchmal „halluzinieren“ oder diskriminierende Äußerungen von sich geben, ist daher erst in Teilen geklärt. Und obwohl die Anwendungsbereiche von KI immer breiter und bedeutender werden, fehlte bislang eine umfangreiche rechtliche Regulierung für die Branche. Das macht es auch schwer, potenziell schädliche Anwendungen wie Deepfakes, betrügerische Bots und Verletzungen des Datenschutzes einzudämmen.
Vier Risikostufen für KI beschlossen
Das soll sich jetzt ändern, und zwar mit dem europäischen AI-Act – dem weltweit ersten KI-Gesetz. Nachdem der dazugehörige Gesetzesentwurf bereits im Dezember 2023 abgenickt worden war, hat nun auch das Europaparlament grünes Licht gegeben. Das heißt, dass die EU-Mitgliedsstaaten von jetzt an zwei Jahre Zeit haben, um die Inhalte des AI-Acts in nationales Recht zu überführen. Doch was sieht das KI-Gesetz überhaupt vor?
Der AI-Act teilt die verschiedenen KI-Anwendungen in vier Risikogruppen ein: inakzeptabel, hoch, begrenzt und minimal beziehungsweise kein Risiko. Anwendungen, die sich auf der untersten Risikostufe befinden, müssen keine strengere Regulierung oder gar ein Verbot fürchten. Dazu zählen etwa Spamfilter im E-Mail-Postfach oder Videospiele, die KI nutzen, um damit die Dialoge von Charakteren passgenau zu generieren.
Je riskanter die Anwendung, desto strenger die Auflagen
Zu KI-Anwendungen mit begrenztem Risiko gehören jene Systeme, die mit Menschen interagieren – also zum Beispiel der Chatbot ChatGPT. Um ihre Nutzer nicht versehentlich zu täuschen oder in die Irre zu führen, müssen die Anwendungen künftig eindeutig darüber informieren, dass es sich bei ihnen um eine Künstliche Intelligenz und keinen echten Menschen handelt.
Ein hohes Risiko geht dagegen laut AI-Act von solchen Anwendungen aus, die das Wohlbefinden der Allgemeinheit erheblich beeinträchtigen können. Das gilt etwa für KI-Systeme, die in den Bereichen kritische Infrastruktur, Gesundheit oder Justiz zum Einsatz kommen. Trifft die Künstliche Intelligenz hier eine falsche Entscheidung, können schnell Existenzen oder sogar Leben in Gefahr sein.
Der AI-Act schreibt deshalb vor, dass bei KI-Anwendungen mit hohem Risiko immer ein Mensch die letzte Entscheidungsgewalt innehaben muss. Außerdem müssen hochriskante KI-Anwendungen ein hohes Maß an Transparenz und Sicherheit erfüllen, um weiter operieren zu dürfen. Zum Beispiel müssen ihre Testdatensätze und Protokolle bestimmten Anforderungen entsprechen und auch ein eigenes Risikomanagementsystem muss her. Die Europäische Kommission schätzt, dass fünf bis 15 Prozent aller KI-Anwendungen von den strengeren Auflagen betroffen sein werden.
Was ist in Zukunft verboten?
KI-Systeme, die in die Risikostufe „inakzeptabel“ fallen, widersprechen europäischen Wertevorstellungen und müssen deshalb in Zukunft mit einem Verbot rechnen. Das gilt zum Beispiel für bestimmte Formen der Gesichtserkennung, die die Emotionen von Arbeitnehmern auswerten oder ein sogenanntes „Social Scoring“ ermöglichen. China setzt diese Technologie ein, um seine Bürger im öffentlichen Raum zu überwachen und ihr Verhalten mit einem sozialen Punktesystem zu bewerten. Verhält sich jemand „korrekt“, hat er es später zum Beispiel leichter, einen Studienplatz oder einen Kredit bewilligt zu bekommen.
Die Gesichtserkennung im öffentlichen Raum bleibt in der Europäischen Union künftig nur für Sicherheitsbehörden erlaubt – und das auch nur unter bestimmten Voraussetzungen. Wenn eine Firma trotz Verbot an bestimmten, als inakzeptabel eingestuften KI-Technologien arbeitet oder diese einsetzt, drohen ihr Strafen in Höhe von bis zu 35 Millionen Euro beziehungsweise von sieben Prozent des Jahresumsatzes. Auch Verstöße gegen andere Bestimmungen des Gesetzes können mit bis zu 15 Millionen Euro Strafe oder drei Prozent des Jahresumsatzes geahndet werden.
Chance oder Wettbewerbsnachteil?
Während einige Digital-Experten den AI-Act als historischen und längst überfälligen Schritt hin zur Regulierung von Künstlicher Intelligenz loben, ist die Stimmung in der Branche nicht ganz so überschwänglich. Viele europäische Tech-Unternehmen machen sich Sorgen, dass die stärkere Regulierung ihnen im internationalen Wettbewerb große Nachteile verschaffen könnte. Im Vergleich zu anderen KI-entwickelnden Ländern wie den USA oder China wären sie aufgrund der rechtlichen Einschränkungen womöglich weniger flexibel und kreativ und somit weniger konkurrenzfähig.
KI-Expertin Anita Klingel schätzt die Lage jedoch genau gegenteilig ein: „Ich sehe eine riesige Chance, weil wir meiner Meinung nach ohnehin nicht mit technischer Überlegenheit werden punkten können. Dieses Rennen gewinnen wir nicht“, sagt sie im Interview mit dem ZDF. „Schnell und hochperformant bekommen Sie von Elon Musk – das ist so. Gründlich und sauber aufgesetzt bekommen Sie in der EU.“