Die EU will offene KI-Projekte fördern – und überlegt, Gesichtserkennung zu verbieten


Die Europäische Union will den Einsatz von Künstlicher Intelligenz strikt regulieren und dadurch Missbrauch verhindern. Das könnte unter anderem zu einem generellen Verbot von automatisierter Gesichtserkennung im öffentlichen Raum führen. Auch sollen Entwickler von großen KI-Modellen stärker in die Pflicht genommen werden. Für freie KI-Projekte könnte es hingegen Ausnahmeregelungen geben.

Von Michael Förtsch

Der Erfolg von KI-Werkzeugen wie ChatGPT, Stable Diffusion und Text-zu-Sprache-KIs wie von Eleven Labs hat Künstliche Intelligenz wieder ins Zentrum der politischen Aufmerksamkeit gerückt. Auf Ebene der Europäischen Union soll es nun eine ausführliche Debatte über die Regulierung von KI geben – vor allem hinsichtlich ihres Einsatzes in verschiedenen Bereichen des öffentlichen Lebens. Das wichtigste Instrument zur Regulierung soll in der EU der bereits seit mehreren Jahren in Arbeit befindliche AI Act sein. Zuletzt stimmten zwei federführende Ausschüsse des Europaparlaments am 11. Mai über neue Regeln und die Anpassung bestehender Paragraphen ab, die in den AI Act aufgenommen werden sollen. Diese sollen vor allem Gefahren und den Missbrauch von KI-Werkzeugen eingrenzen und bestenfalls abwenden.

Die Politiker befassten sich unter anderem mit der Nutzung „biometrischer Erkennungssysteme“. Darunter fallen beispielsweise Kamerasysteme, die Menschen anhand ihrer Gesichter erkennen oder auch „verdächtiges Verhalten“ aus dem Gang oder der Mimik einer Person ablesen sollen. Die beiden Ausschüsse stimmten dafür, ein generelles Verbot solcher KI-Werkzeuge im öffentlichen Raum, in Artikel 5 des AI Acts aufzunehmen. Konkret soll „die Verwendung biometrischer Echtzeit Fernidentifizierungssysteme in öffentlich zugänglichen Räumen“ nicht erlaubt sein. Damit stellen sich die Ausschüsse gegen die Pläne mehrerer EU-Staaten – darunter auch Deutschland –, die den Einsatz solcher intelligenten Kameras massiv auszuweiten wollen, um etwa Straftäter zu verfolgen.

Gleichzeitig soll die „biometrische Kategorisierung“ von Personen in Zusammenhang mit automatisierter Erfassung untersagt werden. Darunter fällt beispielsweise die Erfassung von Geschlecht, Ethnie, Religion oder politischer Orientierung. Auch sollen Systeme zur Erkennung von Emotionen für die Strafverfolgung, in Bildungseinrichtungen und am Arbeitsplatz generell untersagt werden. Und das wahllose Auslesen biometrischer Daten von Social-Media-Plattformen oder Videokatalogen zur Erstellung von Gesichtserkennungsdatenbanken soll nach dem AI Act ebenfalls nicht legal sein.

Durch den AI Act sollen KI-Systeme auf EU-Ebene in vier Klassen einsortiert werden, die den Entwicklern bestimmte Verantwortungen auferlegen. Mit KI-Anwendungen mit „niedrigem oder minimalem Risiko“ sollen keine besonderen Verpflichtungen einhergehen. Bei einem „begrenzten Risiko“ müssen jedoch bereits Transparenzregeln eingehalten werden. Entwickler von KI-Systemen mit „hohem Risiko“ müssen zahlreiche Regeln hinsichtlich Dokumentation und Risikoabschätzung einhalten. Und der Einsatz von KI-Systeme mit „unakzeptablem Risiko“ soll ganz verboten werden.

In diesem Zusammenhang beschlossen die Parlamentarier außerdem, dass eine öffentliche Datenbank über „Hochrisiko“-KI-Systeme geführt werden soll, die von Unternehmen und Regierungsstellen entwickelt werden. Die Bürger der EU sollen sich dadurch transparent informieren können, welche KI-Systeme in Arbeit oder im Einsatz sind und wie sie dadurch in ihrem Alltag beeinflusst werden könnten. Verständlich, frei zugänglich und leicht navigierbar soll diese Datenbank sein.

Zusätzliche Regeln für KI-Modell wie GPT-4

Einige Abschnitte des AI Acts wurden auch in Anbetracht der aktuellen Entwicklungen rund um sogenannte generative Künstliche Intelligenz und die Kritik an dieser debattiert und modifiziert. Entwickler von General Purpose AI – gemeint sind sogenannte Foundation Models, also große KI-Modelle wie die GPT-Reihe oder Googles BERT, die für verschiedene Einsatzmöglichkeiten genutzt werden können – sollen Risiken bewerten und minimieren, bevor sie ihre KI als Basis für Tools und Dienste freigeben. Dabei gehe es neben Missbrauchsmöglichkeiten auch darum, Umweltschäden zu beachten – etwa in Sachen Energieverbrauch.

Nach Artikel 28b müssen die Anbieter außerdem eine „hinreichend detaillierte Zusammenfassung der Verwendung von urheberrechtlich geschützten Trainingsdaten dokumentieren und öffentlich zugänglich machen“. Das beträfe sowohl Bild- und Stimmgeneratoren als auch Sprachmodelle wie eben ChatGPT. Ebenso sollen Firmen, die solche KI-Systeme anbieten, dafür sorgen, dass erzeugte Inhalte „nicht gegen europäisches Recht verstoßen“. Das dürfte teilweise sehr herausfordernd werden.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Ausnahmen von diesen Regeln soll es nach dem aktuellen AI Act für Entwickler „freier und quelloffener KI-Komponenten“ geben. Zumindest solange diese nicht als hochriskante Systeme eingestuft werden. Das würde unter anderem Projekte wie die Text-zu-Bild-KI Stable Diffusion oder auch das Chat-KI-System OpenAssistant betreffen. Dennoch soll es auch für derartige Projekte Anregungen geben, beispielsweise Dokumentationsverfahren zur Erstellung von Modellen zu führen. Damit soll die Entwicklung von „vertrauenswürdigen KI-Systemen“ durch kleine Unternehmen, Initiativen und Bildungseinrichtungen gefördert werden.

Nur weil diese Regelungen jetzt von einem Ausschuss des Europäischen Parlaments beschlossen wurden, heißt das nicht, dass sie bald gelten werden. Denn auch der Europäische Rate und die Europäische Kommission können mitreden. Dafür soll die aktuelle Fassung des AI Act noch vor dem Sommer in die sogenannten Trilogverhandlungen gehen, bei denen allen voran das Verbot von biometrischer Überwachung debattiert werden dürfte. Anschließend soll der AI Act bis zum Frühjahr 2024 verabschiedet werden.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

1 „Gefällt mir“