Die Europäische Union will Künstliche Intelligenz regulieren. Erst kürzlich hat sie Details zum geplanten Gesetz vorgelegt, das die Menschheit vor Schaden durch die neue Technologie bewahren soll. Doch dem Juristen Antonio Pele geht das nicht weit genug: Er fordert neue Menschenrechte – und digitale wie physische Räume, in denen KI draußen bleibt.
Ein Kommentar von Antonio Pele
In Dan Simmons’ Science-Fiction-Klassiker Hyperion aus dem Jahr 1989 sind die Hauptfiguren des Romans ständig mit einem als „TechnoCore“ bezeichneten Netz Künstlicher Intelligenz verbunden, das Informationen direkt in ihr Gehirn einspeist. Während jegliches Wissen sofort verfügbar ist, geht die Fähigkeit, selbst zu denken, verloren.
Rund 30 Jahre nach der Veröffentlichung des Buches könnte man die zunehmenden Auswirkungen der KI auf unsere intellektuellen Fähigkeiten mit ähnlichen Worten beschreiben. Um diese Risiken abzumildern, schlage ich eine Lösung vor, die sowohl den Fortschritt in der KI als auch die Notwendigkeit, unsere kognitiven Fähigkeiten zu respektieren und zu bewahren, miteinander in Einklang bringen kann.
Die Vorteile von KI für das menschliche Wohlergehen sind breit gefächert und allgemein bekannt: Die Technologie hat das Potenzial, die soziale Gerechtigkeit zu verbessern, systemischen Rassismus zu bekämpfen, Krebsdiagnosen zu erleichtern, den Klimawandel abzumildern und unsere Produktivität zu steigern.
Aber auch die Schattenseiten der KI rücken ins Blickfeld, wie die Gefahr, rassistische Voreingenommenheiten und sozioökonomische Ungleichheiten zu vertiefen oder unsere Gefühle und unser Verhalten zu manipulieren.
Das erste KI-Regelwerk der westlichen Welt?
Trotz der wachsenden Risiken gibt es immer noch keine verbindlichen nationalen oder internationalen Vorschriften zur Regulierung von KI. Deshalb ist der Vorschlag der Europäischen Union für eine Verordnung über Künstliche Intelligenz so wichtig.
Das von der Europäische Kommission vorgeschlagene KI-Gesetz, dessen jüngster Entwurf kürzlich von den beiden Ausschüssen des Europäischen Parlaments grünes Licht bekam, untersucht die potenziellen Risiken, die mit dem Einsatz der Technologie verbunden sind, und stuft sie in drei Kategorien ein: „inakzeptabel“, „hoch“ und „andere“.
In der ersten Kategorie sind KI-Praktiken verboten, die
- das Verhalten einer Person in einer Weise manipulieren, die ihr oder einer anderen Person körperlichen oder psychischen Schaden zufügen können.
- Schwachstellen einer bestimmten Personengruppe (z. B. ältere Leute oder Menschen mit Behinderungen) ausnutzen und ihr damit schaden können.
- Menschen bewerten und klassifizieren (z.B. über soziales Scoring).
- Echtzeit-Gesichtserkennung in öffentlichen Räumen zum Zwecke der Strafverfolgung ermöglichen, außer in besonderen Fällen (z. B. bei Terroranschlägen).
Im neuen KI-Gesetz sind die Begriffe „inakzeptable Risiken“ und Schädigungen eng miteinander verbunden. Das ist ein wichtiger Schritt und zeigt, wie wichtig es ist, dass bestimmte Aktivitäten und physische Räume vor der Einmischung durch KI geschützt werden müssen. Zusammen mit meiner Kollegin Caitlin Mulholland habe ich bereits dargelegt, dass eine stärkere Regulierung von KI und Gesichtserkennung notwendig ist, um grundlegende Menschenrechte wie die Privatsphäre zu schützen.
Dies gilt insbesondere für die jüngsten Entwicklungen im Bereich der KI, bei denen es um eine automatisierte Entscheidungsfindung in der Justiz und die Nutzung der Technologie in der Migrationspolitik geht. Die Debatten um ChatGPT und OpenAI werfen auch Bedenken hinsichtlich ihrer Auswirkungen auf unsere intellektuellen Fähigkeiten auf.
KI-freie „Heiligtümer“
All diese Fälle zeigen, wie bedenklich der Einsatz von KI in Bereichen ist, in denen Menschenrechte, unsere Privatsphäre und kognitiven Fähigkeiten auf dem Spiel stehen. Und sie weisen auf die Notwendigkeit von Räumen hin, in denen KI-Aktivitäten stark reguliert werden sollten.
Ich vertrete die Auffassung, dass diese Bereiche durch das historische Konzept von „Heiligtümern“ bzw. „Schutzgebieten“ („Sanctuaries“) definiert werden könnten. In einem weitsichtigen Artikel über den „Überwachungskapitalismus“ beschreibt Shoshana Zuboff das Recht auf Zuflucht in Heiligtümern als Gegenmittel zu staatlicher Verfolgung und nimmt uns mit auf eine Reise zu heiligen Stätten, Kirchen und Klöstern, in denen unterdrückte Bevölkerungsgruppen einst Unterschlupf fanden. Gegen die allumfassende digitale Überwachung plädiert Zuboff für ein Rückzugsrecht in Heiligtümer durch die Schaffung einer wirksamen digitalen Regulierung, damit uns ein „Ort der unantastbaren Zuflucht“ zur Verfügung steht.
Eine solche Idee von „KI-freien Zufluchtsorten“ bedeutet nicht, dass KI-Systeme verboten werden sollten, sondern dass ihre Anwendung stärker reguliert wird. Im Falle des KI-Gesetzes der EU impliziert dies eine genauere Definition des Begriffs „Schaden“ – die derzeit allerdings weder in der vorgeschlagenen EU-Gesetzgebung noch auf der Ebene der Mitgliedsstaaten existiert. Wie Suzanne Vergnolle darlegt, bestünde eine mögliche Lösung darin, auf EU-Ebene gemeinsame Kriterien zu erarbeiten, die die aus manipulativen KI-Praktiken resultierenden Arten von Schäden klarer definieren. Auch Kollektivschäden auf der Grundlage von Herkunft und sozioökonomischem Hintergrund sollten berücksichtigt werden.
Um KI-freie Zufluchtsorte zu schaffen, sollten Regelungen verabschiedet werden, die uns vor kognitiven und mentalen Schäden bewahren. Ein möglicher Ansatzpunkt dafür wäre eine neue Generation von Menschenrechten – „Neurorechte“ –, die unsere kognitive Freiheit inmitten des rasanten Fortschritts der Neurotechnologien schützen würden. Roberto Andorno und Marcello Ienca sind hierbei der Ansicht, dass das Recht auf geistige Unversehrtheit – das bereits vom Europäischen Gerichtshof für Menschenrechte gewährleistet wird – über Fälle von psychischen Erkrankungen hinausgehen und sich auch gegen unbefugte Eingriffe durch KI-Systeme richten sollte.
KI-freie Zufluchtsorte: ein Manifest
Im Vorfeld dieser Debatte würde ich das Recht auf „KI-freie Heiligtümer“ vorschlagen. Es umfasst die folgenden, vorläufigen Bestandteile:
- Das Recht auf „Opt out“. Jede Person hat das Recht, sich in einem von ihr gewählten Zeitraum gegen KI-Systeme in sensiblen Bereichen zu entscheiden. Dies beinhaltet die vollständige Nichteinmischung von KI-Technologie und/oder eine moderate Einmischung.
- Keine Sanktionen. Der Ausstieg aus der Verwendung von KI darf niemals wirtschaftliche oder soziale Nachteile mit sich bringen.
- Das Recht auf eine menschliche Entscheidung. Alle Personen haben das Recht auf eine endgültige Entscheidung durch eine menschliche Person.
- Geschützte Räume und Personen. In Zusammenarbeit mit der Zivilgesellschaft und privaten Akteuren werden die Behörden besonders sensible Bereiche (z. B. Bildung, Gesundheit) sowie menschliche/gesellschaftliche Gruppen (wie z.B. Kinder) definieren, die nicht oder nur in geringem Maße KI-Systemen ausgesetzt werden sollten.
KI-freie Zufluchtsorte in der physischen Welt
Aus rein räumlicher Sicht wurden „KI-freie Orte“ bislang uneinheitlich geschaffen. Im Zuge der sogenannten „Low-Tech/No-Tech-Bewegung“ haben sich einige Schulen in den USA und Europa dafür entschieden, Bildschirme aus den Klassenzimmern zu verbannen. Viele digitale Bildungsprogramme basieren auf potentiell suchtfördernden Konzepten. Öffentliche und finanzschwache Schulen setzen zunehmend auf Bildschirme und digitale Werkzeuge im Unterricht – was die soziale Kluft verstärkt.
Auch außerhalb von kontrollierten Umgebungen wie Klassenzimmern wird die Reichweite von KI immer größer. Um dem entgegenzuwirken, haben rund ein Dutzend US-Städte zwischen 2019 und 2021 Gesetze erlassen, die den Einsatz von Gesichtserkennung zu Strafverfolgungszwecken einschränken oder ganz verbieten. Seit 2022 machen viele Städte jedoch einen Rückzieher, weil sie dadurch einen Anstieg der Kriminalität befürchten. So werden die Olympischen Spiele in Paris 2024 – trotz der von der EU vorgeschlagenen Gesetzgebung – von KI-Videoüberwachungskameras überwacht.
Und trotz ihres Potenzials, Ungleichheiten zu verstärken, wird die KI zur Gesichtsanalyse in Vorstellungsgesprächen eingesetzt. Gefüttert mit den Daten von erfolgreichen Bewerbern neigt die KI dazu, Kandidaten mit privilegiertem Hintergrund auszuwählen und andere auszuschließen. Solche Praktiken sollten verboten werden.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Auch KI-gesteuerte Internet-Suchmaschinen sollten verboten werden, da die Technologie schlicht noch nicht für den Einsatz auf diesem Gebiet bereit ist. Wie Melissa Heikkiläa in einem Artikel für MIT Technology Review aus dem Jahr 2023 feststellt, „sieht der von der KI generierte Text verbindlich aus und zitiert Quellen, was ironischerweise dazu führen könnte, dass die Nutzer noch weniger geneigt sind, die Informationen, die sie sehen, zu überprüfen“. Auch gäbe es dabei ein gewisses Maß an Ausbeutung, da „die Nutzer sich derzeit die Arbeit machen, diese Technologie kostenlos zu testen“.
Fortschritt zulassen, Rechte bewahren
Das Recht auf KI-freie Zufluchtsorte wird die technischen Fortentwicklung der KI ermöglichen und gleichzeitig die kognitiven und emotionalen Eigenschaften aller Menschen schützen. Die Möglichkeit, sich gegen den Einsatz von KI zu entscheiden, ist von entscheidender Bedeutung, wenn wir unsere Fähigkeit bewahren wollen, uns Wissen anzueignen, Erfahrungen auf unsere ganz eigene Weise zu machen, und wenn wir unser moralisches Urteilsvermögen behalten wollen.
In Dan Simmons’ Roman ist ein wiedergeborener „Cybrid“ des Dichters John Keats vom „TechnoCore“ abgekoppelt und kann sich der Übernahme durch die KI widersetzen. Diese Stelle ist lehrreich, da sie auch die Relevanz der Debatten über die Einmischung von KI in Kunst, Musik, Literatur und Kultur verdeutlicht. In der Tat sind diese menschlichen Aktivitäten – neben Fragen des Urheberrechts – eng mit unserer Vorstellungskraft und Kreativität verbunden, und genau diese Eigenschaften sind es in erster Linie, die den Grundstein für unsere Fähigkeit legen, Widerstand zu leisten und selbst zu denken.
Antonio Pele ist Assistenzprofessor an der juristischen Fakultät der Universität PUC-Rio, Marie-Curie-Stipendiat am IRIS/EHESS Paris und MSCA-Stipendiat am Columbia Center for Contemporary Critical Thought (CCCCT) mit dem HuDig19-Projekt, Université Paris Nanterre - Université Paris Lumières
Dieser Artikel erschien zunächst unter Creative Commons Lizenz auf Englisch bei The Conversation. Die deutsche Übersetzung stammt von 1E9.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!