Die EU-Kommission plant, den Einsatz von Künstlicher Intelligenz streng zu regulieren. Unter anderem sollen KI-Programme nicht ohne Weiteres die Bewerbungen von Arbeitssuchenden beurteilen oder den Verkehr regeln dürfen. Social-Credit-Systemen wie in China soll ein Riegel vorgeschoben und Massenüberwachung mit Gesichtserkennung verboten werden. Jedoch soll es Ausnahmen geben.
Von Michael Förtsch
Wer sich in chinesischen Großstädten bewegt, kann kaum einen Meter gehen, ohne dass er von einer Kamera erfasst wird. Immer öfter wird dabei das Gesicht mittels Künstlicher Intelligenz identifiziert und mit Datenbanken abgeglichen, in denen mutmaßliche Straftäter oder anderweitig gesuchte Personen gespeichert sind. In der Europäischen Union soll so etwas nicht möglich sein, das ist zumindest das Ziel eines Entwurfs von Grundregeln zum Umgang mit Künstlicher Intelligenz und „automatischen Entscheidungssystemen“, der diese Woche vorgestellt wurde. Laut den Verfassern kann die Nutzung von Künstlicher Intelligenz der Gesellschaft viele Vorteile bringen, Innovationen befeuern und die europäische Wirtschaft stärken. Aber diese Technologie berge auch Risiken und könne „negative Folgen für den Einzelnen und die Gesellschaft mit sich bringen“.
Aufgrund der in weiten Teilen noch ungeahnten Potentiale und Implikationen von selbstlernenden Systemen und Entscheidungsfindungssystemen müsse „eine balancierte Herangehensweise“ gefunden werden. Nämlich eine, die die Position der Europäischen Union als technologischer Vorreiter sichere und mit europäischen Werten, fundamentalen Grundrechten und gesellschaftlichen Prinzipien in Einklang bringen könne. Laut dem 107 Seiten starken Vorschlag ginge das nur mit Regeln, die die Innovation und Forschung nicht verbauen, aber Grenzen und Leitplanken für einen geordneten und sicheren Einsatz der Technologien aufstellen. Schließlich würde Künstliche Intelligenz zunehmend in den Alltag, das Leben und die Erfahrungen von Menschen eingreifen.
Unter anderem soll der Einsatz von Künstlicher Intelligenz in verschiedene Risikokategorien eingeteilt werden. Entsprechend jedem Risiko soll es eigene Vorgaben geben. Beispielsweise sollen Unternehmen, die Systeme für selbstfahrende Autos, Verkehrsleitsysteme oder medizinische Anwendungen entwickeln, verpflichtet werden, die Maschinenlern-Prozesse penibel zu dokumentieren. Bei Software, die in irgendeiner Weise einen Menschen beurteilt oder kategorisiert, müssen die genutzten Datasets geprüft und bei Bedarf offengelegt werden, um „das Risiko einer algorithmischen Diskriminierung zu minimieren“.
Ebenso soll bei „riskanten Einsatzfeldern“ eine „menschliche Aufsicht während des gesamten Lebenszyklus der KI-Systeme“ zur Pflicht werden. Darunter würden Auswahl- und Beurteilungssysteme in Schulen, Hochschulen, im Dienstleistungsbereich oder bei der Personalsuche fallen. Das könnte beispielsweise Entwickler von umstrittenen Plattformen treffen, die basierend auf einer Videoanalyse Bewerber für Unternehmen vorfiltern. Aber auch Fahrdienstleister wie Uber könnten gezwungen sein, ihre Software anzupassen, die Fahrern basierend auf Bewertungsalgorithmen ihre Aufträge zuteilt. Teilweise könnte der Einsatz sogar genehmigungspflichtig werden. Noch strengere Auflagen sollen für den Einsatz in der Strafverfolgung und Justiz gelten.
Keine Massenüberwachung (jedenfalls fast)
Bestimmte Einsatzmöglichkeiten von Künstlicher Intelligenz sollen laut EU-Vorschlag komplett verboten werden. Etwa das sogenannte Social Scoring, also die grundsätzliche Bewertung von Bürgern basierend auf ihrem Verhalten und moralischen Prinzipien. In China werden derartige Systeme bereits getestet und implementiert. Sie können festlegen, dass Menschen ein Platz an einer Universität oder die Möglichkeit, Tickets für Hochgeschwindigkeitszüge oder Flugreisen zu buchen, verwehrt werden. Auch KI-Systeme, die gezielt das Handeln von Menschen manipulieren, sollen untersagt werden. Das könnte mutmaßlich verschiedene Systeme betreffen, die in der Internetwerbung genutzt werden. Aber auch harmlos scheinende Funktionen, wie automatische Playlists oder Kaufvorschläge könnten in diese Kategorie fallen.
Auch verdachtsunabhängige Massenüberwachung und Gesichtserkennung auf öffentlichen Plätzen soll zumindest weitestgehend eingeschränkt werden. Denn dadurch, stellen die Autoren des Dokuments fest, werden Bürger „indirekt von der Ausübung der Versammlungsfreiheit und anderer Grundrechte ab[ge]halten“. Pauschale Massenüberwachung stelle zudem einen Eingriff in die Privatsphäre dar und könne das Gefühl erzeugen, ständig beobachtet zu werden. „Die Nutzung dieser Systeme zum Zwecke der Strafverfolgung sollte daher verboten werden“, heißt es. Aber: Ein Komplettverbot von KI-Überwachungssystemen ist nicht geplant. Ausnahmen, die ihren Einsatz erlauben, soll es geben. Ein Punkt, den Bürgerrechtler kritisieren.
Verstehe, was die Zukunft bringt!
Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!
Jetzt Mitglied werden!Geregelt werden soll auch, wer haftet, wenn KI-Systeme versagen. Die EU-Kommission will hier die Betreiber in die Pflicht nehmen. Auch dafür, Transparenz zu schaffen. Denn Menschen sollen stets informiert werden, wenn sie mit einer Künstlichen Intelligenz interagieren. Da solche Systeme durchaus auch kritische Infrastruktur darstellen, die sensible Daten verarbeiten, sollen auch ganz besonders strikte Regeln für die Absicherung der Computersysteme gelten – sei es vor Hackern, anderen Staaten oder Unternehmen. Verstoßen Firmen gegen die KI-Regeln, sollen harte Strafen drohen. Sie könnten mit bis zu vier Prozent ihrer globalen Jahreseinnahmen haften – ganz unabhängig davon, ob es sich um ein einheimisches Unternehmen handelt oder nicht.
Diese Vorschläge müssen nun durch die EU-Staaten und das Europaparlament verhandelt werden. Entsprechend könnte es noch Jahre dauern, bis sie zum Gesetz werden. Die Hoffnung der Kommission ist, dass diese digitalen Leitplanken nicht nur einen Rahmen für die Staaten der Europäischen Union schaffen, sondern auch von anderen Ländern adaptiert werden – ähnlich wie es in Teilen bei der Datenschutzgrundverordnung passiert ist. Dadurch könnten globale Standards austariert werden, die auch die Kooperation bei der KI-Entwicklung vereinfachen und möglicherweise gemeinsame KI-Plattformen ermöglichen.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Teaser-Bild: solarseven / Getty Images