KI in der Politik? Ja, aber bitte mit technischen Standards und Menschenrechten

Ein ungewöhnliches Duo präsentiert sich als Vorreiter bei Künstlicher Intelligenz in Staat und Politik: die FDP und die Bundesagentur für Arbeit. Endlich, könnte man meinen, wenn man es mit dem legendären Isaac Asimov hält. Allerdings liefert die Science Fiction auch wertvolle Mahnungen zum richtigen Einsatz von KI in der Staatsführung. Unsere SciFi-versierte Kolumnistin @Kryptomania zieht daraus Schlussfolgerungen für aktuelle Debatten – vom AI Act der EU bis zur Automatisierung der Bürokratie.

Eine Kolumne von Dr. Aleksandra Sowa

Eine der deutschen Regierungsparteien, die FDP, hat im letzten Jahr angekündigt, Künstliche Intelligenz (KI) in der politischen Arbeit zu nutzen: Tools wie ChatGPT sollten eingesetzt werden, um „Reden [zu] schreiben oder Bürgerbriefe [zu] beantworten“. Auch die Bundesagentur für Arbeit (BA), die sich neuerdings damit rühmt, keine „Stempelbude“ mehr zu sein, da sie als „erste und einzige Behörde […] das Online-Zugangsgesetz Ende 2022 vollständig umgesetzt“ habe, sei „Vorreiterin im Bereich der Verwaltungsmodernisierung“ und möchte mehr KI einsetzen. Beispielsweise wurde während der Coronapandemie auf der Homepage der BA ein Chatbot eingeführt, bei dem nicht alles sofort glatt lief: „Zunächst war seine Sprache allgemein verständlich, was aber einen Rüffel aus dem Ministerium einbrachte. In der Werkstatt wurde ihm dann rechtskonforme Sprache beigebracht.“ Anschließend sollten Bürgerinnen und Bürger in der Lage sein, in der einzig korrekten Sprache, nämlich im Amtsdeutsch, mit dem Behördenchat zu kommunizieren. Ein Tipp: ChatGPT beherrscht inzwischen Amtsdeutsch ganz passabel und lässt sich – wenn man es höflich darum bittet – vielleicht für einen Chat mit dem Bot der BA einspannen.

Bürgerinnen und Bürger, Klientinnen und Klienten, Mandantinnen und Mandaten etc. mit einer KI statt einem Menschen interagieren lassen: Ist das eine gute Idee?

Eine Bundesagentur möchte KI-Vorreiterin werden

Automatisierte Auskunfts- und Reklamationssysteme oder automatische Fallbearbeitung in bspw. Versicherungen sind in der Privatwirtschaft seit Jahren, lange vor dem KI-Hype, in der Erprobung. Einer vermeintlichen betriebswirtschaftlichen Optimierung, Produktivitäts- oder Effizienzsteigerung dienend werden sie aufgebaut und eingesetzt, um anstelle der Menschen Arbeit zu erledigen. So scheint auch der Vorteil des Einsatzes von KI durch die Partei FDP relativ klar: Man könne so Honorare für die Redenschreiber sparen und auf einige Referenten in den Büros verzichten. Dass damit auch Abgeordnete oder Minister selbst überflüssig werden könnten, ist zwar naheliegend, aber offenbar nicht Teil des Konzepts. Bei der BA wird der Einsatz der Technologie mit dem demografischen Wandel begründet: „[…] mit rund 35.000 Abgängen in den nächsten zehn Jahren“ könnte sonst „die Funktionalität der Bundesagentur gefährdet“ sein. Fachkräfte- und Nachwuchsprobleme lösen? „Nur durch Prozessautomatisierung ist das zu schaffen.“

Deshalb werden neben der vom Kanzler auf dem Digitalgipfel 2023 in Jena für BA und Jobcenter angekündigten KI für ein besseres Matching zwischen Jobsuchenden und Unternehmen weitere Anwendungsfälle geprüft. So sind Einsatzgebiete bei der Spracherkennung Speech-to-text (also die schnelle Übernahme von Beratungsgesprächen als Vermerk), bei möglichen Voicebots und bei vielem mehr denkbar. „Aktuell entwickelt die BA die automatisierte Datenübernahme aus Stellenangeboten mittels Machine Learning: Senden uns Arbeitgeber die Stellenbeschreibung per E-Mail als Fließtext oder als Anhang, können wir künftig die Inhalte automatisch in unser Fachverfahren übernehmen“, heißt es: „Ab Frühjahr 2024 profitieren die BA-Mitarbeitenden im Arbeitgeberservice davon und sparen so viel Zeit bei der Entgegennahme von offenen Stellen.“

Chatbots beantworten nicht nur Fragen beim Einkaufen bei Amazon, man begegnet ihnen, wenn man der Packstation ein Paket entnehmen möchte oder bei der Bahn im Personenverkehr. Der Vorteil der Automatisierung ist, dass man nach dem Pareto-Prinzip ca. 80 Prozent aller Standardfälle mit einer Standardantwort beantworten kann. Pech, wenn die Anfragen der Kunden zu den nicht abgedeckten, restlichen 20 Prozent gehören, für die es keine Nullachtfünfzehnantwort gibt. Es verwundert also nicht, wenn ein Chatbot von DHL bei komplexeren Fällen auf die nur tagsüber erreichbare Telefonhotline verweist. Ähnlich ergeht es Passagieren, die irgendwo im Nirgendwo in Zügen gestrandet sind und herausfinden möchten, ob und wann sie ihre Reise fortsetzen können: „Frag mal beim Service an. Hotline oder E-Mail …“ Einer Maschine zu vermitteln, was man von solchen Antworten hält, bringt wenig. Und es gehört sich auch nicht, ausfallend zu sein, denn inzwischen ist eine Entschuldigung ein fester Bestandteil der Chatkommunikation. „Das tut mir leid“, antwortet standardisiert die Bahn. Da ist der Mensch wie die Maschine oft einfach mit der Realität überfordert – und die Verantwortlichen sitzen vermutlich in einem anderen Zug.

Es gibt aber auch Beispiele für den erfolgreichen Einsatz von KI, wie im Journalismus, wo, wie die Autoren des Impulspapiers der Friedrich-Ebert-Stiftung, Grenzen überwinden, Chancen gestalten, zum Einsatz der KI im journalistischen Newsroom bemerkten, sogar „ein ganz neues Arbeitsfeld entstanden“ ist. Am Beispiel des Mitteldeutschen Rundfunks (MDR) und des Bayerischen Rundfunks (BR) zeigen sie, wie KI beim Community Management die Redaktionen unterstützen kann. Diese haben „ein Tool entwickelt, das die Aufmerksamkeit der Social-Media-Redaktion zuerst auf die Kommentare lenken soll, in denen die Redaktion direkt angesprochen wird […]. Dadurch können bei Fragen schneller passende Ansprechpersonen gesucht und gefunden werden. Es können aber auch problematische Kommentare zügiger zur Kontrolle gebracht oder sogar automatisch gelöscht werden.“

Politik möchte mit KI Ressourcen sparen, Behörden wollen effizienter und effektiver arbeiten, Behördenmitarbeiter viel Zeit gewinnen, Medien sich auf das Wesentliche konzentrieren und Feedback kontrollieren. Wo bleibt aber der „Sprung für Services für Bürger“, von dem der Bundeskanzler auf dem Digitalgipfel sprach? Was haben von alldem konkret die Bürgerinnen und Bürger?

Kann Bürokratie überhaupt noch un-menschlicher werden?

Okay, bestätigte der Internetkritiker Evgeny Morozow im Interview mit Neue Gesellschaft – Frankfurter Hefte: Eine Antwort von ChatGPT wäre vielleicht ein wenig interessanter als die von einem FDP-Politiker. Dass die Partei für ihre Reden künftig auf KI setzen will, muss also nicht schlecht sein. Davon abstrahierend, ist diese Entwicklung allerdings insoweit besorgniserregend, da sie offenbar erst mal mehr Distanz zwischen den Herrschenden und den Beherrschten zu schaffen scheint. „Schreiben, die softwaregesteuert ohne personale Kontrolle ausgelöst werden und die Auskunft eines Mitarbeiters fingieren, den es gar nicht gibt, müssen unterbleiben“, forderten Julian Nida-Rümelin und Nathalie Weidenfeld in Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz (2018), nachdem sie automatisierte Auskunfts- und Reklamationssysteme ausgewertet haben. „Die Konzerne haben einen Schutzwall organisierter Unverantwortlichkeit um sich gebaut“, in dem Systeme „die Auskünfte systemisch und konsequent verweigern“. Zustände, die in Kubricks Odyssee im Weltraum ad extremum geführt werden: Die Hölle sei ein Ort, „an dem der Mensch konsequentialistisch programmierten Computern, die unfähig sind, wirklich zu denken, die Macht gegeben hat, über Leben und Tod zu entscheiden“, so Nida-Rümelin und Weidenfeld.

Evgeny Morozov sieht hier klare Grenzen. Man dürfe nicht alle Entscheidungen, wie beispielsweise solche über die Inhaftierung oder Freilassung von Menschen, einem Algorithmus überlassen. Darin, dass KI als Unterstützungsfunktion innerhalb des bürokratischen Systems betrieben wird, sieht er jedoch nichts Falsches. Mit der Ausnahme, dass die Vergabe von noch mehr Geld an private Anbieter, die solche KIs entwickeln, weitere Abhängigkeiten schaffen könnte. Dann entsteht ein Problem.

Eine explizite Verschlechterung gegenüber dem Status quo, wenn es um den Einsatz von KI in der deutschen Bürokratie geht, sieht Evgeny Morozov, der offenbar selbst damit Erfahrungen sammelte, nicht. Kann die Kommunikation mit der Bürokratie weniger menschlich sein, wenn man sie durch einen Algorithmus ersetzt? „Ich glaube nicht, dass das geht“, sagte er dazu der NGFH.

Olaf Scholz könnte dem Vorbild des Terminators folgen

Wieso also, statt darauf zu warten, bis sich zwischen der Regierung, dem Parlament und den (bis dahin schon ziemlich unmündigen) Bürgerinnen und Bürgern eine bürokratische Wand aus seelenlosen Chatbots und KIs aufstellt, nicht gleich Nägel mit Köpfen machen und direkt dazu übergehen, Roboter und KIs als politische Interessenvertreter zu wählen? Oder, wie es Arnold Schwarzenegger, der in seiner Kariere sowohl in die Rolle des Roboters (Terminator), der die Menschheit auslöschen sollte, schlüpfte als auch in die des Gouverneurs, der sich als Politiker betätigte (was die Medien zeitweise dazu veranlasste, ihn als „Gouvernator“ zu titulieren), in seinem aktuellen Motivationsbuch Be Usefull ausdrückte: wenn schon, denn schon.

Schließlich sei „[n]och nicht mal ein menschliches Gehirn […] in der Lage, ohne die Hilfe anderer zu regieren“, konstatierte auch der Science-Fiction-Autor Isaac Asimov in Schlagender Beweis . Und dieser „andere“ kann durchaus eine KI sein. Außerdem würde der Mangel an Fachkräften auch den Staat treffen, gab Bundeskanzler Olaf Scholz auf dem Digitalgipfel zu. Und nicht alle Probleme wird man mit Zuwanderung lösen können.

Es hätte gewiss Vorteile. Roboter gelten als effektiv, unbestechlich, objektiv und nicht korrumpierbar. „Könnte man einen Roboter schaffen, der in der Lage wäre, einen hohen Regierungsposten einzunehmen, ich glaube, niemand würde ihm gleichkommen können“, sinniert in Isaac Asimovs Erzählung die Roboterpsychologin. Infolge der Gesetze der Robotik wäre er nicht imstande, Menschen Schaden zuzufügen, er wäre unfähig der Tyrannei, der Korruption, der Dummheit und des Vorurteils.

Hierfür braucht es allerdings einen verpflichtenden Rechtsrahmen, ähnlich den Robotergesetzen bei Isaac Asimov, und eine Infrastruktur, die die Responsibility und Accountability für das Tun und/oder Unterlassen der KI klar regelt, statt sie ein bisschen auf die Produzenten, ein bisschen auf die Softwareentwickler und ein bisschen mehr auf die Nutzer zu verteilen. In den Robotererzählungen sind solche Fragen klar geregelt, und alle Roboter verbleiben im Eigentum des Herstellers, der für ihr Tun und Lassen haftet. Niemand behauptet, dass solche Regulierung einfach ist, aber es haben sich bisweilen einige kluge Köpfe damit befasst. So beispielsweise hat sich mit der Unmöglichkeit, KI mittels einfacher und logischer Gesetze zu steuern, eine ganze Dynastie von Roboterpsychologen in den Roboter-Geschichten von Isaac Asimov auseinandergesetzt.

Ob homöostatisches Unternehmen von Stanislaw Lem oder Regierungsmaschine à la Norbert Wiener – geeignete Modelle wurden in den Pionierzeiten der Kybernetik entwickelt und teilweise, wie beispielsweise im Projekt Cybersyn im Chile der 1970er-Jahre, erprobt. Allerdings mit einem wesentlichen Unterschied zu den Mehr-Tempo-bei-der-Digitalisierung-der-Verwaltung-Projekten von heute. „Beim Projekt Cybersyn ging man nicht von der Frage nach der Technologie aus, sondern von der Annahme, dass man etwas gegen eine zusammenbrechende Wirtschaft unternehmen muss“, erklärte Evgeny Morozov. Das ginge vermutlich genauso gut oder gar besser mit Taschenrechnern als mit den gerade einmal zwei Großcomputern, die Chile damals zur Verfügung hatte.

Debatten über KI-Ethik verzögern technische Mindestanforderungen

Grundsätzlich gilt: Wenn die KI „besser“ eine Entscheidung als der Mensch trifft, dann müsse man logischerweise der Entscheidung der KI folgen, erklärte Prof. Tobias Keber im Vortrag Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz und empfiehlt, sich vor dem Einsatz der KI rechtzeitig mit den datenschutzrechtlichen Fragen auseinanderzusetzen. Dies gilt nicht nur für die Diagnostik in der Medizin oder für das Gesundheitswesen, sondern muss gerade auch in der Politik gelten.

Damit eine Maschine eine „bessere“ Entscheidung trifft, muss ihr zuvor jemand sagen, was diese „bessere“ Entscheidung ist. Oder ihr beibringen, wie sie lernt, was eine „bessere“ Entscheidung ist. Oder wo sie sie findet. Oder was „besser“ bedeutet. Wenn es demnächst der technischen Elite der Silicon Valley obliegt zu entscheiden, nach welchen Kriterien ein Algorithmus im Krankenhaus jemandem eine Organspende zuweist, könnte dies anhand des Kriteriums der größten Nützlichkeit für die Gesellschaft erfolgen. Als da wäre: Nützlich für die Gesellschaft ist, wer das meiste Geld an der Börse verdient, warnte Cathy O’Neil in Angriff der Algorithmen (2017).

O’Neil rät deswegen dazu, Diskussionen über die Moral oder ethische Regeln für Algorithmen von der Diskussion über die Technologie zu trennen. Die Ethik, der Menschen im Allgemeinen gehorchen, sei zu erheblichen Teilen widersprüchlich, mahnte Stanislaw Lem. Es gebe verschiedene – komplexe und komplizierte – Situationen, von denen niemand sagen könne, wie man handeln darf, muss oder soll. Und der kanadische Biologe und Science-Fiction-Autor Peter Watts legte nach: Er sei der Auffassung, eine Entscheidung der Maschine zu überlassen, weil die Menschen sie nicht treffen – und dafür nicht verantwortlich sein wollen –, sei keine Moral, keine Ethik und keine Logik – es sei Feigheit.

Werde Mitglied von 1E9!

Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.

Jetzt Mitglied werden!

Vorgaben, die man sinnvollerweise an die Technologie stellen kann, sind u. a. Mindestanforderungen an die Sicherheit und/oder Qualität der (komplexen) Software, Standards für die sichere und datenschutzkonforme Entwicklung, Standards für Security by Design oder Privacy by Design. Alles Vorgaben, deren Erforschung durch eine mantraähnliche Forderung nach Aufstellung ethischer Regeln für Algorithmen und Künstliche Intelligenz konsequent ausgebremst oder gar verhindert wurde. Mit dem Ergebnis, dass es heute weder eine allgemeingültige Algorithmen-Ethik, noch verpflichtende Standards für die Sicherheit und Data Protection der Algorithmen gibt. Währenddessen wurde KI entwickelt, ohne auch die minimalen Mindeststandards an IT-Sicherheit und Datenschutz berücksichtigen zu müssen. Die Regulierung sollte sich laut Experten wie Bruce Schneier, der schon Mindeststandards für die Sicherheit der „smarten“ Internet-of-Things-Geräte gefordert hatte, nicht auf die Technologie beschränken, sondern stattdessen die mächtigen Interessengruppen, die hinter den Technologien und der KI stehen, adressieren.

Ist eine schlechte Regulierung wirklich besser als gar keine?

Nun feiert sich Europa für den AI Act – die erste derartige Regulierung der KI weltweit. Wenn man vielleicht vom Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, unterzeichnet von US-Präsident Biden, oder dem (freiwilligen) Hiroshima Process International Code of Conduct for Advanced AI Systems der Europäischen Kommission absieht. Rasch vor den Europawahlen, noch im Dezember 2023, haben sich das Europäische Parlament und die EU-Mitgliedsstaaten auf eine vorläufige Fassung geeinigt. Sobald beschlossen, wird der AI Act in spätestens zwei Jahren europaweit verbindlich. Bis dahin – und vielleicht auch danach – muss er sich gegen Kritik der Zivilgesellschaft verteidigen, oft lediglich mit dem Argument, dass es besser sei, eine schlechte Regulierung zu haben als gar keine. In der 38. Folge des Netzpodcasts des schweizerischen Vereins Digitale Gesellschaft kommentierte die Vorsitzende, Rahel Estermann, den geleakten, fast 260 Seiten umfassenden finalen Entwurf der KI-Verordnung: Der Eindruck hätte sich festgesetzt, dass sich die Tech-Lobby und Sicherheitsbehörden am Schluss durchgesetzt haben – gegen eine menschenrechtssensible Politik.

Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik. Sie ist zertifizierter Datenschutzauditor und IT-Compliance-Manager. Aleksandra ist Autorin diverser Bücher und Fachpublikationen. Sie war Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD, ist Mitglied der Grundwertekommission und trat als Sachverständige für IT-Sicherheit im Innenausschuss des Bundestages auf. Außerdem kennt sie sich bestens mit Science Fiction aus und ist bei Twitter als @Kryptomania84 unterwegs.

Alle Ausgaben ihrer Kolumne für 1E9 findet ihr hier.

Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!

Sprich mit Job, dem Bot!

Job, der Bot

War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!

1 „Gefällt mir“