Politische Grabenkämpfe über den Umgang mit Künstlicher Intelligenz gibt es in Deutschland zwar nicht. Regierung und Opposition haben keine unüberwindbaren Differenzen. Das zeigen die Interviews, die 1E9 mit den KI-Expertinnen von CDU und Grünen geführt hat. Dennoch könnten die Vorschläge zur besseren Regulierung und Förderung von KI scheitern: an analoger Bürokratie, rechtlichen Flickenteppichen und unklaren Zuständigkeiten.
Von Wolfgang Kerler
Dass sie sich zu wenig mit Künstlicher Intelligenz beschäftigt, kann man der Politik jedenfalls nicht vorwerfen. Seit Barack Obama 2016 mit einer Strategie den Anfang machte, wie die Vereinigten Staaten ihren Vorsprung bei der Entwicklung und beim Einsatz von KI verteidigen könnten, zogen über 50 Staaten mit eigenen Plänen nach.
Auch in Deutschland und Europa suchen Ministerien und Parlamente, Behörden und Beratungsgremien seit Jahren nach den besten Rezepten, um – natürlich – Technologieführer im Zukunftsmarkt KI zu werden. Wer alle Ideen studieren möchte, die dabei entwickelt wurden, sollte viel Zeit zum Lesen mitbringen. Die Vorschläge füllen inzwischen tausende von Seiten.
Im November 2018 präsentierten das Forschungs-, das Wirtschafts- und das Arbeitsministerium die gemeinsam ausgearbeitete KI-Strategie der Bundesregierung. Vor ein paar Wochen bekam diese ein Update. Auch der Bundestag befasste sich ausgiebig mit Künstlicher Intelligenz. Fast zwei Jahre lang tagte eine Enquete-Kommission, die vergangenen Oktober einen rund 800 Seiten dicken Abschlussbericht mit Empfehlungen für die Regulierung und Förderung von KI vorstellte. Für die Europäische Union unterbreitete die EU-Kommission vergangenes Jahr ebenfalls einen Vorschlag.
Alle Konzepte vorzustellen und dabei ihre Gemeinsamkeiten und Unterschiede herauszuarbeiten, würde den Rahmen eines einzelnen Artikels sprengen. Leichter wird das auch dadurch nicht, dass es bisher keine klare Definition von KI gibt, auf die sich alle Ebenen berufen. Dennoch: Rote Fäden, zentrale Herausforderungen und politisch noch umstrittene Punkte passen durchaus in einen einzigen Text hinein.
KI made in Germany. Oder in Europe.
Ob in Brüssel oder in Berlin, immer geht es in der KI-Politik auch um Abgrenzung – vor allem gegenüber den USA und China. KI made in Germany oder made in Europe soll für vertrauenswürdige, verantwortungsvolle und gemeinwohlorientierte KI stehen. „Es geht darum, die Entwicklung von KI und im Grunde die gesamte digitale Transformation auf unseren europäischen Grundwerten aufzubauen“, sagt Ronja Kemmer zu 1E9. Sie sitzt für die CDU im Bundestag, war deren Obfrau in der KI-Enquete-Kommission und ist KI-Beauftragte der Unionsfraktion.
„Uns sind Themen wie eine starke und liberale Gesellschaft, aber auch Klimaschutz wichtig“, meint die Grünen-Abgeordnete Anna Christmann, ebenfalls Obfrau in der Enquete-Kommission des Bundestags. „Mit KI made in Europe können wir einen Weg definieren, wie KI wirklich zum Wohl von Mensch und Umwelt eingesetzt wird – und nicht zur Kontrolle von Gesellschaften oder, um möglichst viele Daten von Usern abzusaugen.“ Dass Europa in der Lage sei, Standards zu setzen, habe es mit der Datenschutzgrundverordnung bereits bewiesen.
Deutschland und Europa sollen also für KI stehen, die sicher und robust ist, die Datenschutz und Privatsphäre achtet, die Menschen in ihren Entscheidungen nicht auf Basis von Geschlecht, Hautfarbe oder ähnlichen Faktoren diskriminiert, die zum Wohle der Gesellschaft und zum Schutz von Klima und Umwelt eingesetzt wird – und die so transparent, erklär- und nachvollziehbar wie möglich ist, zum Beispiel indem verwendete Trainingsdaten offengelegt und die relevanten Eigenschaften eines KI-Systems beschrieben werden. Darüber herrscht weitgehend Konsens. Diskutiert wird allerdings, mit welchen Vorschriften und Förderprogrammen das erreicht werden kann.
Risikoklassen – ja oder nein?
Damit KI-Systeme den Ansprüchen der Politik genügen, muss diese – zusätzlich zu vielen bereits vorhandenen Verbraucher- und Datenschutzvorschriften – auch neue Regeln aufstellen. Das ist klar. Ebenfalls klar ist, dass auf KI basierende Instagram-Filter oder Übersetzungstools kaum, selbstfahrende Autos oder autonome Killer-Drohnen dagegen stark reguliert werden müssen. Unklar ist allerdings, wie stark zwischen eher harmlosen und sehr riskanten Anwendungen differenziert werden soll.
Die EU-Kommission beispielsweise schlägt in ihrem KI-Weißbuch ein binäres System vor – will also nur zwischen Anwendungen mit hohem Risiko und Anwendungen ohne hohes Risiko unterscheiden. Hochrisiko-Anwendungen sollten aus Sicht der Kommission transparent, nachvollziehbar und robust sein, müssten immer von Menschen beaufsichtigt werden und Behörden sollten die dafür genutzten Daten prüfen und zertifizieren können.
Ausschlaggebend für die Risikobewertung soll sein, ob KI in einem sensiblen Sektor eingesetzt wird, zum Beispiel Gesundheit, Verkehr oder Energie, und ob sie dort Schaden anrichten kann. Ein Terminvereinbarungstool im Krankenhaus wäre also, obwohl es im Gesundheitswesen verwendet wird, keine Hochrisiko-Anwendungen – und würde damit nicht unter neue, strengere Regeln fallen.
Die Datenethikkommission der Bundesregierung, ein unabhängiges Beratungsgremium, schlägt dagegen ein System mit fünf Risikoklassen vor. Es reicht von Anwendungen mit keinem oder geringen Schädigungspotenzial, für die es keine zusätzliche Regulierung braucht, bis zu Anwendungen mit unvertretbarem Schädigungspotenzial, die vollständig oder teilweise verboten werden sollten. In den Klassen dazwischen gibt es Maßnahmen wie Transparenzpflichten, Zulassungsverfahren oder Live-Schnittstellen zu Aufsichtsbehörden.
Momentan ist das Problem eher, dass Anwendung erst einmal nicht erlaubt sind.
Ronja Kemmer, CDU
Anna Christmann von den Grünen sieht in Risikoklassen grundsätzlich „ein gutes Modell, auf dessen Grundlage man Regulierung vornehmen kann“. Sie hält es jedoch nicht für möglich, Risikoklassen direkt in Gesetzgebung zu gießen. „Sie helfen zur Einordnung, aber Regulierung muss aus meiner Sicht sektoren- und anwendungsspezifisch erfolgen.“
Ronja Kemmer von der CDU fürchtet, dass pauschale Risikoklassen schnell zu Überregulierung führen. „Es ist wichtig, dass wir die zarten Pflänzchen, die gerade entstehen, nicht schon vorab am Wachsen hindern“, sagt sie. „Momentan ist das Problem eher, dass Anwendung erst einmal nicht erlaubt sind und wir die Frage beantworten sollten: Wie schaffen wir es eigentlich, dass Innovationen auf den Markt dürfen?“ Dass Anwendungen, die das persönliche Wohlergehen von Menschen oder gar Leib und Leben betreffen, stärker reguliert werden müssen, sei klar. „Es gibt aber nicht die KI. Deswegen muss man Anwendungen sehr differenziert betrachten.“
Die Regulierung wird also ein Balanceakt, bei dem der Wunsch nach Technologieführerschaft und Innovationen und der Anspruch, nur vertrauenswürdige KI zuzulassen, in Einklang gebracht werden müssen. Die Debatte erinnert an die – regelmäßig aufflammende – Diskussion über die europäische Datenschutzgrundverordnung. Auch die wird immer wieder als Innovationsverhinderer bezeichnet. Bei genauerem Hinsehen ist aber weniger die DSGVO das Problem als der Flickenteppich an Auslegungen.
Die offene Flanke: fehlende Daten, verwirrender Datenschutz.
Ohne Daten, keine KI. Das klingt pauschal, ist aber angesichts der Tatsache, dass die meisten Anwendungen, die wir heute als Künstliche Intelligenz bezeichnen, auf maschinellem Lernen beruhen, zutreffend. Dabei bringen sich – vereinfacht gesagt – Algorithmen selbst bei, in großen Datenmengen Muster und Logiken zu erkennen. Die Voraussetzung dafür sind Trainingsdaten. Das ist auch der Politik klar.
Allerdings gelten in Europa strengere Regeln für das automatisierte Verarbeiten von personenbezogenen Daten als in den USA oder China, weshalb Datenkonzerne wie Facebook, Google, Alibaba oder Tencent in ihren Heimatmärkten noch ungezügelter Informationen über ihre Milliarden von Usern horten können als in der EU. Angesichts des eigenen Anspruchs, in Deutschland und Europa KI auf Basis unserer Grundwerte zu entwickeln, sehen Ronja Kemmer und Anna Christmann darin allerdings gar kein grundsätzliches Hindernis für hiesige Unternehmen.
„Ich halte die DSGVO in ihrer Grundidee für total richtig“, sagt die CDU-Politikerin Ronja Kemmer. Anna Christmann von den Grünen sieht im europäischen Datenschutz sogar eine Chance. „Menschen können deswegen ein hohes Vertrauen in Anwendungen haben.“ Als Problem betrachten beide allerdings die mangelnde Harmonisierung.
„Es ist kein Zufall, dass die Tech-Konzerne alle in Irland sitzen, weil die Auslegung der DSGVO dort besonders liberal ist“, sagt Ronja Kemmer. Dass es in Deutschland dann auch noch unterschiedliche Auffassungen in den 16 Bundesländern und auf Bundesebene gebe, halte sie für „einen Treppenwitz“. „Es kann nicht sein, dass ich jedes Mal mit 17 Datenschutzbeauftragten konferieren muss, wenn ich Fragen zu einer konkreten Anwendung habe“, findet auch Anna Christmann von den Grünen. Die Politik müsse also auf eine echte Harmonisierung hinarbeiten.
Europa muss endlich die Datenschätze nutzen, die wir haben.
Anna Christmann
Ohnehin überlagert die Debatte über die DSGVO manchmal, dass der Erfolg Europas und Deutschlands insbesondere von Daten abhängen könnte, die von ihr wenig betroffen sind – weil sie entweder gar nicht personenbezogen sind oder auch anonymisiert wertvoll sind. Entscheidend könnten nämlich Daten aus der Industrie, der Verwaltung oder Umweltdaten sein. „Europa muss endlich die Datenschätze nutzen, die wir haben“, fordert Anna Christmann.
Um Unternehmen dazu zu bringen, untereinander Daten zu teilen, ohne Angst um Geschäftsgeheimnisse haben zu müssen, wird eine Reihe von Maßnahmen diskutiert – oder schon umgesetzt. Dazu gehört die europäische Cloud- und Dateninfrastruktur Gaia-X, aber auch die Schaffung von vertrauenswürdigen Vermittlern in Form von Datentreuhändern.
Mit gutem Beispiel vorangehen sollten allerdings, auch darüber besteht im Prinzip Einigkeit, staatliche und öffentliche Einrichtungen, die nicht personenbezogene Daten erheben. „Was mit öffentlichen Geldern finanziert wird, muss auch öffentlich sein“, sagt Anna Christmann. Fast wortgleich wünscht sich das auch Ronja Kemmer: „Wo öffentliches Geld in das Sammeln von Datensätzen gesteckt wurde, müssen diese Daten auch der Öffentlichkeit zur Verfügung gestellt werden.“
In der Praxis funktioniert das in Deutschland bisher nur schleppend. Zwar gibt es mit GovData.de ein Portal für öffentliche Daten, doch rangiert dies international allenfalls im Mittelfeld. Die mangelhafte Digitalisierung vieler Behörden, unterschiedliche IT-Systeme in den Bundesländern und fehlende Interoperabilität erschweren die Umsetzung der in der neuen Datenstrategie der Bundesregierung formulierten Ambition, der Staat solle „zum Vorreiter der neuen Datenkultur“ werden. „Wie das umgesetzt werden soll, bleibt leider weiterhin sehr vage“, kritisiert Anna Christmann.
Will Europa eine führende Rolle bei der Entwicklung und beim Einsatz von Künstlicher Intelligenz spielen, müsse es gelingen, den Schutz von personenbezogenen Daten und Menschenrechten zu sichern, und gleichzeitig hochwertige Datenpools aufzubauen. Zu diesem Ergebnis kommt die CDU-nahe Konrad-Adenauer-Stiftung in einer aktuellen Studie. Doch dafür bräuchte Europa auch eine Koordinierung der vielen nationalen KI-Strategien.
Das Geld fließt nur langsam.
Drei Milliarden Euro bis 2025, um KI zu fördern, kalkulierte die Bundesregierung 2018 ein. 2020 stockte sie den Betrag auf fünf Milliarden Euro auf. Damit sollen eine Vielzahl von Maßnahmen finanziert werden: KI-Trainer, die den Mittelstand beim Einsatz der neuen Technologie unterstützen sollen, Reallabore, Supercomputer, Testfelder für autonome Mobilität, eine ganze Reihe von Wettbewerben, Förderung von Wagniskapital und Existenzgründungen, neue Professuren – und vieles mehr, wie man auf der Webseite zur KI-Strategie nachlesen kann.
Verstehe, was die Zukunft bringt!
Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!
Jetzt Mitglied werden!Das Geld sei zu wenig, hieß es von Kritikern wie dem renommierten KI-Forscher Jürgen Schmidhuber gleich zu Anfang. China plane schließlich Ausgaben in Höhe von 150 Milliarden Euro. Als „Klein-Klein“ bezeichneten Oppositionsvertreter die Strategie. Und inzwischen stellte sich heraus, dass selbst die eingeplanten Mittel nur langsam fließen. „Es werden Milliardensummen ins Schaufenster gestellt“, sagt Anna Christmann. „Wenn man aber nachfragt, wie viel davon tatsächlich ausgegeben wird, ist das nur ein Bruchteil. Im vergangenen Sommer waren es gerade einmal 65 Millionen Euro. Das ist viel zu wenig.“
Weitere Punkte sprechen dafür, dass die Umsetzung der Strategie nicht gerade reibungslos verläuft. Mitte 2020 verzögerte sich die Fortschreibung der Strategie offenbar vor allem deshalb, weil sich die Ministerien nicht einigen konnten, wofür die zusätzlichen zwei Milliarden ausgegeben werden sollten. „Abstimmungsbedarf“ lautete die offizielle Begründung. Für die Strategie zuständig sind schließlich gleich drei Ministerien – Arbeit, Wirtschaft, Forschung. Ende 2020 blockierte der Haushaltsausschuss des Parlament dann die Freigabe von 120 Millionen Euro für das Bund-Länder-Programm „KI in der Hochschulbildung“, weil das Forschungsministerium den Abgeordneten kein inhaltliches Konzept dafür vorgelegt hatte.
Anna Christmann fehlt es – trotz Nachbesserungen bei der Fortschreibung der Startegie – auch an einer europäischen Ausrichtung der deutschen Politik. „Wir brauchen echte Ökosysteme aus Forschung und Wirtschaft in Europa, die gute Leute anziehen, um die Entwicklung von KI voranzutreiben“, sagt sie. „Es macht eben einen Unterschied, ob wir KI entwickeln oder ob das an anderen Orten stattfindet.“ Von der nächsten Bundesregierung wünscht sie sich eine Technologie-Task-Force im Kanzleramt und Innovationseinheiten in allen Ministerien, um Themen wie KI wirklich voranzutreiben.
Das Problem ist die Umsetzung.
Einige finden die KI-Strategien von EU und Bundesregierung noch zu vage, zu wenig ambitioniert oder unterfinanziert. Dass sie in die komplett falsche Richtung laufen, findet allerdings kaum jemand. Dennoch ist nicht sicher, ob aus den tausenden Seiten mit Vorschlägen tatsächlich Taten werden.
Denn scheitern könnte die KI-Politik, wie es aussieht, vor allem an mangelnder Koordinierung zwischen den EU-Mitgliedstaaten und der Kommission, zwischen den Ministerien und Bundesländern in Deutschland. Die lückenhafte Digitalisierung von Behörden und Unternehmen und die fehlende Bereitschaft zur Kooperation könnten ebenfalls zum Problem werden. Die Politik hat es also selbst in der Hand, ob Deutschland und Europa bei KI führend werden können.
Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.
Titelbild: Getty Images