Nur wenn Unternehmen, Wissenschaft und Politik gezielt zusammenarbeiten, kann Europa zur KI-Macht werden

Europa wünscht sich Künstliche Intelligenz, der wir vertrauen können. Doch die wird es nur geben, wenn Europa auch bei der Entwicklung von KI eine entscheidende Rolle spielt. Rasmus Rothe, CTO von Merantix und Vorstandsmitglied des KI Bundesverbands, macht Vorschläge, wie das gelingen kann.

Ein Gastbeitrag von Rasmus Rothe

Amerikanische und chinesische Unternehmen legen einen nahezu ungebremsten Aufstieg hin. Ihre Technologien bestimmen unser Leben – was unweigerlich auch Auswirkungen auf unser Empfinden von Ethik-Standards hat. Es muss uns Europäer:innen klar sein: Sofern wir nicht schnell umdenken und handeln, werden europäische (Ethik-)Standards bei KI keine Chance haben. Denn: Dass sich die nicht-europäischen Player Grundsätze diktieren lassen, ist unwahrscheinlich. Wie aber kann auch trotz der europäischen Sicherheitsbedürfnisse und dem dadurch geprägten Grundverständnis von KI die Poleposition eingenommen werden? Dies gelingt nur durch den gezielten Transfer von der Forschungs- in die Lebenswelt. Und durch eine verhältnismäßige Regulierung.

KI: Von der Forschung zur Anwendung

Am Institut forschen, Patente einreichen, vielleicht ein Unternehmen ausgründen und dann ein Produkt für den Markt entwickeln, das am Ende von Prüfinstanzen zugelassen werden muss – so sieht das herkömmliche (und zugegebenermaßen stark vereinfachte) Szenario für den Transfer von Forschungsergebnissen in unseren Alltag aus. Leider weist das System aber einige Schwachstellen auf, die per default zu Problemen führen.

In einer immer komplexeren Welt mit immer kürzeren Innovationszyklen seitens der Technologie und einer steigenden Zahl an Stakeholdern braucht es nämlich eine grundlegend andere Herangehensweise an den Transfer: Schon während der Forschungsarbeit sollte damit begonnen werden, Ideen für die Anwendung zu entwickeln und diesen Prozess von Rechtsexpert:innen oder sogar Policy Makern – also beispielsweise Regierungsvertreter:innen oder Verbänden – begleiten zu lassen. So kann parallel an neuen Anwendungsfällen gearbeitet werden, die früheren Anwendungsfällen in Sachen Markttauglichkeit und Aktualität überlegen sind. Anders gesagt: Man baut dann Dinge direkt so, dass sie nach „state-of-the-art“ funktionieren, zugelassen und von Kund:innen angenommen werden.

Besonders mit Blick auf hochgradig einflussreiche und komplexe Technologie wie Künstliche Intelligenz ist dieses Vorgehen absolut sinnvoll – und notwendig. Denn nur so lassen sich die Potenziale der Technologie verantwortungsbewusst heben. Nur: Wie soll das genau gehen?

Ökosysteme für den KI-Transfer

In der Startup-Welt wird gern von Ökosystemen und Clustern gesprochen. Berlin ist so ein Ökosystem, wobei das Silicon Valley (USA), das Silicon Wadi (Israel) und die Metropolregion Shanghai (China) wohl die größten Vorbilder für andere Standorte bilden. All diese Ökosysteme zeichnen sich durch eine gewisse geografische Überschaubarkeit sowie durch eine eng verzahnte Community aus den wichtigsten Stakeholdern – Wissenschafter:innen, Gründer:innen, Investor:innen, Talenten, Corporates, Policy Makern – aus. Genau das macht die einzelnen Teile des Ökosystems erfolgreich.

Als Cluster bezeichnet man – stark vereinfacht gesagt – dagegen ein Netzwerk verschiedener Ökosysteme, die auch geografisch etwas entfernt voneinander liegen können. Meist liegt hier der Fokus auf einem Kernthema oder einer Kerntechnologie. So wie etwa in Kanada, wo die KI-Ökosysteme von Montreal und Toronto sich gegenseitig voranbringen.

Innerhalb von Ökosystemen und Clustern gibt es zudem Hubs, die meist als physische Schnittpunkte für die Verbindungen zwischen den Stakeholdern sorgen und wo Kompetenz und Wissen gebündelt werden. Solche Orte spielen letztlich auch die zentrale Rolle dabei, um die Potenziale von KI zu nutzen und gleichzeitig der gesellschaftlichen Verantwortung gerecht zu werden. In den Hubs arbeiten komplette Teams oder einzelne Entsandte von Unternehmen oder Organisationen nicht nur für sich, sondern im steten Austausch und teilweise sogar mit geteilten Ressourcen miteinander.

Genau das macht Hubs so wertvoll für die Förderung von technologischen Entwicklungen: Hier arbeiten Menschen interdisziplinär, branchen- und organisationsübergreifend miteinander. Es gibt den direkten Zugang zu und Austausch von Expert:innen – und deshalb sind hier die Bedingungen für den modernen Transfer von der Forschung in die Anwendung extrem gut. Ich bin überzeugt: Es braucht mehr Hubs in Deutschland und Europa, um in Sachen KI nicht von anderen globalen Playern wie China oder den USA abgehängt zu werden. Mit Merantix bauen wir deshalb den AI Campus in Berlin auf. Dort sollen ab April 2021 bis zu 450 Vertreter:innen der KI-Szene arbeiten und sich austauschen können.

Regulierung: Verhältnismäßigkeit als oberstes Gebot

Jedes Unternehmen, das mit KI arbeitet, sieht sich mit den gleichen Herausforderungen konfrontiert: Daten müssen erhoben und sicher verarbeitet werden, Algorithmen müssen robust programmiert und Regularien müssen eingehalten werden. Gerade in Hinblick auf die Regulatorik aber herrschen an vielen Stellen noch Unsicherheit und Unklarheit. Die Frage ist hier nicht, ob eine Regulierung von KI sinnvoll ist oder nicht, sondern wie sie zustande kommt.

So hat etwa die High-Level Expert Group on Artificial Intelligence (AI HLEG) der EU eine Assessment List for Trustworthy AI (ALTAI) entwickelt. Das Ziel, ein Framework für eine vertrauenswürdige und verantwortungsvolle KI zu erarbeiten, wurde nur marginal erfüllt: Am Ende der zweijährigen Arbeitszeit (!) legte das Expertengremium eine Checkliste vor, mit der sich KI-basierte Unternehmen einem Selbsttest (!) unterziehen können. Solche Selbsttests sind einerseits mittlerweile in fast allen Unternehmen, die mit KI-Anwendungen arbeiten, egal ob Start-up oder Konzern, der Standard. Andererseits steckt das größte Problem der Selbsttests schon im Namen – durch die Kontrolle der eigenen Arbeit kann schlicht nicht transparent genug ermittelt werden, wie die KI sich verhält. Die unabhängige Beurteilung aber wäre wichtig, um das Vertrauen in die Technologie zu stärken.

Statt solcher halbherzigen Versuche braucht es doch viel eher eine praxisnahe Regulierung, die klar und deutlich, aber nicht innovationsfeindlich ist. So gibt es in jeder Branche, in der auch KI Anwendung finden kann, bereits Qualitätsstandards und Regelwerke, nach denen Unternehmen agieren müssen. Im Sinne dieser vorhandenen Regulatorik braucht es dann lediglich eine spezifische Erweiterung zur Entwicklung und zum Einsatz von KI. Sofern es seitens des Gesetzgebers noch keine klaren Vorgaben gibt, sollten sich Unternehmen nach bestehenden Regelwerken ausrichten und im Sinne der moralischen Grenzen arbeiten. Sinnvoll kann auch der Zusammenschluss in speziellen Verbänden sein, um das Vorgehen zu harmonisieren.

Der KI-Bundesverband etwa, dessen Gründungs- und Vorstandsmitglied ich bin, positioniert sich in einem aktuellen Paper zur EU-Regulatorik von KI wie folgt: „Wenn wir wollen, dass sich die Spezifika der jeweiligen Anwendungsfälle widerspiegeln, muss unsere Regulierung der KI-Technologie immer auf den Anwendungsfall zugeschnitten sein, in dem sie eingesetzt wird. Eine pauschale KI-Regulierung kann nicht die Besonderheiten der einzelnen Anwendungsfälle berücksichtigen.“

Verstehe, was die Zukunft bringt!

Als Mitglied von 1E9 bekommst Du unabhängigen, zukunftsgerichteten Tech-Journalismus, der für und mit einer Community aus Idealisten, Gründerinnen, Nerds, Wissenschaftlerinnen und Kreativen entsteht. Außerdem erhältst Du vollen Zugang zur 1E9-Community, exklusive Newsletter und kannst bei 1E9-Events dabei sein. Schon ab 2,50 Euro im Monat!

Jetzt Mitglied werden!

Noch haben wir nur einen Bruchteil des Potenzials von KI gehoben. Umso wichtiger ist es, dass gerade junge Unternehmen beim Erforschen der Möglichkeiten und beim Entwickeln neuer Geschäftsmodelle unterstützt werden. Um die Innovationskraft nicht durch überbordende Regularien im Keim zu ersticken, ist eine direkte Zusammenarbeit von Gründer:innen und Policy Makern denkbar. Letztere gewinnen so einen Einblick in die Use Cases der Produkte, an denen Start-up-Teams arbeiten. Aus diesen Erfahrungen heraus können dann die passenden Schlüsse zur gesetzlichen Regulierung gezogen werden.

„Dual PhD Problem“: KI-Startups brauchen interdisziplinäre Teams

Trotz aller Kollaboration bleiben für jedes einzelne Start-up ganz basale Probleme bestehen, die es zu meistern gilt. Das beginnt schon bei der Zusammensetzung des Teams: Welche Expertise braucht es unter den Gründer:innen? Und welche Auswirkungen hat das auf die Qualität der Algorithmen?

Mit der Verbreitung von Machine Learning als grundlegende Technologie zahlreicher junger Unternehmen geht die Ära der sogenannten „College Dropouts“ zu Ende, die mit ein paar Software-Skills Unternehmen von Weltformat gebaut haben – man denke da etwa an Facebook. Dieser Annahme folgt Danny Crichton, Redakteur von TechCrunch, in seinem Artikel „The dual PhD problem of today’s startups“: Zum einen ist die Machine-Learning-Technologie komplex und dynamisch. Ihre jüngsten Innovationssprünge erfordern eine hohe Aufmerksamkeitsspanne auf Doktoranden-Niveau. Noch wichtiger ist zu bedenken, dass Machine Learning in den meisten Fällen als Hilfstechnologie dient, die eingesetzt wird, um die Leistung oder Verfügbarkeit in sehr spezifischen Bereichen zu verbessern. Die Bereiche, in denen wir das größte Potenzial für die Auswirkungen von KI sehen – zum Beispiel im Gesundheitswesen, der synthetischen Biologie oder der Mobilität – sind jedoch allesamt selbst sich schnell entwickelnde Domänen mit Eigenheiten und regulatorischen Tiefen.

Um wirklich disruptive Unternehmen aufzubauen, muss man also nicht nur Machine Learning, sondern auch eine weitere Domäne verstehen. Doch auf zwei Gebieten herausragend zu arbeiten, ist für ein Individuum kaum machbar. Aus diesem Grund ist Interdisziplinarität ein entscheidendes Erfolgskriterium für KI-Start-ups. In einem idealen Setup kommen dann hochkarätige Expert:innen aus bestimmten Domänen als Co-Gründer:innen eines KI-Start-ups zusammen. Damit ist nicht nur das „dual PhD problem“ gelöst; auch das notwendige Know-how rund um branchen- wie technologiespezifische Regulierungen ist dann direkt in die DNA des Unternehmens verwoben.

Ohne Kollaboration keine KI(-Regulierung)

Oft werden Diskussionen über die Chancen von KI von ihren potenziellen Risiken überstrahlt. So ist es wenig verwunderlich, dass wir in Deutschland, ja in ganz Europa eigentlich nur davon sprechen, wie wir Gefahren abwenden. Dabei geht meiner Meinung nach der Blick auf das revolutionäre Moment der Technologie verloren: KI verändert unser Leben so grundlegend, wie es zuvor Elektrizität oder Software getan haben.

In diesem Bewusstsein gilt es, die Erfahrungen mit Technologien aus der Vergangenheit sowie die Eindrücke neuartiger Use Cases in vernünftigem Maße in die Überlegungen zur Regulatorik einfließen zu lassen. Die Kollaboration aller beteiligten Stakeholder ist dabei unabdingbar. Besonders Policy Maker brauchen dabei mehr Nähe zu den Use Cases, um verhältnismäßige, rechtliche Rahmenbedingungen zu schaffen. Niemals aber sollten Innovationen am Regulierungswahn scheitern.

Dieser Artikel ist Teil des 1E9-Themenspecials „KI, Verantwortung und Wir“. Darin wollen wir herausfinden, wie wir Künstliche Intelligenz so einsetzen, dass die Gesellschaft wirklich davon profitiert. Alle Inhalte des Specials findest du hier.

Titelbild: Getty Images

3 „Gefällt mir“