Den weltweit fortschrittlichsten Rechtsrahmen für KI zu etablieren, bringt wenig, wenn Europa die Technologie, die sie regulieren will, nur konsumiert. Will Europa auch im digitalen Zeitalter souverän und wirtschaftlich erfolgreich sein, muss es eigene große KI-Modelle, also Foundation Models, entwickeln, schreibt Johannes Winter, ein Experte für sichere und verlässliche KI.
Ein Gastbeitrag von Johannes Winter
Spätestens seit dem ChatGPT-Launch im letzten Jahr sind generative, vortrainierte KI-Modelle zur Textgenerierung zum Dauerthema geworden. Die zugespitzte Frage in Podien und Meinungsbeiträgen lautet nicht selten: Generative KI – Heilsbringer oder Dämon? Es ist offensichtlich, dass die Antwort differenzierter ausfallen muss. Schließlich beeinflussen viele Faktoren die Qualität und Vertrauenswürdigkeit des Ergebnisses: die Größe des Modells und des Trainingsdatensets, die Kosten des Trainings, die Performance nach absolviertem Training oder auch der Anwendungsfall.
Prominente Einwürfe erschweren dabei die sachliche Debatte: der Autor Yuval Harari schrieb kürzlich im Economist, das Betriebssystem der menschlichen Zivilisation – die Sprache – sei durch generative KI gehackt worden. Elon Musk forderte mit Apple-Mitgründer Steve Wozniak, Evan Sharp von Pinterest und weiteren Größen der Tech-Branche ein KI-Moratorium, um kurz darauf selbst TruthGPT anzukündigen. Zuletzt plädierten führende Köpfe aus Wissenschaft und Start-ups, darunter OpenAI-Chef Sam Altman, angesichts existenzieller Risiken für die Menschheit – gefährlich wie eine Atombombe – für ein KI-Kontrollgremium.
Natürlich dürfen bei der Bewertung einer Technologie nicht nur ihr wirtschaftliches und gesellschaftliches Potenzial eine Rolle spielen, auch ethische und regulatorische Anforderungen müssen einbezogen werden. Nicht zuletzt muss eine Technikfolgenabschätzung vorgenommen werden. Den Thought leaders ging es aber wohl weniger um die differenzierte Betrachtung, die handlungsleitend für eine kluge Innovationsförderung und Regulierung gleichermaßen sein kann. Diese ist jedoch notwendig, um die Potenziale der Sprunginnovation KI zu erschließen, ohne die menschliche Entfaltungsmöglichkeit zu behindern.
Die EU will Vorreiter bei der Regulierung von KI sein. Das ist gut, reicht aber nicht.
Wie Künstliche Intelligenz reguliert werden kann und soll, um einerseits das Potential der Technologie auszunutzen, gleichzeitig aber ihre Risiken einzugrenzen, berät gerade auch die Europäische Union. Mit ihrem AI Act will sie die weltweit fortschrittlichste Regelsetzung etablieren. Unter anderem sollen KI-Systeme künftig in vier Risikoklassen einsortiert werden, je nachdem, ob ihr Einsatz mit „niedrigem oder minimalem“, „begrenztem“, „hohem“ oder „unakzeptablem“ Risiko behaftet ist. Je höher das Risiko, umso strenger die Auflagen. KI-Systeme mit „unakzeptablem“ Risiko sollen verboten werden.
Europas Anspruch einer globalen Standardsetzung für vertrauenswürdige KI-Systeme ist unterstützenswert. Doch mit dem AI Act den weltweit fortschrittlichsten Rechtsrahmen für vertrauenswürdige KI zu etablieren, ist wenig wirksam, wenn Europa die Technologie nicht selbst entwickelt. Bisher jedoch sind die Anbieter großer, vortrainierter KI-Modelle meist kapital- und datenintensive Technologieunternehmen aus den USA und China, allen voran OpenAI. Sie liefern die Basismodelle für die digitale Wertschöpfung von morgen. Greifen Forscher und Unternehmen primär auf außereuropäische Anbieter zurück, können Abhängigkeiten die Folge sein. Und das, obwohl schon jetzt US-Unternehmen wie Alphabet, Meta oder Microsoft die Digitalwirtschaft dominieren. Europa würde auch im Bereich KI Wertschöpfung einbüßen.
Die deutschen Start-ups Nyonic und Aleph Alpha wollen dies mit eigenen, vertrauenswürdigen Foundation Models ändern, was aus einer wirtschaftlichen und politischen Überlegung heraus wichtig ist. Doch zwei Firmen werden nicht reichen, um Europas Souveränität zu sichern. Deswegen braucht es zusätzlich zur Regulierung die Stärkung der europäischen Forschung, aus der Start-ups hervorgehen können.
KI-Forschung als strategische Aufgabe
Wir müssen die KI-Forschung in Europa weiter stärken, um Europas digitale Souveränität zu erhalten. Will Europa nicht nur Konsument sein, muss es technologische Abhängigkeiten reduzieren. Das fängt bei der Entwicklung und Herstellung von Halbleitern an, die für das Training und den Einsatz von KI-Algorithmen unerlässlich sind. Außerdem braucht es Investitionen in eigene Foundation Models, die Innovationen erst ermöglichen und zugleich im Einklang mit der europäischen KI- und Datenschutzgrundverordnung sein müssen.
Damit aus dieser Grundlagenforschung auch innovative, wettbewerbsfähige Unternehmen werden, muss sich außerdem das Ökosystem rund um Universitäten und Forschungseinrichtungen weiter verbessern. Mit der UnternehmerTUM in München oder der Life Science Factory in Göttingen gibt es in Deutschland bereits erfolgreiche Beispiele dafür, wie Forscher bei der Gründung von Start-ups unterstützt werden können.
Weiteren Handlungsbedarf gibt es von operativen Skills zur Implementierung, Verwaltung und Verbesserung von KI-Modellen in der Industrie, über die Entwicklung maßgeschneiderter KI-Services für Unternehmen, Verwaltung und Gesellschaft, bis zur KI-Kompetenzentwicklung entlang der gesamten Bildungskette. Dabei spielen Open-Source-Ansätze eine besondere Rolle, fördern und ermöglichen sie doch die Demokratisierung der KI-Entwicklung und eine umfassende Beteiligung von Unternehmen, Start-ups und Forschungseinrichtungen.
Die öffentliche Debatte über KI muss versachlicht werden
Zusätzlich zu diesen politischen Maßnahmen ist eine Versachlichung der öffentlichen KI-Debatte wichtig, um den gesellschaftlichen Diskurs und das technologie- und innovationspolitische Handeln auf ein festes Fundament zu stellen. Hier kann die Wissenschaft in der Beratung von Politik und Gesellschaft wirkungsvoll beitragen, auch wenn dies herausfordernd sein kann.
Ja, große Sprachmodelle sind mächtige Werkzeuge für die Aufbereitung von Wissen, zur Erstellung von Inhalten, zur Interaktion zwischen Mensch und Maschine oder auch zur Unterstützung von Entscheidungen. Es spricht einiges für einen iPhone-Moment, den wir gerade erleben. Gehackt wurde unser Betriebssystem Sprache dennoch nicht. Die Oberflächen- und Tiefenstruktur der Sprache ist komplex und das KI-System halluziniert daher bisher Informationen, auf die es nicht ausdrücklich trainiert wurde und liefert stattdessen irreführende Antworten.
Das ist ein Problem, genau wie die Möglichkeit, mit generativer KI noch leichter Fake News oder Deepfakes zu produzieren. Doch an Lösungen wird gearbeitet. Semantische Technologien wie Wissensgraphen zeigen nicht nur mathematische Zusammenhänge, sondern visualisieren auch Beziehungen zwischen Daten und Wissen, die zuvor unbekannt waren oder fehlinterpretiert wurden. Setzen KI-Chatbots graphbasierte Lösungen ein, kommen sie zu vertrauenswürdigen Antworten. Das L3S arbeitet an diesen Themen.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Über die Gefahren von KI zu debattieren, indem man diese wie die vermeintlichen Vordenker mit der Bedrohung durch Nuklearwaffen vergleicht, lenkt einerseits von den ganz konkreten Herausforderungen der Technologie ab, facht außerdem den Hype an und schürt letztlich Angst und Unsachlichkeit. Damit schafft diese Art der Debatte ein Klima, in der die Skepsis gegenüber KI zunimmt, was zu überzogener Regulierung und einer innovationsfeindlichen Grundstimmung beitragen könnte. Große KI-Durchbrüche aus Europa brauchen ein anderes Umfeld.
Europa kann aus eigenem wirtschaftlichem und politischem Interesse heraus einen gewichtigen Beitrag leisten, damit KI zum Heilsbringer wird. Doch dazu muss es jetzt die richtigen Weichen stellen.
Dr. Johannes Winter
Chief Strategy Officer / Member of ext. Board of Directors
L3S Research Center on Trustworthy AI & Digital Transformation
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!