Die US-Regierung hat bei einem Think Tank eine Studie über die Gefahren der Künstlichen Intelligenz in Auftrag gegeben. Die Autoren schlagen darin vor, die Entwicklung von KI streng zu regulieren und die freie Veröffentlichung von KI-Modellen zu verbieten. Sie vergleichen das Gefahrenpotenzial von KI mit dem von Atomwaffen.
Von Michael Förtsch
Die Befürchtung, dass Künstliche Intelligenz zum Untergang der Menschheit führen könnte, ist nicht neu. KI-Entwickler warnen seit Jahren davor, dass die Technologie, wenn sie außer Kontrolle gerät, viel Schaden anrichten könnte. Nicht unbedingt wie in den Terminator-Filmen, in denen sich die Künstliche Intelligenz Skynet gegen ihre Schöpfer wendet, aber mit durchaus vergleichbaren Folgen. Selbst OpenAI-Chef Sam Altman mahnte immer wieder, dass die Technologie Risiken berge und reguliert werden müsse. Offenbar ist auch die US-Regierung über das mögliche Schadenspotenzial alarmiert und hat eine Studie in Auftrag gegeben, wie ein durch KI verursachtes „drohendes Aussterben der menschlichen Spezies“ verhindert werden kann.
Verfasst wurde der Bericht vom US-Think Tank Gladstone AI, dessen Autoren nach eigenen Angaben über ein Jahr lang mit mehr als 200 KI-Entwicklern, Technologie-, Militär- und Politikexperten gesprochen haben. Ihre Einschätzungen zeichnen Künstliche Intelligenz als bahnbrechende, disruptive, aber auch zerstörerische Technologie, die streng kontrolliert werden muss, bevor sie zu viel Schaden anrichten kann. Schon jetzt, so die Studie, stelle Künstliche Intelligenz ein „wachsendes Risiko“ für die nationale Sicherheit der Vereinigten Staaten dar. Beispielsweise durch die Möglichkeit, Codes für Malware oder Material für Desinformationskampagnen zu generieren.
Die rasche Entwicklung fortgeschrittener KI-Systeme und der mögliche Durchbruch bei der Entwicklung einer Künstlichen allgemeinen Intelligenz – einer KI, die wie ein Mensch denken und lernen kann – könnten die globale Sicherheit laut der Studie in einer Weise gefährden, die nur mit der Entwicklung von Atomwaffen vergleichbar ist. Den Autoren zufolge könnten solche Technologien eingesetzt werden, um „katastrophale biologische oder chemische Waffen [zu entwickeln] oder Cyber-Angriffe“ und groß angelegte Attacken mit Robotern wie Killer-Drohnen durchzuführen.
Noch gefährlicher, so die Autoren, könnte jedoch ein „Moment des Kontrollverlustes“ sein. Das heißt, ein reales Terminator-Szenario, in dem sich eine hochentwickelte Künstliche Intelligenz verselbständigt und Handlungen auslöst, die das Überleben der Menschheit gefährden könnten. Dem Bericht zufolge gibt es durchaus Gründe, die ein solches Szenario realistisch erscheinen lassen. Daher schlagen die Autoren des Dokuments mit dem Titel An Action Plan to Increase the Safety and Security of Advanced AI mehrere radikale Maßnahmen vor, um sowohl die Entwicklung als auch die Verbreitung von KI-Technologien zu begrenzen.
KI-Modelle verbieten?
Laut der Studie sollte eine neue Bundesbehörde geschaffen werden, um die Entwicklung und Nutzung von Künstlicher Intelligenz zu überwachen. Der US-Kongress solle das Training von KI-Modellen verbieten, die eine bestimmte Leistungsgrenze überschreiten oder mehr als eine erlaubte Rechenleistung benötigen. Modelle wie GPT-4 und Gemini werden als Maßstab vorgeschlagen. KI-Unternehmen, die in der Lage sind, solche Modelle zu trainieren, sollen verpflichtet werden, für die Entwicklung neuer Modelle Genehmigungen bei der Behörde einzuholen. Dies soll „den Wettlauf zwischen den KI-Entwicklern moderieren“.
Im Gegenzug sollten Fördergelder für das Alignment von KI-Modellen – die Methode, die Modelle gegen Missbrauch abzusichern – zur Verfügung gestellt werden. Vorgeschlagen wird auch, die freie Veröffentlichung von KI-Modellen und Dokumenten über die Funktionsweise und das Training von KI-Modellen zu verbieten – also von Modellen wie LLaMA 2, Falcon, Gemma oder Varianten davon, die von der Open-Source-Community erstellt wurden. Verstöße sollten mit drastischen Maßnahmen wie Gefängnisstrafen geahndet werden.
Auch die Entwicklung und Herstellung von Chips, die speziell für den Einsatz und das Training Künstlicher Intelligenz entwickelt werden, sollte stärker reguliert und kontrolliert werden. Denn diese seien derzeit der Flaschenhals der KI-Entwicklung und damit das beste Mittel, um in den Wettlauf der Unternehmen einzugreifen. Die US-Regierung könnte Hersteller wie Nvidia auch dazu verpflichten, Hintertüren in die Hardware einzubauen, die überprüfen lassen, ob die Chips für das Training von KI-Modellen verwendet werden.
Internationale Regulierung
Nach Ansicht der Autoren besteht „klarer und dringender Handlungsbedarf für die US-Regierung“. Denn mit der Entwicklung der Künstlichen Intelligenz sei eine „völlig neue Kategorie von Katastrophenrisiken vergleichbar mit Massenvernichtungswaffen“ entstanden, deren Gefährdungspotenzial mit fortschreitender Entwicklung und Verbreitung stetig zunehme. Die Regulierung könne aber nicht auf die USA beschränkt bleiben. Letztlich müsse ein internationales Verständnis für die Risiken der Künstlichen Intelligenz entwickelt und entsprechend gehandelt werden.
Werde Mitglied von 1E9!
Hier geht’s um Technologien und Ideen, mit denen wir die Welt besser machen können. Du unterstützt konstruktiven Journalismus statt Streit und Probleme! Als 1E9-Mitglied bekommst du frühen Zugriff auf unsere Inhalte, exklusive Newsletter, Workshops und Events. Vor allem aber wirst du Teil einer Community von Zukunftsoptimisten, die viel voneinander lernen.
Jetzt Mitglied werden!Letztlich brauche es international gültige Gesetze, die Sicherheitsregeln definieren, und eine internationale Behörde, ein Pendant zur Internationalen Atomenergiebehörde, die diese überwacht und durchsetzt. „Wir geben diese Empfehlungen nicht leichtfertig“, so die Autoren. „Vielmehr spiegeln sie die beispiellose Herausforderung wider, die sich aus der raschen Entwicklung von KI-Fähigkeiten ergibt, die das Potenzial für katastrophale Risiken bergen, mit denen die Vereinigten Staaten bisher nicht konfrontiert waren.“
Bereits kurz nach der Veröffentlichung wurde der Bericht insbesondere von KI-Entwicklern heftig kritisiert. Die vorgeschlagenen Maßnahmen seien unrealistisch und nicht umsetzbar. Und wenn doch, könnten sie die gesamte Tech- und KI-Industrie gefährden – und dazu führen, dass Unternehmen wie OpenAI, Google und Co. in andere Regionen der Welt abwandern. Zudem könnten die USA ihren technologischen Vorsprung gegenüber Ländern wie China verlieren, die derzeit sehr aggressiv ihre KI-Forschung ausbauen und sich nicht auf eine einheitliche Regulierung auf internationaler Ebene einlassen würden.
Es ist auch unwahrscheinlich, dass die Regelungen in der vorgeschlagenen Form umgesetzt werden. Der Bericht weist ausdrücklich darauf hin, dass die Vorschläge „nicht die Ansichten des US-Außenministeriums oder der US-Regierung widerspiegeln“.
Hat dir der Artikel gefallen? Dann freuen wir uns über deine Unterstützung! Werde Mitglied bei 1E9 oder folge uns bei Twitter, Facebook, Instagram oder LinkedIn und verbreite unsere Inhalte weiter. Danke!
Sprich mit Job, dem Bot!
War der Artikel hilfreich für dich? Hast du noch Fragen oder Anmerkungen? Ich freue mich, wenn du mir Feedback gibst!